JP6791063B2 - 画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造 - Google Patents

画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造 Download PDF

Info

Publication number
JP6791063B2
JP6791063B2 JP2017160604A JP2017160604A JP6791063B2 JP 6791063 B2 JP6791063 B2 JP 6791063B2 JP 2017160604 A JP2017160604 A JP 2017160604A JP 2017160604 A JP2017160604 A JP 2017160604A JP 6791063 B2 JP6791063 B2 JP 6791063B2
Authority
JP
Japan
Prior art keywords
image data
information
data
metadata
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017160604A
Other languages
English (en)
Other versions
JP2019041190A (ja
Inventor
裕生 渡邊
裕生 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017160604A priority Critical patent/JP6791063B2/ja
Priority to PCT/JP2018/028369 priority patent/WO2019039192A1/ja
Publication of JP2019041190A publication Critical patent/JP2019041190A/ja
Priority to US16/742,935 priority patent/US20200151917A1/en
Application granted granted Critical
Publication of JP6791063B2 publication Critical patent/JP6791063B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6209Protecting access to data via a platform, e.g. using keys or access control rules to a single file or object, e.g. in a secure envelope, encrypted and accessed using a key, or with access control rules appended to the object itself
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/30Public key, i.e. encryption algorithm being computationally infeasible to invert or user's encryption keys not requiring secrecy

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造に関する。
近年、様々な情報機器の普及により、画像データを手軽に再生することができるようになってきた。また、ユーザ好みのタイミングや編集で画像データを再生することができるようにもなってきており、再生に伴う様々な技術が提案されている(たとえば特許文献1、特許文献2、特許文献3、特許文献4)。
特許文献1に開示される画像表示装置では、スライドショー表示が行われている際に表示不可能な画像があった場合、表示不可能な画像の代わりにエラーメッセージを表示することによって、本来表示されるべき画像が表示されなかったという事実をユーザに提示することができる(特許文献1の段落0062〜0065)。
特許文献2に開示されるスライドショー作成装置では、スライドショーにおける画像の表示タイミングと表示タイミング毎の表示に適した画像の選択条件とをプレイリスト・テンプレートに規定することによって、創作性の高いスライドショーを手軽にかつ安価に自動作成することができる(特許文献2の段落0038)。
特許文献3に開示される情報処理装置では、画像データのメタデータに記載された再生時間詳細情報に基づいて、どのような長さの曲がBGMとして指定されても、音楽付き写真スライドショーの先端および終端を音楽に合わせて調整したスライドショーを提供することができる(特許文献3の段落0169)。
特許文献4に開示される装置では、複数のユーザからのコメントが結合されたメディアコンテンツを表示することができる(特許文献4の段落0027〜0030、要約)。
再表2009−139385号公報 特許第4343027号公報 特許第4284620号公報 特開2016−538657号公報
スライドショーは、複数の画像を連続して表示させるために、連続された画像を映像にエンコードするための装置やソフトウエア(エンコーダ)が別途必要となり、コストがかかるという課題がある。
また、エンコード以外に、複数の画像を連続して表示するタイミングを管理する方法もあるが、このような方法の場合であっても、画像とは別に、複数の画像を連続して表示するタイミングを管理するデータを作成する必要があるため、スライドショーコンテンツの作成が煩雑となってしまうという課題がある。
さらに、複数の画像を連続して表示するタイミングを管理するデータを読み出すことが可能な装置またはソフトウエアが別途必要となり、コストがかかる課題がある。
本発明は、上述した問題の少なくとも1つを解決するため、再生経過時刻に応じた表示を容易に行うことができる画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造を提供することを目的とする。
上記課題を解決するために、本発明の画像データ再生装置は、符号化されたデータとメタデータを有する画像データを再生する画像データ再生部を備え、メタデータは、領域情報と時刻情報とを組みとするトリミング情報を少なくとも含み、画像データ再生部は、トリミング情報に従って、画像データの再生開始からの経過時刻に応じた領域情報に基づく所定領域をトリミングして順次表示し、トリミング情報は、アニメーション情報をさらに含み、画像データ再生部は、トリミング情報に従って、経過時刻に応じたアニメーション情報に基づくアニメーションを画像データに重畳して表示するすることを特徴とする。
また、上述した画像データ再生装置であって、上述した画像データは、楽譜データであることが好ましい。
また、本発明の他の側面は、情報処理装置に関するものである。すなわち、本発明の情報処理装置は、上述したいずれかの画像データ再生装置と、画像データ再生装置が再生するための画像データを生成する画像データ生成部を有することを特徴とする。
また、本発明の他の側面は、画像データ再生装置の画像データ再生方法に関するものである。すなわち、本発明の画像データ再生方法は、画像データを再生する画像データ再生方法であって、画像データは、画像データの所定の範囲を示す領域情報と表示させるタイミングを示す時刻情報とを組みとするトリミング情報を少なくとも含んだメタデータを有し、画像データのメタデータを分析してトリミング情報を取得するステップと、取得したトリミング情報に従って、画像データの再生開始からの経過時刻に応じた領域情報に基づく所定領域をトリミングして順次表示する画像データ再生ステップとを有し、トリミング情報は、アニメーション情報をさらに含み、画像データ再生ステップは、トリミング情報に従って、経過時刻に応じたアニメーション情報に基づくアニメーションを画像データに重畳して表示するステップを含むことを特徴とする。
本発明によれば、再生経過時刻に応じた表示を容易に行うことができる画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造を提供することができる。
メタデータを格納した画像データの生成処理の概要について示す図である。 画像データの一例を示す図である。 楽譜データを再生経過時間に合わせてトリミング表示する例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。 第一の実施の形態における情報処理装置1の内部の構成例を示すブロック図である。 第一の実施の形態の情報処理装置の画像トリミング表示処理を示すフローチャートである。 歌詞データを再生経過時間に合わせてテロップ表示する例を示す図である。 第二の実施の形態における情報処理装置の内部の構成例を示すブロック図である。 第二の実施の形態の情報処理装置1のテロップ表示処理を示すフローチャートである。 メタデータに改ざん検出データが記述された画像データの例を示す図である。 第三の実施の形態における情報処理装置の内部の構成例を示すブロック図である。 第三の実施の形態の情報処理装置1の改ざん検出処理を示すフローチャートである。 符号化されたデータと、地図上の位置や設定言語に従って選択表示する地名などの文字列を含むメタデータを有する画像データの利用例を示す図である。 符号化されたデータと、画像データの撮影場所の住所や施設名などの文字列を含むメタデータを有する画像データの利用例を示す図である。 符号化されたデータと、画像データの内容を示すテキストデータを含むメタデータを有する画像データの利用例を示す図である。 符号化されたデータと、画像データの画像データ部を公開鍵で暗号化し、その公開鍵を格納したメタデータを有する画像データの利用例を示す図である。 符号化されたデータと、画像データのオブジェクト情報を含むメタデータを有する画像データの利用例を示す図である。 符号化されたデータと、画像データのオブジェクト情報を含むメタデータを有する画像データの利用例を示す図である。
以下、一実施の形態に係る画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造について、図1〜図18を参照しながら説明する。なお、本発明に係る画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造は、第一の実施の形態にて説明するが、第一の実施形態に限定されるものではない。説明は以下の順序で行う。
1.メタデータを格納した画像データの生成処理の概要
2.第一の実施の形態
3.第二の実施の形態
4.第三の実施の形態
5.変形例
<<メタデータを格納した画像データの生成処理の概要>>
図1は、メタデータを格納した画像データの生成処理の概要について示す図である。本実施の形態の情報処理装置1は、たとえば、ノートパソコンやデスクトップパソコン等の装置である。情報処理装置1は、メタデータを生成し、生成したメタデータを格納した画像データを生成する画像データ生成装置としての機能と、メタデータが格納された画像データを再生することができる画像データ再生装置としての機能を有している。そのため、情報処理装置1には、画像データ生成装置として機能させるためのプログラムや、画像データ再生装置として機能させるためのプログラムが予めインストールされている。しかしながら、情報処理装置1は、画像データ生成装置としての機能または画像データ再生装置のいずれかの機能のみを有しているものであってもよい。
情報処理装置1は、カメラにより撮像された原画像データ、あるいは、画像処理により作成された原画像データ(画像処理ソフトにより作成されたデータである、いわゆるアートワークも含む)を入力するとともに、原画像データの再生制御データを入力する。再生制御データは、たとえば、時刻情報と領域情報とを組みとするトリミング情報からなるデータである。領域情報は、原画像データ内のある領域を指定するための情報であって、たとえば、左上の座標、幅、高さからなる情報、あるいは、左上の座標、右下の座標からなる情報である。時刻情報は、原画像データの再生開始からの経過時刻(経過時間)を示す情報である。
情報処理装置1は、入力された原画像データに対して所定の符号化処理を施すとともに、入力された再生制御データからメタデータを生成し、符号化されたデータと生成されたメタデータを有する画像データを生成する。
図2は、画像データの一例を示す図である。図2に示すように、画像データPは、SOI(Start of Image)、APP1、・・・APP11、原画像データ、EOI(End of Image)の領域からなる。本実施の形態の画像データPは、たとえば、従来のJPEG(Joint Photographic Experts Group)規格の拡張機能である、JPEG XT Part3のボックスファイルフォーマットにより規定されており、自由記述できる拡張可能なボックスベースのファイル形式が指定される。
SOIは、JPEGファイルの先頭にあり、JPEGファイルの起点を表すマーカであり、このSOIを読み取ることでJPEGファイルの判別を行う。
APP1は、アプリケーションマーカセグメント1を表し、画像に対する付属情報(Exif:Exchangeable image file format)を格納する領域である。
APP11は、アプリケーションマーカセグメント11を表し、JSON(JavaScript Object Notation)で記述できるJPEG XT Part3のボックスファイルフォーマットにより規定されるメタデータを格納する領域である。
APP11の領域には、アプリケーションマーカセグメントの長さおよび複数のボックスデータが格納される。各ボックスデータには、ボックスの長さ(Box Length)、ボックスタイプ(Box Type)、メタデータタイプ(Metadata type)、スキーマID(Schema ID)、メタデータが格納される。図2の例では、JUMBF(0)のボックスデータには、メタデータタイプがMIME、スキーマIDがAPP/JSON、メタデータがJSONからなるデータが格納される。JUMBF(1)のボックスデータには、メタデータタイプがVender、スキーマIDがVender/XXX、メタデータがXXXデータからなるデータが格納される。
原画像データは、JPEGファイルの原画像データ(圧縮符号化データ)を格納する領域である。
EOIは、JPEGファイルの終わりを表すマーカである。
図2に示したように、画像データPのAPP11のボックスファイルデータ内に、JSONで記述できるメタデータを格納することにより、そこに指定されたデータを読み取ることで、画像データの再生を管理することができる。
<<第一の実施の形態(楽譜データを用いた例)>>
図3は、楽譜データを再生経過時間に合わせてトリミング表示する例を示す図である。図3に示すように、画像データP1は、12小節の楽譜からなる原画像データを表している。画像データP1のAPP11の領域には、JSONで記述されたメタデータM1が格納されている。メタデータM1には、第1行目に「"clip”:[」、第2行目に「{」、第3行目に「"time”:0,」、第4行目に「"left”:10,」、第5行目に「"top”:60,」、第6行目に「"width”:400,」、第7行目に「"height”:100」、第8行目に「},」第9行目に「{」、第10行目に「"time”:16,」、第11行目に「"left”:10,」、第12行目に「"top”:160,」、第13行目に「"width”:400,」、第14行目に「"height”:100」、第15行目に「},」、第n行目に「]」が記述されている。
「"clip”」は、トリミング機能(クリップ機能)を用いることを指示する情報である。「"time”」の後に記述される情報は、時刻情報を示し、「"left”」、「"top”」、「"width”」の後に記述される情報は、領域情報を示している。つまり、メタデータM1には、トリミング機能によって画像の所定位置をトリミングするための時刻情報と領域情報とを組みとするトリミング情報が記述されており、情報処理装置1は、このメタデータ(トリミング情報)M1を読み出すことで、画像データP1の再生開始からの経過時刻に応じて、時刻情報に紐付けられた領域情報に基づく所定領域をトリミングして順次表示させることができる。
図3の例では、このようなメタデータM1が格納された画像データP1を表示させる際、表示開始時刻から最初の16秒までの間は、左10ピクセル、上60ピクセルの位置から、高さ100ピクセル、幅400ピクセルの領域がトリミングされる。これにより、矢印A1の先に示されるように、最初の4小節の領域P2がトリミング表示される。
続いて、表示開始時刻から16秒が経過してから32秒までの間は、左10ピクセル、上160ピクセルの位置から、高さ100ピクセル、幅400ピクセルの領域がトリミングされる。これにより、矢印A2の先に示されるように、次の4小節の領域P3がトリミング表示される。
以上のような画像データを経過時間に合わせてトリミング表示する動作の詳細についてはフローチャートを参照して後述する。
<第一の実施の形態の情報処理装置の構成例>
図4は、情報処理装置1のハードウェア構成例を示すブロック図である。情報処理装置1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Accedd Memory)13、バス14、入力部15、出力部16、記憶部17、および通信部18を有する。
CPU11、ROM12、RAM13は、バス14により相互に接続される。バス14には、入力部15、出力部16、記憶部17、および通信部18も接続される。
入力部15は、キーボードやマウス等の入力デバイスからなり、各種情報をバス14を介してCPU11に供給する。出力部16は、ディスプレイやスピーカ等の出力デバイスからなり、CPU11の指示に従って画像を表示したり、音声を再生したりする。記憶部17は、ハードディスクや不揮発性のメモリなどにより構成される。記憶部17は、CPU11が実行するプログラムの他に、メタデータが格納された画像データなどの各種データを記憶する。通信部18は、ネットワークインタフェースなどにより構成され、無線や有線による通信を介して、図示せぬ外部機器と通信を行う。
図5は、第一の実施の形態における情報処理装置1Aの内部の構成例を示すブロック図である。情報処理装置1Aには、メタデータを生成し、生成したメタデータを格納した画像データを生成する画像データ生成部や、メタデータが格納された画像データを再生する画像データ再生部を備える。つまり、情報処理装置1Aは、メタデータを生成し、生成したメタデータを格納した画像データを生成する画像データ生成装置30、および、メタデータに基づいて画像データを再生する画像データ再生装置40から構成される。
画像データ生成装置30は、画像符号化部31、メタデータ生成部32、画像データ生成部33、および記録制御部34から構成される。
画像符号化部31は、カメラにより撮像された原画像データ、あるいは、画像処理により作成された原画像データを入力し、入力された原画像データに対して、JPEG XT画像形式で符号化する。符号化されたデータは、画像データ生成部33に供給される。
メタデータ生成部32は、時刻情報と領域情報とを組みとするトリミング情報からなる再生制御データを入力し、JSON で記述できるJPEG XT Part3のボックスファイルフォーマットにより規定されるメタデータを生成する。生成されたメタデータは、画像データ生成部33に供給される。
画像データ生成部33は、画像符号化部31から供給された符号化されたデータと、メタデータ生成部32から供給されたメタデータとを格納した画像データ(図2)を生成する。生成された画像データは、記録制御部34に供給される。
記録制御部34は、画像データ生成部33から供給された符号化データとメタデータを有する画像データを記憶部17に供給し、そこへの記録を制御する。
画像データ再生装置40は、解析部41、画像復号部42、画像記憶部43、画像トリミング部44、および出力制御部45から構成される。
解析部41は、入力部15からの指示に基づいて、記憶部17から画像データを取得し、取得した画像データに格納されているメタデータを解析するとともに、画像データに格納されているJPEG XT画像形式の符号化データを画像復号部42に供給する。解析部41は、図示せぬ内部タイマを起動し、内部タイマの計時時刻と、解析したメタデータに記述された時刻情報と領域情報とを組みとする複数のトリミング情報のうち、内部タイマの計時時刻に合致する時刻情報を有するトリミング情報に基づいて、画像トリミング部44を制御する。つまり、解析部41は、メタデータに記述された複数のトリミング情報に基づいて、画像記憶部43に記憶されている画像データのうち、所定のタイミングで所定領域の画像を順次トリミングさせるように、画像トリミング部44を制御する。
画像復号部42は、解析部41から供給されたJPEG XT画像形式の符号化データを復号する。復号された画像データは、画像記憶部43に供給され、そこに一時記憶される。
画像トリミング部44は、解析部41の制御に基づいて、画像記憶部43に記憶されている画像データのうち、所定のタイミングで、所定領域の画像をトリミングし、トリミング画像データを出力制御部45に供給する。
出力制御部45は、画像トリミング部44から供給された所定領域の画像データをディスプレイに供給し、そこへの出力(表示)を制御する。
<第一の実施の形態の情報処理装置の動作>
図6のフローチャートを参照して、以上のような構成を有する第一の実施の形態の情報処理装置1Aの画像トリミング表示処理について説明する。
ステップS1において、解析部41は、入力部15からの指示に基づいて、記憶部17から画像データを取得する。ステップS2において、解析部41は、画像データに格納されているメタデータを解析するとともに、読み出した画像データに格納されているJPEG XT画像形式の符号化データを画像復号部42に供給する。
ステップS3において、画像復号部42は、解析部41から供給されたJPEG XT画像形式の符号化データを復号する。復号された画像データは、画像記憶部43に供給され、そこに一時記憶される。
ステップS4において、解析部41は、内部タイマを起動する。ステップS5において、解析部41は、内部タイマの計時時刻と、解析したメタデータに記述された複数のトリミング情報のうち、内部タイマの計時時刻に合致する時刻情報を有するトリミング情報があるか否かを判定する。
ステップS5において、解析部41は、内部タイマの計時時刻に合致する時刻情報を有するトリミング情報があると判定した場合(ステップS5:YES)、内部タイマの計時時刻に合致する時刻情報を有するトリミング情報に基づいて、画像トリミング部44を制御する。
ステップS6において、画像トリミング部44は、解析部41の制御に基づいて、画像記憶部43に記憶されている画像データのうち、時刻情報に紐付けられた領域情報に基づく所定領域の画像をトリミングする。トリミングされた所定領域の画像データは、出力制御部45に供給される。
ステップS7において、出力制御部45は、画像トリミング部44から供給された所定領域の画像データをディスプレイに供給し、そこへの出力を制御する。その後、処理はステップS5に戻り、内部タイマの計時時刻に合致する時刻情報を有するトリミング情報がないと判定されるまで、上述した処理を繰り返す。
そして、ステップS5において、内部タイマの計時時刻に合致する時刻情報を有するトリミング情報がないと判定された場合(ステップS5:NO)、図6に示す画像トリミング表示処理を終了する。
以上のように、第一の実施の形態の情報処理装置1Aによれば、符号化されたデータと、時刻情報と領域情報とを組みとするトリミング情報を少なくとも含むメタデータを有する画像データを生成することにより、メタデータに記述された時刻情報に合致する表示タイミングになった際、その時刻情報に紐付けられた領域情報に基づいて、画像データの所定領域のみをトリミングして順次表示させることができる。これにより、画像データに表示タイミングおよび管理データを内包することができるため、データ管理が単純となる。また、表示させたい画像領域や、その画像領域の再生タイミングについて、メタデータ内の情報を編集するだけでよく、特定の装置やソフトウエアを用いなくてもよいため容易に変更することができると共に、再生経過時刻に応じた表示を容易に行わせることができる。
また、情報処理装置1Aは、音声データ再生部をさらに備えるようにし、画像データに関連付けて音声データを記憶部17に記憶させるようにしてもよい。このような構成によって、情報処理装置1Aは、画像データを表示する際、画像データに関連付けられた音声データを再生することができる。たとえば、ピアノの楽譜データを表示させる際、その楽譜のガイドとなるピアノ演奏の音声データも同時に再生させることができる。これにより、ユーザは、ガイド演奏に従ってピアノ演奏を練習することができる。またたとえば、ピアノの楽譜データを表示させる際、その楽譜に基づくバイオリン演奏の音声データも同時に再生させることができる。これにより、ユーザは、ピアノ演奏するだけで、バイオリン演奏との二重奏を楽しむことができる。
また以上において、情報処理装置1Aは、時刻情報と領域情報とを組みとするトリミング情報を少なくとも含むメタデータに、さらに、アニメーション情報を記述するようにしてもよい。このような構成によって、情報処理装置1は、画像データを表示する際、画像データに関連付けられたアニメーション情報に基づく画像も同時に表示させることができる。たとえば、ピアノの楽譜データの所定領域を表示させる際、その楽譜のピアノ演奏のガイド機能(次に弾く鍵盤の場所を教えてくれるアニメーション)の画像を重畳表示させることができる。これにより、ユーザは、ガイド機能に従ってピアノ演奏を練習することができる。
<<第二の実施の形態(歌詞データを用いた例)>>
図7は、歌詞データを音声データの再生経過時間に合わせてテロップ表示する例を示す図である。図7に示すように、画像データP11は、アートワークからなる原画像データを表している。画像データP11のAPP11の領域には、JSONで記述されたメタデータM11が格納されている。メタデータM11には、第1行目に「"lyrics”:[」、第2行目に「{」、第3行目に「"time”:58」、第4行目に「"text”: "ああ金沢はー”」、第5行目に「},」第6行目に「{」、第7行目に「"time”:65」、第8行目に「"text”: "今日も雪だったー”」、第9行目に「},」、第n行目に「]」が記述されている。
「"lyrics”」は、歌詞表示機能を用いることを指示する情報である。「"time”」の後に記述される情報は、時刻情報を示し、「"text”」の後に記述される情報は、テキストデータを示している。つまり、メタデータM11には、歌詞表示機能によって歌詞表示するための時刻情報とテキストデータとを組みとするテロップ情報が記述されており、情報処理装置1は、メタデータM11が格納された画像データP11を埋め込んだ音声データを生成することで、音声データを再生する際、音声データに埋め込まれた画像データP11を取得し、取得した画像データP11に格納されたメタデータ(テロップ情報)M11を読み出すことで、音声データの再生開始からの経過時刻に応じて、時刻情報に紐付けられたテキストデータに基づくテロップを順次表示させることができる。
図7の例では、このようなメタデータM11が格納された画像データP11が埋め込まれた音声データを再生させる際、再生開始時刻から58秒が経過して65秒までの間は、「ああ金沢はー」が読み出される。これにより、矢印A11の先に示されるように、画像P12に重畳して「ああ金沢はー」のテキストがテロップ表示される。
続いて、再生開始時刻から65秒が経過してから次の時刻情報までの間は、「今日も雪だったー」が読み出される。これにより、矢印A12の先に示されるように、画像P13に重畳して「今日も雪だったー」のテキストがテロップ表示される。
以上のような音声データの再生経過時間に合わせてテロップ表示する動作の詳細についてはフローチャートを参照して後述する。
<第二の実施の形態の情報処理装置の構成例>
第二の実施の形態における情報処理装置1Bは、図4に示したハードウェア構成例と同様であり、その説明は省略する。図8は、第二の実施の形態における情報処理装置1Bの内部の構成例を示すブロック図である。情報処理装置1Bには、メタデータを生成し、生成したメタデータを格納した画像データを生成する画像データ生成部や、メタデータが格納された画像データを再生する画像データ再生部を備える。また、情報処理装置1Bは、メタデータが格納された画像データを埋め込んだ音声データを生成する音声データ生成部、および音声データを再生する音声データ再生部を備える。第二の実施の形態における情報処理装置1Bは、メタデータを生成し、生成したメタデータを格納した画像データを生成し、生成した画像データを埋め込んだ音声データを生成するデータ生成装置50、および、音声データを再生するとともにメタデータに基づいて画像データを再生するデータ再生装置60から構成される。
データ生成装置50は、画像符号化部51、メタデータ生成部52、データ生成部53、および記録制御部54から構成される。
画像符号化部51は、カメラにより撮像された原画像データ、あるいは、画像処理により作成された原画像データを入力し、入力された原画像データに対して、JPEG XT画像形式で符号化する。符号化されたデータは、データ生成部53に供給される。
メタデータ生成部52は、時刻情報とテキストデータとを組みとするテロップ情報からなる再生制御データを入力し、JSON で記述できるJPEG XT Part3のボックスファイルフォーマットにより規定されるメタデータを生成する。生成されたメタデータは、データ生成部53に供給される。
データ生成部53は、画像符号化部51から供給された符号化されたデータと、メタデータ生成部52から供給されたメタデータとを格納した画像データ(図2)を生成する。データ生成部53は、外部から音声データを入力し、入力した音声データに、メタデータが格納された画像データを埋め込み、それを記録制御部54に供給する。
記録制御部54は、データ生成部53から供給された、符号化データとメタデータを有する画像データが埋め込まれた音声データを記憶部17に供給し、そこへの記録を制御する。
データ再生装置60は、解析部61、画像復号部62、テキスト描画部63、および出力制御部64から構成される。
解析部61は、入力部15からの指示に基づいて、記憶部17から音声データを取得し、取得した音声データを出力制御部64に供給するとともに、取得した音声データに埋め込まれている画像データを取得し、取得した画像データに格納されているメタデータを解析する。解析によって、画像データに格納されているJPEG XT画像形式の符号化データが画像復号部62に供給される。
また、解析部61は、図示せぬ内部タイマを起動し、内部タイマの計時時刻と、解析したメタデータに記述された時刻情報とテキストデータとを組みとする複数のテロップ情報のうち、内部タイマの計時時刻に合致する時刻情報を有するテロップ情報に基づいて、テキスト描画部63を制御する。つまり、解析部61は、メタデータに記述された複数のテロップ情報に基づいて、所定のタイミングでテキストデータを順次画像化させるように、テキスト描画部63を制御する。
画像復号部62は、解析部61から供給されたJPEG XT画像形式の符号化データを復号する。復号された画像データは、出力制御部64に供給される。
テキスト描画部63は、解析部61の制御に基づいて、所定のタイミングで、解析部61から供給されたテキストデータを画像化して出力制御部64に供給する。
出力制御部64は、解析部61から供給された音声データをスピーカに出力して再生させるとともに、画像復号部62から供給された画像データに、テキスト描画部63から供給された画像を重畳してディスプレイに供給し、そこへの出力(表示)を制御する。
<第二の実施の形態の情報処理装置の動作>
図9のフローチャートを参照して、以上のような構成を有する第二の実施の形態の情報処理装置1のテロップ表示処理について説明する。
ステップS11において、解析部61は、入力部15からの指示に基づいて、記憶部17から音声データを取得する。ステップS12において、解析部61は、音声データに埋め込まれている画像データのメタデータを解析する。取得した音声データは、出力制御部64に供給され、解析されたメタデータに格納されているJPEG XT画像形式の符号化データは、画像復号部52に供給される。
ステップS13において、画像復号部62は、解析部61から供給されたJPEG XT画像形式の符号化データを復号する。復号された画像データは、出力制御部64に供給される。ステップS14において、出力制御部64は、音声データをスピーカに出力して再生させる。
ステップS15において、解析部61は、内部タイマを起動する。ステップS16において、解析部61は、内部タイマの計時時刻と、解析したメタデータに記述された複数のテロップ情報のうち、内部タイマの計時時刻に合致する時刻情報を有するテロップ情報があるか否かを判定する。
ステップS16において、解析部61は、内部タイマの計時時刻に合致する時刻情報を有するテロップ情報があると判定した場合(ステップS16:YES)、内部タイマの計時時刻に合致する時刻情報を有するテロップ情報に基づいて、テキスト描画部63を制御する。
ステップS17において、テキスト描画部63は、解析部61の制御に基づいて、時刻情報に紐付けられたテキストデータを画像化する。画像化されたテキスト画像は、出力制御部64に供給される。
ステップS18において、出力制御部64は、画像復号部62から供給された画像データに、テキスト描画部63から供給されたテキスト画像を重畳してディスプレイに供給し、そこへの出力を制御する。その後、処理はステップS16に戻り、内部タイマの計時時刻に合致する時刻情報を有するテロップ情報がないと判定されるまで、上述した処理を繰り返す。
そして、ステップS16において、内部タイマの計時時刻に合致する時刻情報を有するテロップ情報がないと判定された場合(ステップS16:NO)、図9に示すテロップ表示処理を終了する。
以上のように、第二の実施の形態の情報処理装置1Bによれば、符号化されたデータと、時刻情報とテキストデータとを組みとするテロップ情報を少なくとも含むメタデータを有する画像データを埋め込んだ音声データを生成することにより、音声データを再生する際、音声データに埋め込まれた画像データのメタデータに記述された時刻情報に合致する表示タイミングになった際、その時刻情報に紐付けられたテキストデータを画像化し、画像化したテキスト画像を画像データに重畳してテロップ表示させることができるので音声データの再生経過時刻に応じた画像の表示を容易に行うことができる。また、たとえば、上述した画像データ、音声データ、テキストデータを一つの音楽ファイルとして管理することが可能となるため、データの取扱いが容易となる。また、テロップ情報をテキストデータで格納しているため、テロップ時刻情報の編集も容易となる。
また以上において、情報処理装置1Bは、時刻情報とテキストデータとを組とするテロップ情報を少なくとも含むメタデータに、さらに、テキストの色情報、フォント情報、陰影の有無を示す情報、および背景色情報などを記述するようにしてもよい。このような構成によって、情報処理装置1Bは、テロップ表示をする際、単調なテロップから視覚的にも楽しめるテロップを表示させることができる。
<<第三の実施の形態(改ざん検出データを用いた例)>>
図10は、メタデータに改ざん検出データが記述された画像データの例を示す図である。図10に示すように、画像データP21は、原画像データを表している。画像データP21のAPP11の領域には、JSONで記述されたメタデータM21が格納されている。メタデータM21には、ハッシュ値A、ハッシュ値B、およびスクリプトが記述されている。ハッシュ値Aは、Seedデータを引数としてスクリプトを実行することで得られる値である。Seedデータは、画像データP21の所定領域に予め埋め込まれているデータ(パラメータ)である。ハッシュ値Bは、スクリプトのプログラム文字列を引数としてスクリプトを実行することで得られる値である。スクリプトは、ハッシュ値を算出するためのハッシュ関数(プログラム)である。つまり、メタデータM21には、改ざんを検出するためのデータが記述されており、情報処理装置1は、このメタデータ(改ざん検出データ)M21を読み出してスクリプトを実行することで、画像データP21の改ざんを検出することができる。
以上のような改ざん検出データを読み出して実行する動作の詳細についてはフローチャートを参照して後述する。
<第三の実施の形態の情報処理装置の構成例>
第三の実施の形態における情報処理装置1Cは、図4に示したハードウェア構成例と同様であり、その説明は省略する。図11は、第三の実施の形態における情報処理装置1Cの内部の構成例を示すブロック図である。図11に示す構成のうち、図5の構成と同じ構成については同じ符号を付してあり、重複する説明は適宜省略する。情報処理装置1Cには、メタデータを生成し、生成したメタデータを格納した画像データを生成する生成部や、メタデータが格納された画像データを再生する再生部を備えるほか、さらに、データが改ざんされているか否かを検出するデータ改ざん検出部を備える。第三の実施の形態における情報処理装置1Cは、メタデータを生成し、生成したメタデータを格納した画像データを生成する画像データ生成装置30、および、メタデータが格納された画像データが改ざんされているか否かを検出し、改ざんされていない場合に画像データを再生するデータ改ざん検出装置70から構成される。
メタデータ生成部32は、改ざんを検出するためのハッシュ値A、ハッシュ値B、およびスクリプトからなる再生制御データを入力し、JSONで記述できるJPEG XT Part3のボックスファイルフォーマットにより規定されるメタデータを生成する。生成されたメタデータは、画像データ生成部33に供給される。
データ改ざん検出装置70は、解析部71、比較部72、改ざん検出部73、画像復号部74、および出力制御部75から構成される。
解析部71は、入力部15からの指示に基づいて、記憶部17から画像データを取得し、取得した画像データに格納されているメタデータを解析し、メタデータに記述された改ざん検出データ(ハッシュ値A、ハッシュ値B、スクリプト)を比較部72に供給するとともに、画像データに格納されているJPEG XT画像形式の符号化データを画像復号部74に供給する。解析部71は、画像データに埋め込まれているSeedデータを所定の方法で読み出し、それも比較部72に供給する。
比較部72は、解析部71から供給された改ざん検出データに含まれるスクリプトとSeedデータに基づいてハッシュ値A´を算出し、算出したハッシュ値A´とメタデータ(改ざん検出データ)に記述されたハッシュ値Aとを比較する。また比較部72は、改ざん検出データに含まれるスクリプトのプログラム文字列に基づいてハッシュ値B´を算出し、算出したハッシュ値B´とメタデータ(改ざん検出データ)に記述されたハッシュ値Bとを比較する。比較結果は、改ざん検出部73に供給される。
改ざん検出部73は、比較部72の2つの比較結果に基づいて、画像データが改ざんされているか否かを検出し、画像データが改ざんされていない(ハッシュ値Aおよびハッシュ値Bともに正しい)と判断した場合には画像復号部74の復号処理を実行させ、画像データが改ざんされている(ハッシュ値Aおよびハッシュ値Bのいずれか一方または両方が正しくない)ことを検出した場合には、画像復号部74の復号処理を禁止させる。
画像復号部74は、改ざん検出部73の制御に基づいて、復号処理の実行が指示された場合には、解析部71から供給されたJPEG XT画像形式の符号化データを復号し、復号された画像データを出力制御部75に供給する。画像復号部74は、改ざん検出部73の制御に基づいて、復号処理が禁止された場合には、解析部71から供給されたJPEG XT画像形式の符号化データを復号せずに、出力制御部75に供給する。
出力制御部75は、画像復号部74から供給された画像データをディスプレイに供給し、そこへの出力(表示)を制御する。
<第三の実施の形態の情報処理装置の動作>
図12のフローチャートを参照して、以上のような構成を有する第三の実施の形態の情報処理装置1Cの改ざん検出処理について説明する。
ステップS21において、解析部71は、入力部15からの指示に基づいて、記憶部17から画像データを取得する。ステップS22において、解析部71は、画像データに格納されているメタデータを解析し、メタデータに記述された改ざん検出データ(ハッシュ値A、ハッシュ値B、およびスクリプト)を比較部72に供給するとともに、読み出した画像データに格納されているJPEG XT画像形式の符号化データを画像復号部74に供給する。また解析部71は、画像データに埋め込まれたSeedデータを所定の方法で読み出し、比較部72に供給する。
ステップS23において、比較部72は、解析部71から供給されたSeedデータを引数としてメタデータ(改ざん検出データ)に記述されたスクリプトを実行し、ハッシュ値A´を算出する。ステップS24において、比較部72は、メタデータ(改ざん検出データ)に記述されたハッシュ値Aと算出したハッシュ値A´とを比較する。
ステップS25において、比較部72は、メタデータ(改ざん検出データ)に記述されたスクリプトのプログラム文字列を引数としてスクリプトを実行し、ハッシュ値B´を算出する。ステップS26において、比較部72は、メタデータ(改ざん検出データ)に記述されたハッシュ値Bと算出したハッシュ値B´とを比較する。ステップS24およびステップS26による比較結果は、改ざん検出部73に供給される。
ステップS27において、改ざん検出部73は、2つの比較結果から画像データが改ざんされているか否かを判定し、いずれか1つまたは両方の比較結果が異なる場合、画像データは改ざんされていると判定し(ステップS27:YES)、ステップS28において、画像復号部74の復号処理を禁止させる。これにより、画像復号部74は、解析部71から供給されたJPEG XT画像形式の符号化データを復号せずに、出力制御部75に供給する。出力制御部75は、画像復号部74から供給された画像データをディスプレイに供給し、そこへの出力(表示)を制御する。
ステップS27において、改ざん検出部73は、2つの比較結果がいずれも同一である場合、画像データは改ざんされていないと判定し(ステップS27:NO)、ステップS29において、画像復号部74の復号処理を実行させる。画像復号部74は、解析部71から供給されたJPEG XT画像形式の符号化データを復号し、復号された画像データを出力制御部75に供給する。出力制御部75は、画像復号部74から供給された画像データをディスプレイに供給し、そこへの出力(表示)を制御する。
以上のように、第三の実施の形態の情報処理装置1Cによれば、符号化されたデータと、改ざん検出データとを少なくとも含むメタデータを有する画像データを生成することにより、メタデータに記述された改ざん検出データを読み出してスクリプトを実行することで、画像データが改ざんされているか否かを容易に検出することができる。そして、画像データが改ざんされていると判定された場合には、復号処理を禁止させることができる。これにより、従来のハッシュ値を用いた改ざん検知方法と比較すると、ハッシュ値を算出するためのスクリプトが画像データと共に送られてくるため、改ざんの検知自体が容易に行うことができるようになる上に、改ざんを試みようとする場合には、画像データ毎にハッシュ値算出方法を変えることができるので、一意に改ざんをすることは困難であるため、改ざん手法の確立ができなくなる。また、自分以外のデータ提供者が生成した画像データについても容易に改ざんの検証をすることができるようになる。
以上においては、Seedデータは、画像データP21の所定領域に予め埋め込まれているものとしたが、これに限らず、データを扱う規格等で統一するようにしてもよいし、あるいは、メタデータに格納させるようにしてもよい。
また、ステップS25において算出されるハッシュ値B´は、スクリプトのプログラム文字列を引数としてスクリプトを実行することで得られるものとしたが、スクリプトのプログラム文字列とSeedデータを引数としてスクリプトを実行することで得られるものであってもよい。
<<変形例>>
<変形例1>
情報処理装置1A,1B,1Cは、符号化されたデータと、地図上の位置情報や設定言語に従って選択表示する地名などの文字列を含むメタデータを有する画像データを生成するようにしてもよい。これにより、情報処理装置1A,1B,1Cは、画像データを表示する際、画像データに格納されたメタデータのうち、情報処理装置1A,1B,1Cで設定された言語に紐付けられた文字列を取得し、取得した文字列を所定位置に重畳表示させることができる。
図13は、符号化されたデータと、地図上の位置や設定言語に従って選択表示する地名などの文字列を含むメタデータを有する画像データの利用例を示す図である。
図13に示すように、画像データP31は、日本地図の原画像データを表している。画像データP31のAPP11の領域には、JSONで記述されたメタデータM31が格納されている。メタデータM31には、第1行目に「"point”:{」、第2行目に「"Sapporo”:{」、第3行目に「"x”:560,」、第4行目に「"y”:80,」、第5行目に「"name”:{」、第6行目に「"en-US”: "Sapporo”,」、第7行目に「"ja-JP”: "札幌”」、第8行目に「}」、第9行目に「},」第10行目に「"Tokyo”:{」、第11行目に「"x”:600,」、第12行目に「"y”:600,」、第13行目に「"name”:{」、第14行目に「"en-US”: "Tokyo”,」、第15行目に「"ja-JP”: "東京”」、第16行目に「}」、第17行目に「},」第18行目に「"Naha”:{」、第19行目に「"x”:200,」、第20行目に「"y”:1100,」、第21行目に「"name”:{」、第22行目に「"en-US”: "Naha”,」、第23行目に「"ja-JP”: "那覇”」、第24行目に「}」、第25行目に「},」、第26行目に「}」が記述されている。
「"point”」は、画面上の特定の位置を指し示す機能を用いることを指示する情報である。「"Sapporo”」、「"Tokyo”」、「"Naha”」の「"x”」、「"y”」の後に記述される情報は、地図上におけるそれぞれの地名(位置)の座標情報を示している。「"name”」の後に記述される情報は、言語を示し、「" en-US”」の後に記述される情報は、その言語が設定された際に表示させる地名を示し、「"ja-JP”」の後に記述される情報は、その言語が設定された際に表示させる地名(文字列)を示している。つまり、メタデータM31には、画面上の特定の位置を指し示す機能によって所定言語で地名表示するための座標情報と設定言語と地名とを組みとする地名情報が記述されており、情報処理装置1A,1B,1Cは、画像データを表示する際に、このメタデータ(地名情報)を読み出すことで、端末に設定されている所定の言語に応じた地名を、所定の位置に重畳表示させることができる。
図13の例では、このようなメタデータM31が格納された画像データP31を表示させる際、情報処理装置1A,1B,1Cの言語が日本語に設定されている場合には、メタデータM31の「"ja-JP”」の後に続く地名(札幌、東京、那覇)が読み出される。これにより、情報処理装置1A,1B,1Cは、矢印A31の先に示されるように、日本地図データP32上において、所定の位置に、日本語で地名を重畳表示させる。また、情報処理装置1A,1B,1Cの言語が英語に設定されている場合には、メタデータM31の「" en-US”」の後に続く地名(Sapporo,Tokyo,Naha)が読み出される。これにより、情報処理装置1A,1B,1Cは、矢印A32の先に示されるように、日本地図データP33上において、所定の位置に、英語で地名を重畳表示させる。
このように、変形例1によれば、符号化されたデータと、地図上の位置情報や設定言語に従って選択表示させる地名などの文字列を含むメタデータを有する画像データを生成することにより、画像データを表示させる際、メタデータに記述された地名情報に基づいて、情報処理装置1A,1B,1Cに設定された言語に紐付けられた地名を所定位置に重畳表示させることができる。
<変形例2>
情報処理装置1A,1B,1Cは、符号化されたデータと、画像データの撮影場所の住所や施設名などの文字列を含むメタデータを有する画像データを生成するようにしてもよい。これにより、情報処理装置1A,1B,1Cは、画像データを表示する際、画像データに格納されたメタデータの文字列を取得し、取得した文字列を画像に重畳表示させることができる。また情報処理装置1A,1B,1Cは、画像データに格納されたメタデータの文字列を検索キーとして画像検索したりすることもできる。
図14は、符号化されたデータと、画像データの撮影場所の住所や施設名などの文字列を含むメタデータを有する画像データの利用例を示す図である。
図14に示すように、画像データP41は、沖縄で撮像された原画像データを表している。画像データP41のAPP11の領域には、JSONで記述されたメタデータM41が格納されている。メタデータM41には、第1行目に「"location”:{」、第2行目に「"address”: "沖縄県那覇市首里金城町1丁目2”」、第3行目に「}」が記述されている。
「"location”」は、現在位置を特定してサービスと連携させることができる機能を用いることを指示する情報である。「"address”」の後に記述される情報は、撮影場所の住所を示している。つまり、メタデータM41には、撮影場所の住所を示す情報が記述されており、情報処理装置1A,1B,1Cは、画像データを表示する際に、このメタデータを読み出すことで、メタデータに記述された撮影場所の住所を示す情報を重畳表示させることができる。
図14の例では、このようなメタデータM41が格納された画像データP41を表示させる際、メタデータM41の「"address”」の後に続く文字列(沖縄県那覇市首里金城町1丁目2)が読み出される。これにより、情報処理装置1A,1B,1Cは、矢印A41の先に示されるように、画像データP42上に、撮影場所である住所を重畳表示させる。
また、情報処理装置1A,1B,1Cは、このようなメタデータM41が格納された画像データP41を、矢印A42の先に示されるように、図示せぬネットワークを介して接続されたデータベース(DB)101に供給し、そこで管理させることもできる。これにより、情報処理装置1A,1B,1Cは、「沖縄」を検索キーとして画像検索すると、データベース101で管理されている複数の画像データの中から、メタデータM41に「沖縄」を含む画像データを検索することができる。そして、情報処理装置1A,1B,1Cは、矢印A43の先に示されるように、検索された複数の画像データのサムネイル画像からなる画像リストP43を表示させることができる。
このように、変形例2によれば、符号化されたデータと、撮影場所の住所や施設名などの文字列を含むメタデータを有する画像データを生成することで、画像データを表示させる際、画像データに格納された撮影場所の住所や施設名などを重畳表示させることができる。また、生成された画像データをデータベースで管理させるようすることで、検索キーを指定すると、検索キーを含むメタデータが格納された画像データを容易に検索することもできる。
<変形例3>
情報処理装置1A,1B,1Cは、符号化されたデータと、画像データの内容を示すテキストデータを含むメタデータを有する画像データを生成するようにしてもよい。これにより、情報処理装置1A,1B,1Cは、画像データを表示する際、画像データに格納されたメタデータのテキストデータを取得し、取得したテキストデータをテキスト読み上げ機能によって音声に変換し、変換した音声を再生させることができる。
図15は、符号化されたデータと、画像データの内容を示すテキストデータを含むメタデータを有する画像データの利用例を示す図である。
図15に示すように、画像データP51は、カーナビゲーションシステムで表示されるナビゲーションデータを表している。画像データP51のAPP11の領域には、JSONで記述されたメタデータM51が格納されている。メタデータM51には、第1行目に「"tts”:{」、第2行目に「"lang”: "ja-JP”,」、第3、第4行目に「"text”: "徳島本町方面、渋滞中。徳島本町まで約20分かかります。”」、第5行目に「}」が記述されている。
「"tts”」は、tts(text-to speech)システムと呼ばれるテキスト読み上げ機能を用いることを指示する情報である。「"lang”」の後に記述される情報は、テキスト読み上げ機能を用いる際に指定される言語を示している。「"text”」 の後に記述される情報は、ttsシステムを用いる際に読み上げられるテキストデータを示している。つまり、メタデータM51には、テキスト読み上げ機能によって日本語で読み上げるためのテキストデータが記述されており、情報処理装置1A,1B,1Cは、画像データを表示する際に、このメタデータを読み出すことで、メタデータに記述されたテキストデータに基づく音声を再生させることができる。
図15の例では、このようなメタデータM51が格納された画像データP51を表示させる際、メタデータM51の「"text”」 の後に続くテキストデータ(徳島本町方面、渋滞中。徳島本町まで約20分かかります。)が読み出される。これにより、情報処理装置1A,1B,1Cは、矢印A51の先に示されるように、画像データP52を表示させるとともに、テキスト読み上げ機能を用いて、吹き出しS51に示すようなテキストに基づく音声を再生させる(読み上げる)。
このように、変形例3によれば、符号化されたデータと、画像データの内容を示すテキストデータを含むメタデータを有する画像データを生成することで、画像データを表示させる際、画像データに格納されたテキストデータに基づく音声を再生させることができる。
<変形例4>
情報処理装置1A,1B,1Cは、符号化されたデータと、画像データの画像データ部を公開鍵で暗号化し、その公開鍵を格納したメタデータを有する画像データを生成するようにしてもよい。これにより、情報処理装置1A,1B,1Cは、画像データを表示する際、画像データに格納されたメタデータの公開鍵を取得し、取得した公開鍵にリンクする秘密鍵を有する場合のみ、画像データを復号して表示させることができる。
図16は、符号化されたデータと、画像データの画像データ部を公開鍵で暗号化し、その公開鍵を格納したメタデータを有する画像データの利用例を示す図である。
図16に示すように、画像データP61は、公開鍵で暗号化された原画像データを表している。画像データP61のAPP11の領域には、JSONで記述されたメタデータM61が格納されている。また画像データP61のAPP1(Exif)の領域には、平文のままのサムネイル画像P61aも格納されている。メタデータM61には、第1行目に「"encrypt”:{」、第2行目に「"OID”: "1.2.840.10045.2.1”,」、第3行目に「"public_key”: "04FC2E8B81DD...”」、第4行目に「}」が記述されている。
「" encrypt”」は、暗号化機能を用いることを指示する情報である。「"OID”」の後に記述される情報は、オブジェクトを識別する情報を示し、「" public_key”」 の後に記述される情報は、公開鍵を示している。つまり、メタデータM61には、原画像データの暗号化に用いられた公開鍵が記述されており、情報処理装置1A,1B,1Cは、画像データを表示する際に、このメタデータを読み出すことで、メタデータに記述された公開鍵にリンクする秘密鍵を有する場合のみ、画像データを復号して表示させることができる。
図16の例では、このようなメタデータM61が格納された画像データP61を表示させる際、メタデータM61の「" public_key”」の後に続く公開鍵(04FC2E8B81DD...)が読み出される。これにより、情報処理装置1A,1B,1Cは、読み出した公開鍵にリンクする秘密鍵111を有する場合、その秘密鍵111を用いて画像データP61を復号(解読)し、矢印A61の先に示されるように、画像データP62を表示させる。
また、情報処理装置1A,1B,1Cは、メタデータM61から読み出した公開鍵にリンクする秘密鍵111を有していない場合には、画像データP61を復号することができず、矢印A62の先に示されるように、暗号化されたままの画像データP63を表示させる。
このように、変形例4によれば、符号化されたデータと、画像データの画像データ部を公開鍵で暗号化し、その公開鍵を格納したメタデータを有する画像データを生成することで、画像データを表示させる際、画像データに格納されたメタデータの公開鍵にリンクする秘密鍵を有する場合のみ、画像データを復号して表示させることができる。
<変形例5>
情報処理装置1A,1B,1Cは、符号化されたデータと、画像データの撮影位置、方向、および画角と地図情報に基づいて識別したオブジェクト(施設等)情報を含むメタデータを有する画像データを生成するようにしてもよい。これにより、情報処理装置1A,1B,1Cは、画像データに格納されたメタデータのオブジェクト情報を検索キーとして画像検索したりすることができる。
図17および図18は、符号化されたデータと、画像データの撮影位置、方向、および画角と地図情報に基づいて識別したオブジェクト情報を含むメタデータを有する画像データの利用例を示す図である。
図17に示すように、画像データP71および画像データP72は、緯度35.65851、経度139.745433の位置にある東京タワーを撮影した原画像データを表している。画像データP71のAPP1(Exif)の領域には、緯度35.6591、経度139.741969、方位N90°のExif情報が格納されている。画像データP72のAPP1(Exif)の領域には、緯度35.65851、経度139.745433、方位N315°のExif情報が格納されている。
情報処理装置1A,1B,1Cの演算部112は、画像データP71を入力し、図示せぬネットワークを介して接続されたMapデータベース111を参照し、画像データP71に格納されているExif情報に関連するオブジェクト情報を取得する。演算部112は、Mapデータベース111から取得したオブジェクト情報に基づいて、矢印A71の先に示されように、JSONで記述したメタデータM71を生成する。
情報処理装置1A,1B,1Cの演算部113は、画像データP72を入力し、図示せぬネットワークを介して接続されたMapデータベース111を参照し、画像データP72に格納されているExif情報に関連するオブジェクト情報を取得する。演算部113は、Mapデータベース111から取得したオブジェクト情報に基づいて、矢印A72の先に示されるように、JSONで記述したメタデータM72を生成する。
メタデータM71、M72には、第1行目に「"objects”:[」、第2行目に「{」、第3行目に「"name”: "東京タワー”,」、第n−1行目に「}」、第n行目に「]」が記述されている。「"objects”」の後に記述される情報は、オブジェクト情報を示している。つまり、メタデータM71、M72には、撮影位置に関連するオブジェクト情報が記述されている。
情報処理装置1A,1B,1Cは、生成したメタデータM71を画像データP71のAPP11の領域に格納し、生成したメタデータM72を画像データP72のAPP11の領域に格納する。
情報処理装置1A,1B,1Cは、メタデータM71が格納された画像データP71、メタデータM72が格納された画像データP72を、図18の矢印A81の先に示されるように、図示せぬネットワークを介して接続されたオブジェクトデータベース121に供給し、そこで管理させることができる。これにより、情報処理装置1A,1B,1Cは、「東京タワー」を検索キーとして画像検索すると、データベース121で管理されている複数の画像データの中から、メタデータM71、M72に「東京タワー」を含む画像データP71、P72を検索することができる。そして、情報処理装置1A,1B,1Cは、矢印A82の先に示されるように、検索された複数の画像データのサムネイル画像からなる画像リストP81を表示させることができる。
このように、変形例5によれば、符号化されたデータと、画像データの撮影位置、方向、および画角と地図情報に基づいて識別したオブジェクト情報を含むメタデータを有する画像データを生成し、生成された画像データをデータベースで管理することで、検索キーを指定すると、検索キーを含むメタデータが格納された画像データを容易に検索することができる。
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。たとえば、第1の実施の形態で説明したメタデータは、時刻情報及び領域情報を記述するものであり、第2の実施の形態で説明したメタデータは、時刻情報およびテキストデータを記述するものであり、第3の実施の形態で説明したメタデータは、改ざん検出データを記述するものであるが、たとえば、時刻情報、領域情報、およびテキスト情報を記述したメタデータを生成することも可能である。このような構成によって、メタデータに記述された時刻情報に合致する表示タイミングになった際、その時刻情報に紐付けられた領域情報に基づいて、画像データの所定領域のみをトリミングして表示させ、さらに、その時刻情報に紐付けられたテキストデータを画像化し、画像化したテキスト画像を画像データに重畳してテロップ表示させることができる。
また、時刻情報、領域情報、および改ざん検出データを記述したメタデータ、時刻情報、テキストデータ、および改ざん検出データを記述したメタデータ、時刻情報、領域情報、テキスト情報、および改ざん検出データを記述したメタデータを生成することも可能である。このような構成によって、メタデータに記述された改ざん検出データに従って、画像データが改ざんされていないことが検出された場合にのみ、所定の表示タイミングで、画像データの所定領域みをトリミングして表示させたり、所定のタイミングで画像データにテロップ表示させたり、あるいは、所定のタイミングで画像データの所定領域のみをトリミング表示し、かつ画像データにテロップ表示させたりすることができる。
変形例では、メタデータに、オブジェクト情報や撮影位置情報等を記述するようにしたが、これに限らず、たとえば、画像データ中に、山田さんの顔がx座標300、y座標200の位置にあり、鈴木さんの顔がx座標500、y座標300にあることを示す情報を記述するようにしてもよい。このような構成によって、複数ある画像データの中から、山田さんの画像を抽出し、かつ抽出した画像中の山田さんの顔(位置)を探すことが可能になる。
また、ドライブレコーダやセキュリティカメラ等で撮像した画像データに対して、所定の画像認識処理を施して検知した画像情報、日時、場所、状況等のデータをメタデータに記述するようにしてもよい。このような構成によって、複数ある画像データの中から、画像解析により危険な状況にある画像を抽出することが可能になる。
以上においては、画像データ生成装置30、画像データ再生装置40、画像データ再生装置50、およびデータ改ざん検出装置60は、同一の情報処理装置1A,1B,1C内に設けられるものとしたが、それらの機能を別々の装置として設けることも可能である。
また、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、たとえば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
1, 1A,1B,1C…情報処理装置、16…出力部、17…記憶部、30…画像データ生成装置、31…画像符号化部、32…メタデータ生成部、33…画像データ生成部、34…記録制御部、40…画像データ再生装置、41…解析部、42…画像復号部、43…画像記憶部、44…画像トリミング部、45…出力制御部、50…データ生成装置、51…画像符号化部、52…メタデータ生成部、53…データ生成部、54…記録制御部、60…画像データ再生装置、61…解析部、62…画像復号部、63…テキスト描画部、64…出力制御部、70…データ改ざん検出装置、71…解析部、72…比較部、73…改ざん検出部、74…画像復号部、75…出力制御部

Claims (5)

  1. 符号化されたデータとメタデータを有する画像データを再生する画像データ再生部を備え、
    前記メタデータは、領域情報と時刻情報とを組みとするトリミング情報を少なくとも含み、
    前記画像データ再生部は、前記トリミング情報に従って、前記画像データの再生開始からの経過時刻に応じた前記領域情報に基づく所定領域をトリミングして順次表示し、
    前記トリミング情報は、アニメーション情報をさらに含み、
    前記画像データ再生部は、前記トリミング情報に従って、前記経過時刻に応じた前記アニメーション情報に基づくアニメーションを前記画像データに重畳して表示する、
    ことを特徴とする画像データ再生装置。
  2. 前記画像データには音声データが関連付けられており、
    前記画像データの再生開始からの経過時刻に応じた前記音声データを再生する音声データ再生部をさらに備える
    ことを特徴とする請求項1に記載の画像データ再生装置。
  3. 前記画像データは、楽譜データである、
    ことを特徴とする請求項1又は2に記載の画像データ再生装置。
  4. 請求項1又は2に記載した画像データ再生装置と、
    画像データ再生装置が再生するための画像データを生成する画像データ生成部をさらに備えた情報処理装置。
  5. 画像データを再生する画像データ再生方法であって、
    前記画像データは、前記画像データの所定の範囲を示す領域情報と表示させるタイミングを示す時刻情報とを組みとするトリミング情報を少なくとも含んだメタデータを有し、
    前記画像データのメタデータを分析して前記トリミング情報を取得するステップと、
    取得した前記トリミング情報に従って、前記画像データの再生開始からの経過時刻に応じた前記領域情報に基づく所定領域をトリミングして順次表示する画像データ再生ステップとを有し、
    前記トリミング情報は、アニメーション情報をさらに含み、
    前記画像データ再生ステップは、前記トリミング情報に従って、前記経過時刻に応じた前記アニメーション情報に基づくアニメーションを前記画像データに重畳して表示するステップを含む、
    ことを特徴とする画像データ再生方法。
JP2017160604A 2017-08-23 2017-08-23 画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造 Active JP6791063B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017160604A JP6791063B2 (ja) 2017-08-23 2017-08-23 画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造
PCT/JP2018/028369 WO2019039192A1 (ja) 2017-08-23 2018-07-30 画像再生装置、情報処理装置、画像再生方法および画像データのデータ構造
US16/742,935 US20200151917A1 (en) 2017-08-23 2020-01-15 Image reproduction device, information processing device, image reproduction method, and data structure of image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017160604A JP6791063B2 (ja) 2017-08-23 2017-08-23 画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造

Publications (2)

Publication Number Publication Date
JP2019041190A JP2019041190A (ja) 2019-03-14
JP6791063B2 true JP6791063B2 (ja) 2020-11-25

Family

ID=65438775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017160604A Active JP6791063B2 (ja) 2017-08-23 2017-08-23 画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造

Country Status (3)

Country Link
US (1) US20200151917A1 (ja)
JP (1) JP6791063B2 (ja)
WO (1) WO2019039192A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112437342B (zh) * 2020-05-14 2022-09-23 上海哔哩哔哩科技有限公司 一种视频编辑的方法及设备
WO2024070161A1 (ja) * 2022-09-29 2024-04-04 富士フイルム株式会社 画像ファイル作成方法、画像ファイル、画像ファイル作成装置、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2979101B2 (ja) * 1991-04-26 1999-11-15 カシオ計算機株式会社 自動演奏装置
JP2011015280A (ja) * 2009-07-03 2011-01-20 Canon Inc 画像編集装置、プログラム及び画像再生装置

Also Published As

Publication number Publication date
JP2019041190A (ja) 2019-03-14
WO2019039192A1 (ja) 2019-02-28
US20200151917A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
JP6745381B2 (ja) シーンメタ情報生成装置およびシーンメタ情報生成方法
JP6848766B2 (ja) データ改ざん検出装置、データ改ざん検出方法、および画像データのデータ構造
KR102340196B1 (ko) 동영상 처리 장치 및 방법
JP2011239141A (ja) 情報処理方法、情報処理装置、情景メタデータ抽出装置、欠損補完情報生成装置及びプログラム
JP2011030224A (ja) マルチメディア字幕表示システム及びマルチメディア字幕表示方法
JP6791063B2 (ja) 画像データ再生装置、情報処理装置、画像データ再生方法および画像データのデータ構造
JP6874593B2 (ja) データ再生装置、データ再生方法、および画像データのデータ構造
JP5910379B2 (ja) 情報処理装置、情報処理方法、表示制御装置および表示制御方法
JP4070742B2 (ja) オーディオファイルとテキストを同期化させる同期信号の埋込/検出方法及び装置
JP4314201B2 (ja) 歌詞と音楽との同期データ作成方法、装置、プログラムおよびプログラムを記録する記録媒体
US20130073934A1 (en) Image display apparatus, image display method, and computer readable medium
JP2009283020A (ja) 記録装置、再生装置、及びプログラム
JP6295381B1 (ja) 表示タイミング決定装置、表示タイミング決定方法、及びプログラム
JP2008304610A (ja) 信号特徴抽出方法、信号探索方法、信号特徴抽出装置、コンピュータプログラム、及び、記録媒体
JP7133367B2 (ja) 動画編集装置、動画編集方法、及び動画編集プログラム
JP4277512B2 (ja) 電子機器及びプログラム
CN115209214B (zh) 从视频中识别并移除受限信息
KR100577558B1 (ko) 오디오 컨텐츠와 텍스트를 동기화시키는 동기신호삽입/검출 방법 및 장치
WO2019030551A1 (en) METHOD FOR APPLYING METADATA TO IMMERSIVE MULTIMEDIA FILES
JP7102826B2 (ja) 情報処理方法および情報処理装置
JP2007172597A (ja) 音声処理装置及び音声処理方法
JP5779279B2 (ja) コンテンツ情報処理装置及びコンテンツ情報処理方法
TW201516716A (zh) 瀏覽多媒體文件之系統及方法
CN113436591A (zh) 音高信息生成方法、装置、计算机设备及存储介质
JP6413828B2 (ja) 情報処理方法、情報処理装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201019

R150 Certificate of patent or registration of utility model

Ref document number: 6791063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150