JP2008078713A - 記録装置および方法、プログラム、並びに再生装置および方法 - Google Patents

記録装置および方法、プログラム、並びに再生装置および方法 Download PDF

Info

Publication number
JP2008078713A
JP2008078713A JP2006252239A JP2006252239A JP2008078713A JP 2008078713 A JP2008078713 A JP 2008078713A JP 2006252239 A JP2006252239 A JP 2006252239A JP 2006252239 A JP2006252239 A JP 2006252239A JP 2008078713 A JP2008078713 A JP 2008078713A
Authority
JP
Japan
Prior art keywords
recording
face
data
position information
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006252239A
Other languages
English (en)
Inventor
Osamu Date
修 伊達
Tamaki Kojima
環 児島
Yasuki Ogiwara
康樹 荻原
Akira Tokuyo
明 徳世
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006252239A priority Critical patent/JP2008078713A/ja
Priority to TW096133622A priority patent/TW200835328A/zh
Priority to KR1020087011909A priority patent/KR20090055516A/ko
Priority to US12/438,983 priority patent/US8762659B2/en
Priority to PCT/JP2007/068116 priority patent/WO2008035688A1/ja
Priority to CN2007800059982A priority patent/CN101385338B/zh
Publication of JP2008078713A publication Critical patent/JP2008078713A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding

Abstract

【課題】顔についてのメタデータを含むメタデータのうち、所望のデータをより迅速に読み出す。
【解決手段】記録制御部123は、コンテンツ毎に付加されるコンテンツデータ群と、コンテンツデータ群が記録される位置を示すコンテンツデータ記録位置情報と、コンテンツから検出された顔画像のそれぞれに関する検出顔データ群と、検出顔データ群が記録される位置を示す検出顔データ記録位置情報とからなる顔メタデータであって、検出顔データ記録位置情報が記録される位置を示すフェイスブロック記録位置情報とコンテンツデータ記録位置情報とが1つの群をなす顔メタデータの記録媒体への記録を制御する。本発明は、デジタルカメラに適用できる。
【選択図】図2

Description

本発明は記録装置および方法、プログラム、並びに再生装置および方法に関し、特に、メタデータを記録するかまたは再生する記録装置および方法、プログラム、並びに再生装置および方法に関する。
近年、CPU(Central Processing Unit)の高速化に伴い画像に含まれる人物の顔を検出するというような複雑な処理も短時間で行えるようになった。さらに検出した人物の顔からこの人物が誰であるのかというような識別処理も使用者に待ち時間を意識させない程度に高速にできるようになった。
これらにより、検出した人物の顔の位置や人物の名前等をメタデータとして保存し、そのメタデータを利用したアプリケーションが提案されている(例えば、特許文献1参照)。
特開2004−336466号公報
特許文献1では、検出した人物の顔の位置や人物の名前等のメタデータをXML形式で保存し、メタデータに検出された画像との関連性を持たせることが開示されている。
しかしながら、特許文献1で開示されているメタデータの格納の形態の場合、格納されているメタデータのうちの、実際に必要となるデータを読み出すとき、特許文献1の図8に示されているように、1つの構造体としての領域に全てのメタデータが記録されているので、その中から1つ1つのタグを解析して目的とするデータを抽出しなければならず、所望のデータの読み出しに時間がかかる。
さらに、顔のメタデータを記録する際の固有の問題として、コンテンツから検出される人物の顔の個数が異なることがあげられる。これにより、コンテンツによって、記録される顔のメタデータのデータ量が異なることになる。従って、実際上必要なデータを読み出そうとする場合には、<METADATA>を検出してから</METADATA>を検出するまでデータを読み出す必要があり、結果として所望のデータの読み出しには時間がかかり、顔のメタデータへの高速なアクセスは困難である。
本発明は、このような状況に鑑みてなされたものであり、顔についてのメタデータを含むメタデータのうちの、所望のメタデータをより迅速に読み出すことができるようにするものである。
本発明の第1の側面の記録装置は、コンテンツ毎に付加される第1のメタデータと、記録媒体において前記第1のメタデータが記録される位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加される、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録される位置を示す第2の記録位置情報とからなるデータであって、前記記録媒体において前記第2の記録位置情報が記録される位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの前記記録媒体への記録を制御する記録制御手段を備える。
前記記録制御手段には、前記コンテンツから前記顔画像を検出した顔検出手段のバージョンを示す情報が前記第1のメタデータに含まれる前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、前記コンテンツにおける前記顔画像の位置と前記顔画像の大きさとを示す情報が前記第2のメタデータに含まれる前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、前記第1のメタデータの群、前記第1の記録位置情報の群、前記第2のメタデータのそれぞれの群、および複数の前記第2の記録位置情報からなる群が、群毎に前記記録媒体の連続した記録領域に記録されるように、前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、前記第2のメタデータが付加された前記顔画像の数を示す情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、前記コンテンツから検出された顔画像から予め決められた条件で選択された前記顔画像であって、前記第2のメタデータが付加された前記顔画像の数を示す前記情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、前記コンテンツから検出された顔画像の顔画像データと、前記記録媒体において前記顔画像データが記録される位置を示す第4の記録位置情報とを更に含む前記データであって、前記記録媒体において前記第4の記録位置情報が記録される位置を示す第5の記録位置情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、複数の前記第4の記録位置情報からなる群が前記記録媒体の連続した記録領域に記録されるように、前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、前記顔画像データの数を示す情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、前記コンテンツから顔画像が検出された人に関する第3のメタデータと、前記記録媒体において前記第3のメタデータが記録される位置を示す第4の記録位置情報とを更に含む前記データであって、前記記録媒体において前記第4の記録位置情報が記録される位置を示す第5の記録位置情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、複数の前記第4の記録位置情報からなる群が前記記録媒体の連続した記録領域に記録されるように、前記データの前記記録媒体への記録を制御させることができる。
前記記録制御手段には、前記第3のメタデータの数を示す情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御させることができる。
本発明の第1の側面の記録方法は、コンテンツ毎に付加される第1のメタデータと、記録媒体において前記第1のメタデータが記録される位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加される、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録される位置を示す第2の記録位置情報とからなるデータであって、前記記録媒体において前記第2の記録位置情報が記録される位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの前記記録媒体への記録を制御するステップを含む。
本発明の第1の側面のプログラムは、コンテンツ毎に付加される第1のメタデータと、記録媒体において前記第1のメタデータが記録される位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加される、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録される位置を示す第2の記録位置情報とからなるデータであって、前記記録媒体において前記第2の記録位置情報が記録される位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの前記記録媒体への記録を制御するステップをコンピュータに実行させる。
本発明の第2の側面の再生装置は、記録媒体に記録されているデータであって、コンテンツ毎に付加された第1のメタデータと、前記記録媒体において前記第1のメタデータが記録されている位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加された、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録されている位置を示す第2の記録位置情報とからなり、前記記録媒体において前記第2の記録位置情報が記録されている位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの再生を制御する再生制御手段を備える。
前記再生制御手段には、前記第1のメタデータの群、前記第1の記録位置情報の群、前記第2のメタデータのそれぞれの群、および複数の前記第2の記録位置情報からなる群が、群毎に前記記録媒体の連続した記録領域に記録されている前記データの再生を制御させることができる。
前記再生制御手段には、前記第2のメタデータが付加された前記顔画像の数を示す情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御させることができる。
前記再生制御手段には、前記コンテンツから検出された顔画像の顔画像データと、前記記録媒体において前記顔画像データが記録されている位置を示す第4の記録位置情報とを更に含む前記データであって、前記記録媒体において前記第4の記録位置情報が記録されている位置を示す第5の記録位置情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御させることができる。
前記再生制御手段には、複数の前記第4の記録位置情報からなる群が前記記録媒体の連続した記録領域に記録されている前記データの再生を制御させることができる。
前記再生制御手段には、前記顔画像データの数を示す情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御させることができる。
前記再生制御手段には、前記コンテンツから顔画像が検出された人に関する第3のメタデータと、前記記録媒体において前記第3のメタデータが記録されている位置を示す第4の記録位置情報とを更に含む前記データであって、前記記録媒体において前記第4の記録位置情報が記録されている位置を示す第5の記録位置情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御させることができる。
前記再生制御手段には、複数の前記第4の記録位置情報からなる群が前記記録媒体の連続した記録領域に記録されている前記データの再生を制御させることができる。
前記再生制御手段には、前記第3のメタデータの数を示す情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御させることができる。
本発明の第2の側面の再生方法は、記録媒体に記録されているデータであって、コンテンツ毎に付加された第1のメタデータと、前記記録媒体において前記第1のメタデータが記録されている位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加された、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録されている位置を示す第2の記録位置情報とからなり、前記記録媒体において前記第2の記録位置情報が記録されている位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの再生を制御するステップを含む。
本発明の第2の側面のプログラムは、記録媒体に記録されているデータであって、コンテンツ毎に付加された第1のメタデータと、前記記録媒体において前記第1のメタデータが記録されている位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加された、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録されている位置を示す第2の記録位置情報とからなり、前記記録媒体において前記第2の記録位置情報が記録されている位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの再生を制御するステップをコンピュータに実行させる。
本発明の第1の側面においては、コンテンツ毎に付加される第1のメタデータと、記録媒体において前記第1のメタデータが記録される位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加される、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録される位置を示す第2の記録位置情報とからなるデータであって、前記記録媒体において前記第2の記録位置情報が記録される位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの前記記録媒体への記録が制御される。
本発明の第2の側面においては、記録媒体に記録されているデータであって、コンテンツ毎に付加された第1のメタデータと、前記記録媒体において前記第1のメタデータが記録されている位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加された、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録されている位置を示す第2の記録位置情報とからなり、前記記録媒体において前記第2の記録位置情報が記録されている位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの再生が制御される。
以上のように、本発明の第1の側面によれば、再生において、メタデータを読み出すことができる。
また、本発明の第1の側面によれば、再生において、顔についてのメタデータを含むメタデータのうちの、所望のメタデータをより迅速に読み出すことができる。
本発明の第2の側面によれば、メタデータを読み出すことができる。
また、本発明の第2の側面によれば、顔についてのメタデータを含むメタデータのうちの、所望のメタデータをより迅速に読み出すことができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の第1の側面の記録装置は、コンテンツ毎に付加される第1のメタデータ(例えば、図4のコンテンツデータ群)と、記録媒体において前記第1のメタデータが記録される位置を示す第1の記録位置情報(例えば、図4のブロック項目群のコンテンツデータ記録位置情報)と、前記コンテンツから検出された顔画像毎に付加される、前記顔画像に関する第2のメタデータ(例えば、図4の検出顔データ群)と、前記記録媒体において前記第2のメタデータが記録される位置を示す第2の記録位置情報(例えば、図4のフェイスブロック群の検出顔データ記録位置情報)とからなるデータであって、前記記録媒体において前記第2の記録位置情報が記録される位置を示す第3の記録位置情報(例えば、図4のブロック項目群のフェイスブロック記録位置情報)と前記第1の記録位置情報とが1つの群(例えば、図4のブロック項目群)をなすデータの前記記録媒体への記録を制御する記録制御手段(例えば、図2の記録制御部123)を備える。
本発明の第1の側面の記録方法またはプログラムは、コンテンツ毎に付加される第1のメタデータ(例えば、図4のコンテンツデータ群)と、記録媒体において前記第1のメタデータが記録される位置を示す第1の記録位置情報(例えば、図4のブロック項目群のコンテンツデータ記録位置情報)と、前記コンテンツから検出された顔画像毎に付加される、前記顔画像に関する第2のメタデータ(例えば、図4の検出顔データ群)と、前記記録媒体において前記第2のメタデータが記録される位置を示す第2の記録位置情報(例えば、図4のフェイスブロック群の検出顔データ記録位置情報)とからなるデータであって、前記記録媒体において前記第2の記録位置情報が記録される位置を示す第3の記録位置情報(例えば、図4のブロック項目群のフェイスブロック記録位置情報)と前記第1の記録位置情報とが1つの群(例えば、図4のブロック項目群)をなすデータの前記記録媒体への記録を制御する(例えば、図10のステップS19およびステップS24)ステップを含む。
本発明の第2の側面の再生装置は、記録媒体に記録されているデータであって、コンテンツ毎に付加された第1のメタデータ(例えば、図4のコンテンツデータ群)と、前記記録媒体において前記第1のメタデータが記録されている位置を示す第1の記録位置情報(例えば、図4のブロック項目群のコンテンツデータ記録位置情報)と、前記コンテンツから検出された顔画像毎に付加された、前記顔画像に関する第2のメタデータ(例えば、図4の検出顔データ群)と、前記記録媒体において前記第2のメタデータが記録されている位置を示す第2の記録位置情報(例えば、図4のフェイスブロック群の検出顔データ記録位置情報)とからなり、前記記録媒体において前記第2の記録位置情報が記録されている位置を示す第3の記録位置情報(例えば、図4のブロック項目群のフェイスブロック記録位置情報)と前記第1の記録位置情報とが1つの群(例えば、図4のブロック項目群)をなすデータの再生を制御する再生制御手段(例えば、図2の再生制御部124)を備える。
図1は、本発明の一実施の形態のデジタルカメラ11の構成を示すブロック図である。デジタルカメラ11は、カメラ部31と、カメラDSP(Digital Signal Processor)32と、SDRAM(Synchronous Dynamic Random Access Memory)33と、媒体インタフェース(以下、媒体I/Fという。)34と、記録媒体35と、制御部36と、操作部37と、LCDコントローラ38と、LCD39と、外部インタフェース(以下、外部I/Fという。)40と、通信インタフェース(以下、通信I/Fという。)41とを備える。
記録媒体35は、着脱可能に構成されている、データまたはプログラムなどを記録する媒体である。記録媒体35として、半導体メモリを用いたいわゆるメモリーカード、記録可能なDVD(Digital Versatile Disc)や記録可能なCD(Compact Disc)等の光記録媒体、磁気ディスクなどの種々のものを用いるようにすることが考えられるが、この実施の形態においては、記録媒体35として例えば半導体メモリまたはハードディスクドライブが内蔵されているメモリーカードを用いるものとして説明する。
そして、カメラ部31は、光学ブロック61、CCD(Charge Coupled Device)62、前処理回路63、光学ブロック用ドライバ64、CCDドライバ65、タイミング生成回路66とを備えたものである。ここで、光学ブロック61は、レンズ、フォーカス機構、シャッター機構、絞り(アイリス)機構などを備えたものである。
また、制御部36は、CPU(Central Processing Unit)81、RAM(Random Access Memory)82、フラッシュROM(Read Only Memory)83、時計回路84が、システムバス85を通じて接続されて構成されている。制御部36は、例えば、汎用の組み込み型のマイクロコンピュータまたは専用のシステムLSI(Large Scale Integrated circuit)などからなる。制御部36は、デジタルカメラ11の各部を制御する。
ここで、RAM82は、処理の途中結果を一時記憶するなど主に作業領域として用いられるものである。また、フラッシュROM83は、CPU81において実行する種々のプログラムや、処理に必要になるデータなどを記憶したものである。また、時計回路84は、現在年月日、現在曜日、現在時刻を提供することができるとともに、撮影日時などを提供するなどのことができるものである。
そして、画像の撮影時においては、光学ブロック用ドライバ64は、制御部36からの制御に応じて、光学ブロック61を動作させるようにする駆動信号を形成し、これを光学ブロック61に供給して、光学ブロック61を動作させるようにする。光学ブロック用ドライバ64からの駆動信号に応じて、光学ブロック61のフォーカス機構、シャッター機構、絞り機構が制御され、光学ブロック61は、被写体の光学的な画像を取り込んで、これをCCD62に結像させる。
CCD62は、光学ブロック61からの光学的な画像を光電変換して、変換により得られた画像の電気信号を出力する。すなわち、CCD62は、CCDドライバ65からの駆動信号に応じて動作し、光学ブロック61からの光学的な被写体の画像を取り込むとともに、制御部36によって制御されるタイミング生成回路66からのタイミング信号に基づいて、取り込んだ被写体の画像(画像情報)を電気信号として前処理回路63に供給する。
なお、CCD62に代えて、CMOS(Complementary Metal-Oxide Semiconductor)センサなどの光電変換デバイスを用いるようにしてもよい。
また、上述のように、タイミング生成回路66は、制御部36からの制御に応じて、所定のタイミングを提供するタイミング信号を形成するものである。また、CCDドライバ65は、タイミング生成回路66からのタイミング信号に基づいて、CCD62に供給する駆動信号を形成するものである。
前処理回路63は、CCD62から供給された電気信号の画像情報に対して、CDS(Correlated Double Sampling)処理を行って、S/N比を良好に保つようにするとともに、AGC(Automatic Gain Control)処理を行って、利得を制御し、そして、A/D(Analog/Digital)変換を行って、デジタル信号とされた画像データを形成する。
前処理回路63においてデジタル信号とされた画像データは、カメラDSP32に供給される。カメラDSP32は、供給された画像データに対して、AF(Auto Focus)、AE(Auto Exposure)、AWB(Auto White Balance)などのカメラ信号処理を施す。このようにして種々の調整がされた画像データは、例えば、JPEG(Joint Photographic Experts Group)またはJPEG2000などの所定の符号化方式で符号化され、システムバス85、媒体I/F34を通じて、デジタルカメラ11に装着されている記録媒体35に供給され、記録媒体35にファイルとして記録される。また、画像データ群をMPEG(Motion Picture Experts Group)等の動画像を符号化するための符号化方式を用いて符号化することにより、動画像ファイルを生成し記録媒体35に記録することもできる。
なお、静止画像または動画像は、コンテンツの一例である。また、静止画像または動画像のデータを格納するファイルは、コンテンツファイルの一例である。
また、記録媒体35に記録された画像データは、タッチパネルやコントロールキーなどからなる操作部37を通じて受け付けたユーザーからの操作入力に応じて、目的とする画像データが媒体I/F34を通じて記録媒体35から読み出され、これがカメラDSP32に供給される。
カメラDSP32は、記録媒体35から読み出され、媒体I/F34を通じて供給された符号化されている画像データを復号し、復号後の画像データをシステムバス85を通じて、LCDコントローラ38に供給する。LCDコントローラ38は、これに供給された画像データからLCD39に供給する画像信号を形成し、これをLCD39に供給する。これにより、記録媒体35に記録されている画像データに応じた画像が、LCD39の表示画面に表示される。
また、この実施の形態のデジタルカメラ11には、外部I/F40が設けられている。この外部I/F40を通じて、例えば外部のパーソナルコンピュータと接続して、パーソナルコンピュータから画像データの供給を受けて、これをデジタルカメラ11に装着された記録媒体35に記録したり、また、デジタルカメラ11に装着された記録媒体35に記録されている画像データを外部のパーソナルコンピュータ等に供給したりすることもできるものである。
また、通信I/F41は、いわゆるネットワークインターフェースカード(NIC)などからなり、ネットワークに接続して、ネットワークを通じて種々の画像データやその他の情報を取得する。
また、外部のパーソナルコンピュータやネットワークを通じて取得し、記録媒体に記録した画像データなどの情報についても、上述したように、この実施の形態のデジタルカメラ11において読み出して再生し、LCD39に表示してユーザーが利用することももちろんできるようにされている。
なお、通信I/F41は、IEEE(Institute of Electrical and Electronic Engineers)1394またはUSB(Universal Serial Bus)などの規格に準拠した有線用インタフェースとして設けることも可能であるし、IEEE802.11a,IEEE802.11b,IEEE802.11g、またはブルートゥースの規格に準拠した光や電波による無線インタフェースとして設けることも可能である。すなわち、通信I/F41は、有線、無線のいずれのインタフェースであってもよい。
図2は、プログラムを実行するCPU81によって実現される機能の構成を示すブロック図である。プログラムを実行するCPU81によって、デジタルカメラ11の全体を制御する制御部101が実現される。
制御部101には、顔検出エンジン121、顔識別エンジン122、記録制御部123、および再生制御部124が含まれる。
なお、記録媒体35には、静止画像または動画像などのコンテンツのデータがコンテンツファイル125として記録されている。
顔検出エンジン121は、コンテンツから顔の画像(以下、顔画像と称する)を検出する。例えば、顔検出エンジン121は、コンテンツファイル125に格納されているコンテンツのデータを基に、静止画像であるコンテンツの画素または動画像であるコンテンツのフレームの画素のうち、肌色の所定の範囲の色相の画素を検出し、その画素が配置される領域のうち、所定の大きさ以上の領域の画像を特定する。さらに、顔検出エンジン121は、特定された画像に、目の画像および口の画像が含まれるか否かを判定することによって、その画像が顔の画像であるかを判定し、顔の画像であると判定された顔画像を検出する。さらに、顔検出エンジン121において、その検出した顔画像の表情が、顔の特定に使用された目の画像および口の画像の形状、または角度などにより判別され、その顔画像の表情の具合、例えば、どの程度笑顔に近いかが検出される。
なお、顔画像の検出の方式は、これに限らず、いずれの方式であってもよく、本発明を限定するものではない。
顔識別エンジン122は、コンテンツから検出された顔画像を識別して、顔画像が検出された人を特定する。例えば、顔識別エンジン122は、予め登録されている人の登録されている顔画像である登録画像と、検出された顔画像とを比較して、顔画像と登録画像とが一致した場合、顔画像の検出された人、すなわちコンテンツにおいて顔が撮影された人が、顔画像と一致した登録画像を登録している、登録されている人であると特定する。
なお、顔画像の識別の方式は、これに限らず、いずれの方式であってもよく、本発明を限定するものではない。
また、登録されている人に関係するメタデータは、例えば、フラッシュROM83または記録媒体35に予め記録されている。
記録制御部123は、顔画像を検出したコンテンツに関係するメタデータ、コンテンツから検出された顔画像であるメタデータ、および顔画像が検出された人に関係するメタデータからなる顔メタデータ131の記録媒体35への記録を制御する。顔メタデータ131は、コンテンツファイル125に格納されるように、記録媒体35に記録される。
なお、詳細は後述するが、顔メタデータ131を構成する情報またはデータは、群を構成している。
再生制御部124は、記録媒体35に記録されている顔メタデータ131の再生を制御する。
記録制御部123は、ブロック項目群生成部141、コンテンツデータ群生成部142、フェイスブロック群生成部143、検出顔データ群生成部144、イメージデータブロック群生成部145、検出顔画像データ群生成部146、パーソナルデータブロック群生成部147、および検出顔人物データ群生成部148を含むように構成される。
ブロック項目群生成部141は、顔メタデータ131の情報またはデータの群のうち、コンテンツ毎に付加されるメタデータの、記録媒体35において記録される位置を示す情報である記録位置情報などからなる群であるブロック項目群を生成する。
以下、所定のデータまたは情報の記録媒体35において記録される位置または記録された位置を示す情報を、記録位置情報と称する。
なお、ブロック項目群は、コンテンツ毎に付加されるメタデータが記録媒体35において記録される位置を示す記録位置情報と、フェイスブロック群が記録媒体35において記録される位置を示す記録位置情報と、イメージデータブロック群が記録媒体35において記録される位置を示す記録位置情報と、パーソナルデータブロック群が記録媒体35において記録される位置を示す記録位置情報とを含む。
ここで、フェイスブロック群は、顔画像に関するメタデータが記録媒体35において記録される位置を示す記録位置情報からなる群である。イメージデータブロック群は、コンテンツから検出された顔画像のデータである顔画像データが記録媒体35において記録される位置を示す記録位置情報からなる群である。また、パーソナルデータブロック群は、コンテンツから顔画像が検出された人に関するメタデータが記録媒体35において記録される位置を示す記録位置情報からなる群である。
コンテンツデータ群生成部142は、顔メタデータ131の情報またはデータの群のうち、コンテンツ毎に付加されるメタデータからなる群であるコンテンツデータ群を生成する。
フェイスブロック群生成部143は、顔メタデータ131の情報またはデータの群のうち、フェイスブロック群を生成する。
検出顔データ群生成部144は、顔メタデータ131の情報またはデータの群のうち、顔画像に関するメタデータからなる群である検出顔データ群を生成する。
イメージデータブロック群生成部145は、顔メタデータ131の情報またはデータの群のうち、イメージデータブロック群を生成する。
検出顔画像データ群生成部146は、顔メタデータ131の情報またはデータの群のうち、コンテンツから検出された顔画像の顔画像データからなる群である検出顔画像データ群を生成する。
パーソナルデータブロック群生成部147は、顔メタデータ131の情報またはデータの群のうち、パーソナルデータブロック群を生成する。
検出顔人物データ群生成部148は、顔メタデータ131の情報またはデータの群のうち、コンテンツから顔画像が検出された人に関するメタデータからなる群である検出顔人物データ群を生成する。
すなわち、記録制御部123は、ブロック項目群、コンテンツデータ群、フェイスブロック群、検出顔データ群、イメージデータブロック群、検出顔画像データ群、パーソナルデータブロック群、および検出顔人物データ群からなる顔メタデータ131の記録媒体35への記録を制御する。
再生制御部124は、ブロック項目群読み出し部151、コンテンツデータ群読み出し部152、フェイスブロック群読み出し部153、検出顔データ群読み出し部154、イメージデータブロック群読み出し部155、検出顔画像データ群読み出し部156、パーソナルデータブロック群読み出し部157、および検出顔人物データ群読み出し部158を含むように構成される。
ブロック項目群読み出し部151は、記録媒体35に記録されている顔メタデータ131の情報またはデータの群のうち、ブロック項目群を読み出す。
コンテンツデータ群読み出し部152は、ブロック項目群を構成する記録位置情報であって、コンテンツデータ群が記録媒体35において記録されている位置を示す記録位置情報を参照して、記録媒体35に記録されている顔メタデータ131の情報またはデータの群のうち、コンテンツデータ群を読み出す。
フェイスブロック群読み出し部153は、ブロック項目群を構成する記録位置情報であって、フェイスブロック群が記録媒体35において記録されている位置を示す記録位置情報を参照して、記録媒体35に記録されている顔メタデータ131の情報またはデータの群のうち、フェイスブロック群を読み出す。
検出顔データ群読み出し部154は、フェイスブロック群を構成する記録位置情報であって、検出顔データ群が記録媒体35において記録されている位置を示す記録位置情報を参照して、記録媒体35に記録されている顔メタデータ131の情報またはデータの群のうち、検出顔データ群を読み出す。
イメージデータブロック群読み出し部155は、ブロック項目群を構成する記録位置情報であって、イメージデータブロック群が記録媒体35において記録されている位置を示す記録位置情報を参照して、記録媒体35に記録されている顔メタデータ131の情報またはデータの群のうち、イメージデータブロック群を読み出す。
検出顔画像データ群読み出し部156は、イメージデータブロック群を構成する記録位置情報であって、検出顔画像データ群が記録媒体35において記録されている位置を示す記録位置情報を参照して、記録媒体35に記録されている顔メタデータ131の情報またはデータの群のうち、検出顔画像データ群を読み出す。
パーソナルデータブロック群読み出し部157は、ブロック項目群を構成する記録位置情報であって、パーソナルデータブロック群が記録媒体35において記録されている位置を示す記録位置情報を参照して、記録媒体35に記録されている顔メタデータ131の情報またはデータの群のうち、パーソナルデータブロック群を読み出す。
検出顔人物データ群読み出し部158は、パーソナルデータブロック群を構成する記録位置情報であって、検出顔人物データ群が記録媒体35において記録されている位置を示す記録位置情報を参照して、記録媒体35に記録されている顔メタデータ131の情報またはデータの群のうち、検出顔人物データ群を読み出す。
このように、再生制御部124は、ブロック項目群、コンテンツデータ群、フェイスブロック群、検出顔データ群、イメージデータブロック群、検出顔画像データ群、パーソナルデータブロック群、および検出顔人物データ群のそれぞれを読み出すように、記録媒体35に記録されている顔メタデータ131の再生を制御する。
次に、顔メタデータ131の構造について説明する。
図3は、顔メタデータ131の構造の概要を説明する図である。顔メタデータ131は、大きくわけて4つのブロックから構成される。すなわち、顔メタデータ131は、静止画像または動画像などのコンテンツ毎に付加されるメタデータからなるコンテンツブロックと、検出された顔(顔画像)毎に付加されるメタデータからなるフェイスブロックと、検出された顔(顔画像)の顔画像データからなるイメージデータブロックと、顔が検出された人に関するメタデータからなるパーソナルデータブロックとから構成される。
コンテンツブロックのコンテンツ毎に付加されるメタデータは、例えば、コンテンツとしての画像のサイズ(表示される画のサイズ)、顔検出エンジン121のバージョン、コンテンツに登場する人の数(コンテンツに登場する顔画像の数)などを示すデータである。
また、フェイスブロックの検出された顔(顔画像)毎に付加されるメタデータは、例えば、検出された顔の大きさ(顔画像の大きさ)や位置、検出された顔がどのくらい笑顔に近いかを示す笑顔スコア、コンテンツが動画である場合、その顔が連続して登場している時間などを示すデータである。
フェイスブロック内のメタデータと、イメージデータブロック内の顔画像データとは、コンテンツでローカルな識別子すなわちID(identifier)で関係付けられる。IDで関係付けられるのは、検出された顔画像に対して、顔画像データが必ず生成され、顔画像データが格納されるとは限らないからである。すなわち、顔画像データを生成する処理が負担になるような場合、笑顔に近い順に笑顔スコアを並べて、笑顔スコアが上位3位に入る顔についてのみ、顔画像データを生成するというアプリケーションにも対応できるようにするためである。
ここで、コンテンツでローカルなIDとは、そのコンテンツにおいて固有のIDという意味であり、異なるコンテンツにおけるIDを比較した場合、そのIDがおなじ値となることがあり得る。
パーソナルデータブロックの顔画像が検出された人に関するデータは、顔画像が検出された人である、その個人のデータであり、例えば、その人の名前、年齢、性別、誕生日などを示すデータである。
フェイスブロック内のメタデータと、パーソナルデータブロック内の顔画像が検出された人に関するデータとは、コンテンツでローカルなIDで関係付けられる。IDで関係付けられるのは、コンテンツが動画像である場合、その動画像うちの時間的に早いときに、人物Aの顔画像が動画像中に現れ、その後、動画像から人物Aの顔画像が消えて、再度、人物Aの顔画像が動画像中に現れると、顔検出エンジン121は、人物Aの同じ顔の顔画像を、それぞれに、2つの顔画像として検出し、2つの顔画像についてのメタデータがフェイスブロックに格納される。
ここで、この2つのメタデータが格納された顔画像は同一人物の顔の画像であるので、パーソナルデータブロックの個人のデータは1つで足りる。このような場合、IDで関係付けることで、1つの個人のデータに、フェイスブロック内の2つのメタデータを対応させることができ、重複したデータが記録されてしまうことを抑制し、記録するデータのデータ量をより少なくすることができる。
なお、IDで関連付けしないとした場合、フェイスブロックのメタデータの数と同じ数の顔画像データおよび個人のデータをそれぞれイメージデータブロックおよびパーソナルデータブロックに格納する必要があり、その記録順序で関係付けられるが、上述の例にもあるとおりコンテンツが動画像の場合、重複したパーソナルデータブロックを持ち、記録容量を圧迫する不利益等が考えられるため、IDで関連づけるようにしたものである。
このように、コンテンツからいくつかの顔画像が検出されると、その顔画像のうちのn個の顔画像について、顔メタデータ131にn個のフェイスブロックが配置される。ここで、n個という個数の絞り方は、所定条件に基づいて決められる。例えば検出したいくつかの顔画像のうち大きな顔の上位n個という条件や笑顔スコアの高い上位n個という条件に基づいて決められる。このようにすることにより、検出された顔画像の分、全ての顔メタデータ131を全て記録することによる記録容量の圧迫、処理速度の低下を防ぐことが可能となる。また、フェイスブロックが配置されたn個の顔画像のうちのk個の顔画像について、顔メタデータ131にk個のイメージデータブロックが配置される。ここで、kは、上記理由によりn以下である。さらに、フェイスブロックが配置されたn個の顔画像のそれぞれに対応する人のうちのm人について、顔メタデータ131にm個のパーソナルデータブロックが配置される。ここで、mは、上記理由によりn以下である。
図4は、顔メタデータ131の具体的な構造を説明する図である。顔メタデータ131は、1つのブロック項目群、1つのコンテンツデータ群、1つのフェイスブロック群、1または複数の検出顔データ群、1つのイメージデータブロック群、1または複数の検出顔画像データ群、1つのパーソナルデータブロック群、および1または複数の検出顔人物データ群から構成される。
例えば、コンテンツデータ群は、図3のコンテンツブロックに対応し、検出顔データ群は、図3のフェイスブロックに対応し、検出顔画像データ群は、図3のイメージデータブロックに対応し、検出顔人物データ群は、図3のパーソナルデータブロックに対応する。
ブロック項目群、コンテンツデータ群、フェイスブロック群、それぞれの検出顔データ群、イメージデータブロック群、それぞれの検出顔画像データ群、パーソナルデータブロック群、およびそれぞれの検出顔人物データ群は、それぞれ、記録媒体35の物理的に連続する記録領域に記録される。
以下、ブロック項目群、コンテンツデータ群、フェイスブロック群、検出顔データ群、イメージデータブロック群、検出顔画像データ群、パーソナルデータブロック群、および検出顔人物データ群を個々に区別する必要がない場合、単に、群と称する。
顔メタデータ131を構成する情報またはデータ、すなわち、ブロック項目群、コンテンツデータ群、フェイスブロック群、それぞれの検出顔データ群、イメージデータブロック群、それぞれの検出顔画像データ群、パーソナルデータブロック群、またはそれぞれの検出顔人物データ群を構成する情報またはデータは、自分以外の群を指し示すための情報、すなわち、記録媒体35において記録される位置を示す情報と、それそのものが意味を持つ実データとに分けられる。
上述したように、記録位置情報は、記録媒体35において記録される位置を示す情報、すなわち自分以外の群を指し示すための情報である。
例えば、記録位置情報は、顔メタデータ131が記録される領域の先頭のアドレスと、この記録位置情報によって指し示される群が記録される領域の先頭のアドレスとのオフセット(差分)を示す。より具体的には、例えば、顔メタデータ131が記録される領域の先頭のアドレスは、ブロック項目群が記録される領域の先頭のアドレスとされ、記録位置情報は、ブロック項目群が記録される領域の先頭のアドレスと、この記録位置情報によって指し示される群が記録される領域の先頭のアドレスとのオフセットを示す。
なお、記録位置情報は、物理アドレスのオフセットを示すようにしても、論理アドレスのオフセットを示すようにしてもよい。さらに、記録位置情報は、指し示される群が記録される領域の先頭のアドレスそのものを示すようにしてもよい。
図5は、顔メタデータ131における記録位置情報の構造を示す図である。図5で示されるように、記録位置情報は、固有番号を示すタグ(Tag)、情報の記述方式のうち、UNDEFINEDを示すタイプ(Type)、指し示す先のデータまたは情報のデータサイズに応じた数値を示すカウント(Count)、および指し示す先のデータが格納されている記録位置(指し示すデータが格納されている領域の先頭のアドレス)へのオフセットを示す内容から構成される。
記録位置情報において、タグ(Tag)、タイプ(Type)、カウント(Count)、および内容は、それぞれ固定のデータ量(固定長)とされ、従って、記録位置情報は、固定のデータ量(固定長)とされる。
なお、固有番号は、顔メタデータ131を構成する情報またはデータそれぞれに固有の番号である。
また、UNDEFINEDは、情報またはデータの形式としてどのようなものであってもよいことを示す。例えば、カウントは、記録位置情報が指し示す先のデータ量をバイト単位としたデータ量で示す。
顔メタデータ131を構成する情報またはデータのうち、記録位置情報を除く情報またはデータは、メタデータであり、すなわち実データである。
図6は、顔メタデータ131における実データの構造を示す図である。図6で示されるように、実データは、固有番号を示すタグ(Tag)、情報の記述方式のうち、整数型や浮動小数点型などのデータ型を示すタイプ(Type)、メタデータの個数(この構造の1つの実データに内容として含まれるメタデータの個数)に応じた数値を示すカウント(Count)、およびその実際のメタデータである内容から構成される。
実データにおいて、タグ(Tag)、タイプ(Type)、カウント(Count)、および内容は、それぞれ固定のデータ量(固定長)とされ、従って、実データは、固定のデータ量(固定長)とされる。
図4に戻り、ブロック項目群は、メタデータバージョン情報、コンテンツデータ記録位置情報、顔個数情報、フェイスブロック記録位置情報、顔画像個数情報、イメージデータブロック記録位置情報、個人情報個数情報、およびパーソナルデータブロック記録位置情報からなる、情報またはデータの群である。
すなわち、ブロック項目群は、顔データメタデータ131を構成するメタデータのうち、使用頻度が高いと考えられるメタデータと、コンテンツデータ群、フェイスブロック群、イメージデータブロック群、およびパーソナルデータブロック群のそれぞれの記録位置をそれぞれ示す記録位置情報からなる。このようにすることで、顔メタデータ131からの必要なメタデータの読み出しが、実際上、より迅速に行えるようになる。顔個数情報、顔画像個数情報、または個人情報個数情報などの個数を示す情報は、例えば、コンテンツを登場人物の数で分類したりする場合など、使用頻度が高いと考えられるので、顔データメタデータ131の群のうち、最初に読み出しされるブロック項目群に配置するようにしたものである。
なお、図5を参照して、上述したように、それぞれの記録位置情報にはデータサイズに関する情報が含まれているので、ブロック項目群により、コンテンツデータ群、フェイスブロック群、イメージデータブロック群、およびパーソナルデータブロック群のそれぞれのデータ量が示される。
ブロック項目群を構成するデータまたは情報をそれぞれ説明すると、メタデータバージョン情報は、顔メタデータ131のバージョンを示す実データ(メタデータ)である。コンテンツデータ記録位置情報は、コンテンツデータ群の記録媒体35において記録されている位置およびコンテンツデータ群のデータ量を示す記録位置情報である。
顔個数情報は、コンテンツから検出された顔画像のうち、検出顔データ群としてメタデータが付加されている顔画像の数を示す実データ(メタデータ)である。すなわち、顔個数情報は、検出顔データ群の数を示す。
フェイスブロック記録位置情報は、フェイスブロック群の記録媒体35において記録されている位置およびフェイスブロック群のデータ量を示す記録位置情報である。
顔画像個数情報は、コンテンツから検出された顔画像のうち、検出顔画像データ群として顔画像データが格納されている顔画像の数を示す実データ(メタデータ)である。すなわち、顔画像個数情報は、検出顔画像データ群の数を示す。
イメージデータブロック記録位置情報は、イメージデータブロック群の記録媒体35において記録されている位置およびイメージデータブロック群のデータ量を示す記録位置情報である。
個人情報個数情報は、コンテンツから顔画像が検出された人のうち、検出顔人物データ群としてその人に関するメタデータが格納されている人の人数を示す実データ(メタデータ)である。すなわち、個人情報個数情報は、検出顔人物データ群の数を示す。
パーソナルデータブロック記録位置情報は、パーソナルデータブロック群の記録媒体35において記録されている位置およびパーソナルデータブロック群のデータ量を示す記録位置情報である。
コンテンツデータ群は、コンテンツ毎に付加されるメタデータ(実データ)からなる、情報またはデータの群である。
コンテンツデータ群は、顔検出エンジンバージョン、顔識別エンジンバージョン、画像コンテンツ更新日時、顔メタデータ元画像情報、登場人物人数情報、登場人物人数変更情報、およびコンテンツタイムスケールなどのメタデータ(実データ)から構成される。
顔検出エンジンバージョンは、コンテンツから顔画像を検出した顔検出エンジンのバージョンを示す。デジタルカメラ11が、他の機器で顔メタデータ131が付加されたコンテンツを取得した場合、顔検出エンジンバージョンが確認され、顔検出エンジン121のバージョンより古いバージョンの顔検出エンジンによって検出された顔画像を基にした顔メタデータ131であるか否かが判定される。古いバージョンの顔検出エンジンによって検出された顔画像を基にした顔メタデータ131であると判定されたとき、コンテンツについて、顔検出エンジン121によって顔画像が検出されて、新たな顔メタデータ131が生成される。
このようにすることで、より精度の高い顔画像の検出が実行され、より精度の高い顔メタデータ131を得ることができるようになる。
顔識別エンジンバージョンは、検出した顔画像の顔が誰の顔かを識別する顔識別エンジンのバージョンを示す。検出した顔画像の顔が誰の顔かを識別するためには、デジタルカメラ11が、その内部に、識別の対象となる人(上述した登録されている人)である、例えば、A君の画像の画像データをデータベースとして保持するか、またはA君の画像データがデジタルカメラ11に入力されるようにする必要がある。顔検出エンジンバージョンと同様に、顔識別エンジンバージョンが確認され、顔識別エンジン122のバージョンより古いバージョンの顔識別エンジンによる顔画像の認識を基にした顔メタデータ131であるか否かが判定される。そして、古いバージョンの顔識別エンジンによる顔画像の認識を基にした顔メタデータ131であると判定された場合、コンテンツについて、顔識別エンジン122によって顔画像が認識されて、新たな顔メタデータ131が生成される。
このようにすることで、より精度の高い顔画像の認識が実行され、より精度の高い顔メタデータ131を得ることができるようになる。
画像コンテンツ更新日時は、顔メタデータ131が生成された時点での、そのコンテンツに付加されている情報で示されるコンテンツの更新日時を示す。これはコンテンツに対して画像のサイズの変更等の編集が行われた場合、顔メタデータ131とは別の領域に記録されている情報であるコンテンツの更新日時が更新されるので、画像コンテンツ更新日時を利用して、そのコンテンツに付加されている情報であるコンテンツの更新日時と画像コンテンツ更新日時とを比較することによって、顔メタデータ131とコンテンツとの不整合、すなわち、コンテンツが更新されたにもかかわらず、顔メタデータ131が更新されていない状態が検出される。
顔メタデータ元画像情報は、この顔メタデータ131を作成する元となったコンテンツの素性を示す。例えば、デジタルカメラ11において顔メタデータ131が生成され記録される場合、顔メタデータ元画像情報は、キャプチャ画像すなわち記録媒体35に画像データが記録された画像(言い換えれば、コンテンツそのもの)から顔メタデータ131が生成されたか、またはモニタリング画像すなわちLCD39に表示されている画像から顔メタデータ131が生成されたかなどを示す。
例えば、モニタリング画像から生成されたことを示す顔メタデータ元画像情報を含む顔メタデータ131は、デジタルカメラ11の図示せぬシャッタボタンが半押しされた場合のオートフォーカスがロックされたときにLCD39に表示されている画像から顔画像が検出されて、生成される。
モニタリング画像から顔メタデータ131を生成するようにしたのは、いわゆる連写または速写されたキャプチャ画像に対する記録などの処理の速度が追いつかなかったり、キャプチャ画像を記録しながら顔画像の検出をするのに必要な電力をバッテリから供給できなかったりする場合があり、このような場合でも、顔メタデータ131を生成することができるようにするためである。
キャプチャ画像における顔画像の位置や大きさとモニタリング画像における顔画像の位置や大きさとは、若干ずれている可能性があるので、顔メタデータ元画像情報を参照することで、モニタリング画像から顔画像が検出されたことがわかれば、その顔画像を表示しない処理や、顔画像を再検出可能な機器においてはコンテンツから顔画像を再検出することが可能となる。
登場人物人数情報は、顔メタデータ131が生成された時点では、顔検出エンジン121によって検出された顔画像の数を示し、顔メタデータ131が使用者によって編集された場合、その編集における使用者の操作に応じた、使用者によって指示された数を示す。使用者が表示されたコンテンツを見て、顔検出エンジン121によって検出された顔画像の数と異なる数の顔が写っていることがわかった場合、使用者が、後のために、正確な顔の数を記録しておきたいときに、登場人物人数情報には、使用者によって指示された数が設定される。
登場人物人数変更情報は、登場人物人数情報によって、顔検出エンジン121で検出された顔画像の数が示されるか、または使用者から指示された数が示されるかを示す。登場人物人数変更情報は、登場人物人数情報によって、顔検出エンジン121で検出された顔画像の数が示される場合、デフォルト値とされる。登場人物人数変更情報を用いることで、顔検出エンジンによって再度顔画像を検出させないようにするなど、登場人物人数情報の変更を促すことを止めたり、登場人物人数情報の書き換えを拒絶したりする処理を実行することができるようになる。
コンテンツタイムスケールは、コンテンツが動画像である場合、その動画像における時間の単位を示す。例えば、コンテンツタイムスケールは、毎秒90000のクロックが動画像であるコンテンツの時間の単位であることを示す。この場合、動画像が毎秒60フレームからなるとき、隣接する2つのフレームの時刻は、15000だけ異なるクロックで示されることになる。
次に、フェイスブロック群および検出顔データ群について説明する。
フェイスブロック群は、1または複数の検出顔データ記録位置情報からなる、情報またはデータの群である。フェイスブロック群に含まれる検出顔データ記録位置情報のそれぞれは、検出顔データ群のそれぞれの記録媒体35において記録される位置または記録された位置を示す記録位置情報である。
すなわち、1つの検出顔データ記録位置情報は、1つの検出顔データ群の記録される位置を示す。
フェイスブロック群を構成する検出顔データ記録位置情報の数は、顔メタデータ131に配置される検出顔データ群の数と同じである。従って、ブロック項目群の顔個数情報は、フェイスブロック群を構成する検出顔データ記録位置情報の数を示しているとも言える。
検出顔データ群は、コンテンツから検出された顔画像に関するメタデータからなる、情報またはデータの群である。
検出顔データ群は、検出顔ID、顔位置情報、顔角度情報、顔部位情報、顔スコア情報、表情スコア情報、顔重要度情報、アプリケーション情報、顔重要度情報更新情報、人物登場時間情報、および顔位置時間情報などから構成される。
検出顔IDは、検出された顔画像を特定し、検出された顔画像毎に付加されるコンテンツ内でローカルなIDである。検出顔IDは、検出顔データ群と、検出顔画像データ群または検出顔人物データ群との関連付けのために利用される。
顔位置情報は、検出された顔画像の位置を示す。具体的には、顔位置情報は、コンテンツである画像の左上を基準とした座標上の、顔画像の位置と顔画像の大きさとを表す。すなわち、顔位置情報は、コンテンツにおける顔画像の位置および顔画像の大きさとを示す情報である。
顔画像の大きさは、この座標上の顔画像の高さおよび幅により表される。顔位置情報は、顔メタデータ131の中で最も重要な情報であると言え、様々なアプリケーションで利用される。例えば、検出された顔画像の顔画像データを作成できない機器において、コンテンツから、顔位置情報によって示される位置および大きさの画像が切り出されて、切り出された画像が顔画像として表示される。
顔角度情報は、正面を向いている顔のその向きに対して、検出された顔画像における顔の向きがどの程度傾いているかを示す。例えば、顔の識別において、登録画像の画像データとして、正面を向いている顔の画像データが登録されているので、検出された顔画像が、顔角度情報によって顔の向きが正面を向くように修正された後、検出され修正された顔画像が登録画像と比較されるように、顔角度情報が利用される。
顔部位情報は、検出した顔画像における目の画像、鼻の画像、口の画像のそれぞれの位置を表す。顔角度情報と同様に、顔部位情報を用いることよって、検出された顔画像が、目の画像、鼻の画像、および口の画像の全てまたはその一部によって、顔の向きが正面を向くように修正された後、検出され修正された顔画像が登録画像と比較される。顔部位情報は、さらに顔画像の顔の鼻の下にひげの画像を付け加える等、顔に装飾を加える際にも利用される。
顔スコア情報は、顔検出エンジン121によって検出された顔画像の顔が、どれくらい人間の顔に近いかを示す。顔スコア情報が高い、すなわち、顔スコア情報が、検出された顔画像の顔が人間の顔に近いことを示す場合、顔画像を切り出して出力し、顔スコア情報が低い、すなわち、顔スコア情報が、検出された顔画像の顔が人間の顔に近くないことを示す場合、顔画像を切り出さず出力しないなどの処理の実行に、顔スコア情報は、利用される。
表情スコア情報は、検出された顔画像における顔の、笑顔、怒り顔、悲しい顔等の表情を表すスコアを示す。例えば、笑顔スコアが高い顔を優先的に表示したりするアプリケーションに表情スコア情報は利用される。
顔重要度情報は、コンテンツから検出された複数の顔画像の中での、その顔画像の重要度を示す。例えば、撮影時に顔画像が検出されて、検出された顔画像にフォーカスがあてられる場合、フォーカスがあてられた顔画像は、はっきりと写っている可能性が高いため、その顔画像についての顔重要度情報は、重要度が高いことを示す値とされ、フォーカスがあたっていない顔画像はぼけている可能性があるので、その顔画像についての顔重要度情報は、重要度が低いことを示す値とされる。顔画像を表示するアプリケーションにおいて、顔重要度情報によって示される重要度が高い顔画像から優先して表示させるなどのように、顔重要度情報が利用される。
アプリケーション情報は、この顔メタデータがどのようなアプリケーションに基づいて作成されたかを示す。例えば、前述したように画像の撮影時に顔画像を検出し、検出された顔画像にフォーカスする顔検出フォーカスというアプリケーションによって、顔メタデータが作成された場合、アプリケーション情報は、顔検出フォーカスというアプリケーションを示す情報とされる。アプリケーション情報と前述した顔重要度情報と組み合わせてみた場合、顔重要度情報で示される重要度がどのアプリケーションに基づいて重要であるかを判別することが可能となる。
顔重要度情報更新情報は、登場人物人数変更情報と同様に、顔重要度情報によって、使用者に指示された重要度が示されるか否かを示す。すなわち、顔重要度情報更新情報は、使用者が顔重要度情報を書き換えたか否かを示す。顔重要度情報が、顔画像にフォーカスをあてられたか否かに応じた値とされている場合、顔重要度情報更新情報は、デフォルト値とされ、使用者が自分の主観で顔重要度情報を変更した場合、例えば、恋人または好みの人のぼけている顔画像の顔重要度情報を重要度が高いことを示す値にした場合など、デフォルト値と異なる値とされる。アプリケーションは、顔重要度情報更新情報によって、顔重要度情報を書き換えさせないように、顔重要度情報更新情報を利用することができる。
人物登場時間情報は、コンテンツが動画像である場合、同じ顔の人物がいつからいつまでコンテンツに登場したか、すなわち、同じ顔の人物がどのくらいの時間登場したかを示す時間情報である。例えば、人物登場時間情報は、コンテンツの登場する人物の1人であるAさんが動画中で出現している区間のみを抜き出したプレイリスト再生などに利用される。
顔位置時間情報は、コンテンツが動画像である場合、顔画像が検出された区間のうちの、代表位置の時刻を示す。コンテンツが動画像である場合、例えば、コンテンツの登場する人物の1人であるAさんが出現した区間のフレームのうち、顔画像の検出の対象となったフレームの数の分だけ顔画像のメタデータが顔メタデータ131に格納されることはなく、その区間の代表位置におけるメタデータが顔メタデータ131に格納される。
例えば、図7に示されるように、時刻t0からAさんの顔の顔画像の検出が開始され、所定時間後の時刻t1においてさらにAさんの顔の顔画像が検出され、時刻t1において検出された顔画像の顔が時刻t0に検出した顔画像に含まれるAさんの顔と同じであるか否かが判定され、同じであると判定された場合、同様に、時刻t1から所定時間後の時刻t2にAさんの顔の顔画像が検出され、時刻t2において検出された顔画像の顔が時刻t1で検出したAさんの顔と同じであるか否かが判定され、同じであると判定された場合、さらに、時刻t2から所定時間後の時刻t3と、時刻t3から所定時間後の時刻t4とに、同様の処理が実行されて、所定の時間間隔で顔画像が検出されるように、動画像であるコンテンツ中にAさんが登場した区間が検出される。
図7で示される例において、点線の四角で囲った顔画像が検出された時刻t2が、この区間の代表位置であり、時刻t2に検出された顔画像が代表画像となる。代表位置は、その区間で検出された顔画像のうち、笑顔スコアの最も高い顔画像が検出された時刻とされたり、または、その区間で検出された顔画像のうち、より正面を向いている顔の顔画像が検出された時刻とされたりする。すなわち、代表画像は、笑顔スコアの最も高い顔画像とされるか、またはより正面を向いている顔の顔画像とされる。顔位置時間情報は、このような代表位置の時刻を示す。
次に、イメージデータブロック群および検出顔画像データ群について説明する。
図4に戻り、イメージデータブロック群は、1または複数の検出顔画像データ記録位置情報からなる、情報またはデータの群である。イメージデータブロック群に含まれる検出顔画像データ記録位置情報のそれぞれは、検出顔画像データ群のそれぞれの記録媒体35において記録される位置または記録された位置を示す記録位置情報である。
すなわち、1つの検出顔画像データ記録位置情報は、1つの検出顔画像データ群の記録される位置を示す。
イメージデータブロック群を構成する検出顔画像データ記録位置情報の数は、顔メタデータ131に配置される検出顔画像データ群の数と同じである。従って、ブロック項目群の顔画像個数情報は、イメージデータブロック群を構成する検出顔画像データ記録位置情報の数を示しているとも言える。
検出顔画像データ群は、コンテンツから検出された顔画像の顔画像データからなる、情報またはデータの群である。
検出顔画像データ群は、検出顔画像ID、顔画像データ、および顔画像サイズ情報などから構成される。
検出顔画像IDは、検出顔データ群に対応する検出顔画像データ群を特定するID、すなわち、検出顔データ群としてメタデータが付加された顔画像と同じ顔画像の顔画像データが配置されている検出顔画像データ群を特定するIDである。検出顔画像IDは、この検出顔画像データ群と対応する検出顔データ群の中の検出顔IDと同じ値とされる。
顔画像データは、顔位置情報に基づいてコンテンツから生成された、顔画像の画像データである。顔画像を表示する場合、対応する検出顔データ群の顔位置情報とコンテンツとから顔の画像の画像データをいちいち作成する時間を省き、顔画像を迅速に表示できるようにするために、顔画像データが利用される。
顔画像サイズ情報は、顔画像データにより表示される顔画像の高さと幅とを表す。
次に、パーソナルデータブロック群および検出顔人物データ群について説明する。
パーソナルデータブロック群は、1または複数の検出顔人物データ記録位置情報からなる、情報またはデータの群である。パーソナルデータブロック群に含まれる検出顔人物データ記録位置情報のそれぞれは、検出顔人物データ群のそれぞれの記録媒体35において記録される位置または記録された位置を示す記録位置情報である。
すなわち、1つの検出顔人物データ記録位置情報は、1つの検出顔人物データ群の記録される位置を示す。
パーソナルデータブロック群を構成する検出顔人物データ記録位置情報の数は、顔メタデータ131に配置される検出顔人物データ群の数と同じである。従って、ブロック項目群の個人情報個数情報は、パーソナルデータブロック群を構成する検出顔人物データ記録位置情報の数を示しているとも言える。
検出顔人物データ群は、コンテンツから顔画像が検出された人に関するメタデータからなる、情報またはデータの群である。
検出顔人物データ群は、検出顔人物ID、人物情報、人物情報更新情報、および人物スコア情報などから構成される。
検出顔人物IDは、検出顔データ群に対応する検出顔人物データ群を特定するID、すなわち、検出顔データ群としてメタデータが付加された顔画像として顔が撮影された人と同じ人(顔が撮影された人その人)に関するメタデータが配置されている検出顔人物データ群を特定するIDである。検出顔人物IDは、この検出顔人物データ群と対応する検出顔データ群の中の検出顔IDと同じ値とされる。
ここで、図8および図9を参照して、検出顔ID、検出顔画像ID、および検出顔人物IDの例を説明する。
例えば、図8で示されるように、検出顔データ群、検出顔画像データ群、および検出顔人物データ群に、それぞれ、検出顔ID、検出顔画像ID、および検出顔人物IDが配置され、1つの検出顔画像データ群に複数の検出顔画像IDが配置され、1つの検出顔人物データ群に複数の検出顔人物IDが配置されるようにしてもよい。
図8の例の場合、検出顔データ群#1に、ID1である検出顔IDが配置され、検出顔データ群#2に、ID2である検出顔IDが配置され、検出顔データ群#3に、ID3である検出顔IDが配置されている。また、検出顔画像データ群#1に、ID1である検出顔画像IDおよびID2である検出顔画像IDが配置され、検出顔画像データ群#2に、ID3である検出顔画像IDが配置されている。さらに、検出顔人物データ群#1に、ID1である検出顔人物ID、ID2である検出顔人物ID、およびID3である検出顔人物IDが配置されている。
検出顔画像データ群#1のID1である検出顔画像IDが検出顔データ群#1のID1である検出顔IDと同じなので、検出顔データ群#1としてメタデータが付加された顔画像の代表画像の顔画像データが検出顔画像データ群#1に配置されている、すなわち、検出顔画像データ群#1が、検出顔データ群#1に対応している。
検出顔画像データ群#1のID2である検出顔画像IDが検出顔データ群#2のID2である検出顔IDと同じなので、検出顔データ群#2としてメタデータが付加された顔画像の代表画像の顔画像データが検出顔画像データ群#1に配置されている、すなわち、検出顔画像データ群#1が、検出顔データ群#2に対応している。
また、検出顔画像データ群#2のID3である検出顔画像IDが検出顔データ群#3のID3である検出顔IDと同じなので、検出顔データ群#3としてメタデータが付加された顔画像の代表画像の顔画像データが検出顔画像データ群#2に配置されている、すなわち、検出顔画像データ群#2が、検出顔データ群#3に対応している。
同様に、検出顔人物データ群#1のID1である検出顔人物IDが検出顔データ群#1のID1である検出顔IDと同じなので、検出顔データ群#1としてメタデータが付加された顔画像として顔が撮影された人と同じ人に関するメタデータが検出顔人物データ群#1に配置されている、すなわち、検出顔人物データ群#1が、検出顔データ群#1に対応している。
検出顔人物データ群#1のID2である検出顔人物IDが検出顔データ群#2のID2である検出顔IDと同じなので、検出顔データ群#2としてメタデータが付加された顔画像として顔が撮影された人と同じ人に関するメタデータが検出顔人物データ群#1に配置されている、すなわち、検出顔人物データ群#1が、検出顔データ群#2に対応している。
また、検出顔人物データ群#1のID3である検出顔人物IDが検出顔データ群#3のID3である検出顔IDと同じなので、検出顔データ群#3としてメタデータが付加された顔画像として顔が撮影された人と同じ人に関するメタデータが検出顔人物データ群#1に配置されている、すなわち、検出顔人物データ群#1が、検出顔データ群#3に対応している。
検出顔ID、検出顔画像ID、および検出顔人物IDのそれぞれに、連続する順の値が設定されるので、検出顔IDをその値の順に検索するようにすれば、検出顔画像IDまたは検出顔人物IDと同じ値の検出顔IDの検索が迅速に行えるようになる。
また、例えば、図9で示されるように、検出顔データ群、検出顔画像データ群、および検出顔人物データ群に、それぞれ、検出顔ID、検出顔画像ID、および検出顔人物IDが配置され、検出顔IDが、検出顔画像IDと比較される値および検出顔人物IDと比較される値からなるようにしてもよい。
図9の例において、検出顔IDの上側の値は、検出顔画像IDと比較される値(以下、検出顔IDと称する)であり、検出顔IDの下側の値は、検出顔人物IDと比較される値(以下、検出顔IDと称する)である。
図9の例の場合、検出顔データ群#1に、ID1である検出顔IDとID1である検出顔IDとが配置され、検出顔データ群#2に、ID1である検出顔IDとID1である検出顔IDとが配置され、検出顔データ群#3に、ID2である検出顔IDとID1である検出顔IDとが配置されている。また、検出顔画像データ群#1に、ID1である検出顔画像IDが配置され、検出顔画像データ群#2に、ID2である検出顔画像IDが配置されている。さらに、検出顔人物データ群#1に、ID1である検出顔人物IDが配置されている。
検出顔画像データ群#1のID1である検出顔画像IDが検出顔データ群#1のID1である検出顔IDと同じなので、検出顔データ群#1としてメタデータが付加された顔画像の代表画像の顔画像データが検出顔画像データ群#1に配置されている、すなわち、検出顔画像データ群#1が、検出顔データ群#1に対応している。
検出顔画像データ群#1のID1である検出顔画像IDが検出顔データ群#2のID1である検出顔IDと同じなので、検出顔データ群#2としてメタデータが付加された顔画像の代表画像の顔画像データが検出顔画像データ群#1に配置されている、すなわち、検出顔画像データ群#1が、検出顔データ群#2に対応している。
検出顔画像データ群#2のID2である検出顔画像IDが検出顔データ群#3のID2である検出顔IDと同じなので、検出顔データ群#3としてメタデータが付加された顔画像の代表画像の顔画像データが検出顔画像データ群#2に配置されている、すなわち、検出顔画像データ群#2が、検出顔データ群#3に対応している。
検出顔人物データ群#1のID1である検出顔人物IDが検出顔データ群#1のID1である検出顔IDと同じなので、検出顔データ群#1としてメタデータが付加された顔画像として顔が撮影された人と同じ人に関するメタデータが検出顔人物データ群#1に配置されている、すなわち、検出顔人物データ群#1が、検出顔データ群#1に対応している。
検出顔人物データ群#1のID1である検出顔人物IDが検出顔データ群#2のID1である検出顔IDと同じなので、検出顔データ群#2としてメタデータが付加された顔画像として顔が撮影された人と同じ人に関するメタデータが検出顔人物データ群#1に配置されている、すなわち、検出顔人物データ群#1が、検出顔データ群#2に対応している。
検出顔人物データ群#1のID1である検出顔人物IDが検出顔データ群#3のID1である検出顔IDと同じなので、検出顔データ群#3としてメタデータが付加された顔画像として顔が撮影された人と同じ人に関するメタデータが検出顔人物データ群#1に配置されている、すなわち、検出顔人物データ群#1が、検出顔データ群#3に対応している。
この場合、検出顔ID、検出顔画像ID、および検出顔人物IDが固定の長さとなるので、検出顔ID、検出顔画像ID、または検出顔人物IDのそれぞれを容易に読み出すことができるようになる。
検出顔人物データ群の説明に戻り、人物情報は、顔画像として顔が撮影された人の名前、年齢、性別、またはその人のメールアドレスなど、顔画像として顔が撮影された人の個人の情報である。
人物情報更新情報は、人物情報が使用者によって、人物情報が更新されたか否かを示す。
人物スコア情報は、顔識別エンジン122による顔の識別において、識別された人らしさを示す。例えば、顔識別エンジン122により、顔画像の人が、Aさんであると識別された場合、人物スコア情報は、顔画像の人のAさんらしさを示す。人物スコア情報で示されるスコアが高いほど、顔画像の人が、識別された人である確率が高い。
顔識別エンジン122に管理されるか、または顔識別エンジン122と連動するデータベースに、Aさんを含む登録されている人の人の名前、年齢、性別、およびその人のメールアドレスなどが格納されているので、顔識別エンジン122による顔画像の識別結果として、Aさんらしいとするスコアが、他の人のスコアと比較して最も高い場合、人物スコア情報に、Aさんらしいとするスコアが設定され、Aさんの名前、年齢、性別、およびその人のメールアドレスなどが人物情報に設定される。
ただし、使用者が、顔画像をみて、その顔画像が、Aさんのものではなく、Kさんのものであると認識し、人物情報にKさんの個人の情報を上書きすると、人物情報更新情報が更新される。このように、人物情報更新情報は、人物情報が更新されたことを示す。
このように、顔メタデータ131は、ブロック項目群、コンテンツデータ群、フェイスブロック群、1または複数の検出顔データ群、イメージデータブロック群、1または複数の検出顔画像データ群、パーソナルデータブロック群、および1または複数の検出顔人物データ群から構成される。そして、ブロック項目群が、コンテンツデータ群、フェイスブロック群、イメージデータブロック群、またはパーソナルデータブロック群のそれぞれの記録される位置を示す記録位置情報を含み、フェイスブロック群が、1または複数の検出顔データ群のそれぞれの記録される位置を示す記録位置情報を含み、イメージデータブロック群が、1または複数の検出顔画像データ群のそれぞれの記録される位置を示す記録位置情報を含み、パーソナルデータブロック群が、1または複数の検出顔人物データ群のそれぞれの記録される位置を示す記録位置情報を含むように構成される。
従って、実データであるメタデータがそれぞれ配置されている、ブロック項目群、コンテンツデータ群、1または複数の検出顔データ群、1または複数の検出顔画像データ群、および1または複数の検出顔人物データ群のうち、所望のメタデータが配置されている所望の群だけを迅速に読み出すことができるようになる。
次に、コンテンツから顔画像が検出されて、検出された顔画像が識別されて、実行される、顔メタデータ131の記録の処理を、図10のフローチャートを参照して説明する。
ステップS11において、記録制御部123は、ブロック項目群およびコンテンツデータ群のデータ量を計算する。ブロック項目群またはコンテンツデータ群を構成する情報またはデータは、デジタルカメラ11において決められているので、コンテンツから検出された顔画像の数にかかわらず、常に一定のデータ量となる。従って、ブロック項目群およびコンテンツデータ群は、それぞれ固定長となる。ステップS11において、記録制御部123は、その固定長であるブロック項目群およびコンテンツデータ群のデータ量を計算する。
ステップS12において、記録制御部123は、検出した顔画像の個数を示すデータを顔検出エンジン121から取得する。
ステップS13において、記録制御部123は、顔検出エンジン121において検出された顔画像のうち、予め決められた所定の条件で、検出顔データ群を記録する顔画像を選ぶ。例えば、記録制御部123は、顔検出エンジン121において検出された顔画像のうち、検出された顔画像についての笑顔スコアを笑顔に近い順に並べて、笑顔スコアが上位の所定の順位に入る顔画像を、検出顔データ群を記録する顔画像として選ぶ。例えば、記録制御部123は、10人の顔の顔画像のうち、笑顔スコアが上位の5位に入る顔画像を、検出顔データ群を記録する顔画像として選ぶ。
また、例えば、記録制御部123は、検出された顔画像のうち、顔画像の大きさを基に、顔画像の大きい順に所定の数の顔画像を、検出顔データ群を記録する顔画像として選ぶようにしてもよい。さらに、記録制御部123は、検出された顔画像のうち、顔重要度情報を基に、検出顔データ群を記録する顔画像として、重要度の高い顔画像を選択するようにしてもよい。
このように、検出顔データ群を記録する顔画像の数を限定することで、使用者にとって不要なメタデータの記録を抑制することができ、従って、顔メタデータ131のデータ量をより少なくすることができる。
この場合、顔検出エンジン121によって検出された顔画像の数は、コンテンツデータ群の登場人物人数情報として記録され、検出顔データ群を記録する顔画像の数、すなわち、検出顔データ群の数は、ブロック項目群の顔個数情報として記録されるので、使用者は、登場人物人数情報と顔個数情報とから、検出顔データ群を記録する顔画像の数を限定したことを知ることができる。
ステップS14において、記録制御部123は、選択された顔画像の個数に基づいて、フェイスブロック群および検出顔データ群のデータ量を計算する。ここで、フェイスブロック群は、検出顔データ群の数と同じ数の検出顔データ記録位置情報からなり、検出顔データ記録位置情報のそれぞれは、固定長であるので、ステップS13で選ばれた、検出顔データ群を記録する顔画像の数がわかれば、フェイスブロック群のデータ量を計算することができる。すなわち、選ばれた顔画像の数と、1つの検出顔データ記録位置情報のデータ量とを乗算することにより、フェイスブロック群のデータ量が計算される。
また、検出顔データ群を構成するメタデータが予め決められ、それぞれの検出顔データ群を構成するメタデータは、図6を参照して説明した構造の固定長の実データなので、例えば、検出顔データ群を構成するメタデータの数と、1つのメタデータのデータ量とを乗算することにより、それぞれの検出顔データ群のデータ量が計算される。
ステップS15において、記録制御部123は、イメージデータブロック群、検出顔画像データ群、パーソナルデータブロック群、および検出顔人物データ群のそれぞれのデータ量を計算して、顔メタデータ131の全体の記録に必要な記録容量を計算する。
イメージデータブロック群、検出顔画像データ群、パーソナルデータブロック群、および検出顔人物データ群のそれぞれは、固定長の記録位置情報または固定長のメタデータ(実データ)から構成されているので、記録位置情報またはメタデータの数から、イメージデータブロック群、検出顔画像データ群、パーソナルデータブロック群、および検出顔人物データ群のそれぞれのデータ量が計算される。
なお、顔検出エンジン121において検出された顔画像のうち、検出顔画像データ群を記録する顔画像が選択されるようにしてもよい。また、顔検出エンジン121において検出された顔画像のうち、検出顔人物データ群を記録する顔画像が選択されるようにしてもよい。
ステップS16において、記録制御部123は、顔メタデータ131の生成の処理を実行する。
ここで、図11のフローチャートを参照して、顔メタデータ131の生成の処理の詳細を説明する。
ステップS51において、記録制御部123のコンテンツデータ群生成部142は、顔検出エンジンバージョン、顔識別エンジンバージョン、画像コンテンツ更新日時、顔メタデータ元画像情報、登場人物人数情報、登場人物人数変更情報、およびコンテンツタイムスケールなどのメタデータ(実データ)から構成されるコンテンツデータ群を生成する。
ステップS52において、記録制御部123の検出顔データ群生成部144は、検出顔ID、顔位置情報、顔角度情報、顔部位情報、顔スコア情報、表情スコア情報、顔重要度情報、顔重要度情報更新情報、人物登場時間情報、および顔位置時間情報などから構成される検出顔データ群を生成する。
ステップS53において、記録制御部123の検出顔画像データ群生成部146は、検出顔画像ID、顔画像データ、および顔画像サイズ情報などから構成される検出顔画像データ群を生成する。
ステップS54において、記録制御部123の検出顔人物データ群生成部148は、検出顔人物ID、人物情報、人物情報更新情報、および人物スコア情報などから構成される検出顔人物データ群を生成する。
ステップS55において、記録制御部123のフェイスブロック群生成部143は、検出顔データ記録位置情報である記録位置情報が空のフェイスブロック群を生成する。
ここで、記録位置情報が空であるとは、記録位置情報の領域だけが確保されていることを意味する。より具体的には、図5で示されるように、タグ(Tag)、タイプ(Type)、およびカウント(Count)には、それぞれ、固有番号、UNDEFINED、およびデータサイズが設定され、内容には、空を示す特定の値(例えば、”0000”など)が設定された記録位置情報である検出顔データ記録位置情報からなるフェイスブロック群が生成される。
ステップS56において、記録制御部123のイメージデータブロック群生成部145は、検出顔画像データ記録位置情報である記録位置情報が空のイメージデータブロック群を生成する。
ステップS57において、記録制御部123のパーソナルデータブロック群生成部147は、検出顔人物データ記録位置情報である記録位置情報が空のパーソナルデータブロック群を生成する。
ステップS58において、記録制御部123のブロック項目群生成部141は、メタデータバージョン情報、コンテンツデータ記録位置情報、顔個数情報、フェイスブロック記録位置情報、顔画像個数情報、イメージデータブロック記録位置情報、個人情報個数情報、およびパーソナルデータブロック記録位置情報から構成され、記録位置情報が空の、すなわち、コンテンツデータ記録位置情報、フェイスブロック記録位置情報、イメージデータブロック記録位置情報、およびパーソナルデータブロック記録位置情報が空のブロック項目群を生成して、顔メタデータ131の生成の処理は終了する。
このように、顔メタデータ131の生成の処理においては、空である記録位置情報を含む顔メタデータ131が生成される。すなわち、領域だけが確保された記録位置情報を含む顔メタデータ131が生成される。
図10に戻り、ステップS17において、記録制御部123は、生成した顔メタデータ131の全体を書き込みデータとする。
ステップS18において、記録制御部123は、媒体I/F34からの記録媒体35の空いている記録領域を示す情報と書き込みデータとを基に、書き込みデータの全体が記録媒体35の物理的に連続している空いている記録領域に記録できるか否かを判定する。ステップS18において、書き込みデータの全体が記録媒体35の物理的に連続している空いている記録領域に記録できると判定された場合、ステップS19に進み、記録制御部123は、記録媒体35の物理的に連続している空いている記録領域に書き込みデータの全体を記録させる。
ステップS20において、記録制御部123は、書き込まれた書き込みデータに上書きするように、記録位置情報を記録媒体35に書き込んで、処理は終了する。
すなわち、記録制御部123は、記録媒体35に書き込まれたコンテンツデータ群の位置を示す記録位置情報を、ブロック項目群の空とされているコンテンツデータ記録位置情報に上書きし、1または複数の検出顔データ群のそれぞれの位置を示す記録位置情報を、フェイスブロック群の空とされている検出顔データ記録位置情報のそれぞれに上書きし、1または複数の検出顔画像データ群のそれぞれの位置を示す記録位置情報を、イメージデータブロック群の空とされている検出顔画像データ記録位置情報のそれぞれに上書きし、1または複数の検出顔人物データ群のそれぞれの位置を示す記録位置情報を、パーソナルデータブロック群の空とされている検出顔人物データ記録位置情報のそれぞれに上書きし、さらに、フェイスブロック群の位置を示す記録位置情報、イメージデータブロック群の位置を示す記録位置情報、およびパーソナルデータブロック群の位置を示す記録位置情報のそれぞれを、ブロック項目群のそれぞれ空とされているフェイスブロック記録位置情報、イメージデータブロック記録位置情報、およびパーソナルデータブロック記録位置情報のそれぞれに上書きするように、記録位置情報を記録媒体35に書き込む。
ステップS18において、書き込みデータの全体が記録媒体35の物理的に連続している空いている記録領域に記録できないと判定された場合、書き込みデータのデータ量をより少なくする必要があるので、ステップS21に進み、記録制御部123は、書き込みデータが2つ以上の群からなるか否かを判定する。ステップS21において、書き込みデータが2つ以上の群からなると判定された場合、群を単位として構成されるようにしたまま書き込みデータのデータ量をより少なくすることができるので、ステップS22に進み、記録制御部123は、データ量の最も少ない群を書き込みデータから分ける。すなわち、データ量の最も少ない群が、書き込みデータから取り除かれる。
なお、ステップS22において、記録制御部123は、データ量の最も多い群を書き込みデータから分けるようにしても、群のそれぞれに、優先順位を予め付加して、その優先順位の順に群を書き込みデータから分けるようにしてもよい。
さらに、ステップS22において、記録制御部123は、ステップS18で判定の対象となった記録領域の記録容量と書き込みデータのデータ量との差分を求めて、その差分を超えるデータ量の群のうち、最もデータ量の小さい群を書き込みデータから分けるようにしてもよい。
ステップS23において、記録制御部123は、記録媒体35の空いている記録領域を示す情報とデータ量の最も少ない群が分けられた残りの書き込みデータのデータ量とを基に、残りの書き込みデータが記録媒体35の物理的に連続している空いている記録領域に記録できるか否かを判定する。
ステップS23において、残りの書き込みデータが記録媒体35の物理的に連続している空いている記録領域に記録できると判定された場合、ステップS24に進み、記録制御部123は、記録媒体35の物理的に連続している空いている記録領域に、残りの書き込みデータを記録させる。ステップS25において、記録制御部123は、ステップS22で分けられた群を1つの書き込みデータとして、ステップS18に戻り、上述した処理を繰り返す。
ステップS23において、ステップS23において、残りの書き込みデータが記録媒体35の物理的に連続している空いている記録領域に記録できないと判定された場合、書き込みデータのデータ量をさらに少なくする必要があるので、ステップS21に戻り、上述した処理を繰り返す。
ステップS21において、書き込みデータが2つ以上の群からならないと判定された場合、書き込みデータが1つの群からなり、群を単位として構成されるようにしたまま書き込みデータのデータ量をより少なくすることはできず、群を単位として記録媒体35の物理的に連続している空いている記録領域に記録できないので、顔メタデータ131を記録できない旨のエラーメッセージを使用者に通知するなどのエラー処理を実行して、顔メタデータ131を記録しないで処理は終了する。
以上のように、群が、記録媒体35の物理的に連続する領域に記録されるように、顔メタデータ131は、記録媒体35に記録される。
例えば、顔メタデータ131を構成する、ブロック項目群、コンテンツデータ群、フェイスブロック群、および3つの検出顔データ群である検出顔データ群1乃至検出顔データ群3の全部のデータ量が、記録媒体35の物理的に連続する空いている領域の記録容量以下である場合には、図12で示されるように、ブロック項目群、コンテンツデータ群、フェイスブロック群、および検出顔データ群1乃至検出顔データ群3は、記録媒体35の物理的に連続する領域に記録されることになる。この場合、上述したように、ブロック項目群によって、コンテンツデータ群およびフェイスブロック群のそれぞれの記録されている位置が示され、フェイスブロック群によって、検出顔データ群1乃至検出顔データ群3のそれぞれの記録されている位置が示される。
また、例えば、顔メタデータ131を構成する、ブロック項目群、コンテンツデータ群、フェイスブロック群、および3つの検出顔データ群である検出顔データ群1乃至検出顔データ群3の全部のデータ量が、記録媒体35の物理的に連続する空いている領域の記録容量より大きい場合には、図13で示されるように、ブロック項目群、コンテンツデータ群、フェイスブロック群、および検出顔データ群1乃至検出顔データ群3は、それぞれの群が記録媒体35の物理的に連続する領域に記録されるように、すなわち、群を単位として記録されるように、記録媒体35に記録される。
例えば、フェイスブロック群およびコンテンツデータ群が、記録媒体35の物理的に連続する領域に記録され、ブロック項目群が、フェイスブロック群およびコンテンツデータ群が記録されている領域と離れた領域であって、記録媒体35の物理的に連続する領域に記録される。また、検出顔データ群1が、フェイスブロック群およびコンテンツデータ群が記録されている領域並びにブロック項目群が記録されている領域と離れた領域であって、記録媒体35の物理的に連続する領域に記録される。さらに、検出顔データ群2および検出顔データ群3が、フェイスブロック群およびコンテンツデータ群が記録されている領域、ブロック項目群が記録されている領域、並びに検出顔データ群1が記録されている領域と離れた領域であって、記録媒体35の物理的に連続する領域に記録される。
この場合も、ブロック項目群によって、コンテンツデータ群およびフェイスブロック群のそれぞれの記録されている位置が示され、フェイスブロック群によって、検出顔データ群1乃至検出顔データ群3のそれぞれの記録されている位置が示される。
このように、コンテンツのそれぞれについて、検出される顔画像の数が異なり、検出された顔画像について記録するメタデータの数が異なる場合であっても、群を単位として顔メタデータ131が記録媒体35に記録されるので、記録媒体35の記録領域のうち、顔メタデータ131の全体は記録できないが、より小さい単位である群を記録できる領域を利用することができるようになり、記録媒体35を効率よく使用することができるようになる。
なお、顔メタデータ131は、図2を参照して説明したように、コンテンツが静止画像である場合のEXIF方式のファイルのEXIF IDF内部のAPP1など、コンテンツのデータを格納するコンテンツファイル125に格納されるように記録されるようにしてもよいが、コンテンツファイル125とは別に、コンテンツを管理するためのコンテンツ管理ファイルが存在する場合、そのコンテンツ管理ファイルに格納されるようにしてもよい。
また、顔メタデータ131が、コンテンツファイル125およびコンテンツ管理ファイルの両方に格納されるようにしてもよい。
次に、記録媒体35に記録されている顔メタデータ131の読み出しの処理について説明する。
ここでは、顔検出データ群の顔位置情報の読み出しを例に説明する。
はじめに、再生制御部124のブロック項目群読み出し部151は、記録媒体35から顔メタデータ131のブロック項目群を読み出し、さらにブロック項目群からメタデータバージョン情報を読み出し、読み出しの対象となる顔メタデータ131の読み出しの処理ができるかを確認する。
例えば、再生制御部124は、新たなバージョンで追加された顔メタデータ131の読み出しをしたい場合に、再生制御部124の内部に記録されているバージョン番号が顔メタデータ131の新たな番号より低い場合は、この時点で顔メタデータ131の読み出しを中止し、場合によってはその顔メタデータ131のが記録されていない旨を使用者に通知する。
これにより、顔メタデータ131の全てのデータをサーチすることなく処理の可否が判断できる。
次に、ブロック項目群読み出し部151は、ブロック項目群から、タグの番号を基に、コンテンツデータ記録位置情報を検索する。ブロック項目群読み出し部151は、コンテンツデータ記録位置情報を検索すると、コンテンツデータ記録位置情報に記述されているコンテンツデータ群の記録されている位置であるアドレスとコンテンツデータ群のデータ量を読み出し、コンテンツデータ群読み出し部152は、コンテンツデータ群のアドレスとデータ量とを参照して、記録媒体35からコンテンツデータ群を読み出す。コンテンツデータ群読み出し部152は、コンテンツデータ群から必要に応じて各種のメタデータを読み込む。
例えば、コンテンツデータ群読み出し部152は、画像コンテンツ更新日時を読み出し、再生制御部124は、読み出した画像コンテンツ更新日時と図示せぬ別領域に記述されたコンテンツの更新日時情報とを比較する。再生制御部124は、読み出した画像コンテンツ更新日時と図示せぬ別領域に記述されたコンテンツの更新日時情報との日時が異なる場合、これ以後の処理を中止し、必要に応じて使用者に顔メタデータ131とコンテンツの不整合を通知する。ここで、再生制御部124は、顔画像を再度検出するかどうかを使用者に選択させるための画面をLCD39に表示させるようにしてもよい。
次に、ブロック項目群読み出し部151は、ブロック項目群から、タグの番号を基に、フェイスブロック記録位置情報を検索し、フェイスブロック記録位置情報を読み出すことで、フェイスブロック群の記録されている位置であるアドレスとフェイスブロック群のデータ量を読み出す。
フェイスブロック群読み出し部153は、フェイスブロック群のアドレスとフェイスブロック群のデータ量とを参照して、記録媒体35からフェイスブロック群を読み出して、フェイスブロック群を構成する検出顔データ記録位置情報のそれぞれを読み出す。
そして、検出顔データ群読み出し部154は、所定の検出顔データ記録位置情報を参照して、記録媒体35から所望の検出顔データ群を読み出して、検出顔データ群を構成する顔位置情報を読み出す。
次に、検出顔データ群読み出し部154は、フェイスブロック群を構成する他の検出顔データ記録位置情報を参照して、記録媒体35から他の検出顔データ群を読み出して、読み出した他の検出顔データ群を構成する顔位置情報を読み出す。
このように、1つのタグに複数のメタデータがまとめて配置されている場合などのように、読み出したいメタデータとは異なるメタデータを読み出す必要がなく、これによりメタデータの読み出しに要する時間を削減することが可能となる。
さらに、人物の名前等の人物情報も同時に表示したい場合は、検出顔データ群読み出し部154は、各顔位置情報が格納されている検出顔データ群内の検出顔IDも同時に読み出しておき、検出顔人物データ群読み出し部158は、検出顔人物データ群から検出顔IDと同値の検出顔人物IDを含む検出顔人物データ群に記録されている人物情報を読み出す。
すなわち、この場合、ブロック項目群読み出し部151は、ブロック項目群から、タグの番号を基に、パーソナルデータブロック記録位置情報を検索し、パーソナルデータブロック記録位置情報を読み出すことで、パーソナルデータブロック群の記録されている位置であるアドレスとパーソナルデータブロック群のデータ量を読み出す。
パーソナルデータブロック群読み出し部157は、パーソナルデータブロック群のアドレスとパーソナルデータブロック群のデータ量とを参照して、記録媒体35からパーソナルデータブロック群を読み出して、パーソナルデータブロック群を構成する検出顔人物データ記録位置情報のそれぞれを読み出す。
そして、検出顔人物データ群読み出し部158は、所定の検出顔人物データ記録位置情報を参照して、記録媒体35から所望の検出顔人物データ群を読み出す。
なお、検出顔画像データ群を読み出す場合、ブロック項目群読み出し部151は、ブロック項目群から、タグの番号を基に、イメージデータブロック記録位置情報を検索し、イメージデータブロック記録位置情報を読み出すことで、イメージデータブロック群の記録されている位置であるアドレスとイメージデータブロック群のデータ量を読み出す。
イメージデータブロック群読み出し部155は、イメージデータブロック群のアドレスとイメージデータブロック群のデータ量とを参照して、記録媒体35からイメージデータブロック群を読み出して、イメージデータブロック群を構成する検出顔画像データ記録位置情報のそれぞれを読み出す。
そして、検出顔画像データ群読み出し部156は、所定の検出顔画像データ記録位置情報を参照して、記録媒体35から所望の検出顔画像データ群を読み出す。
このように、全ての顔位置情報を検索して、顔位置情報および人物情報に基づいて、コンテンツから顔画像の部分を切り出すことによって、例えば、図14で示されるように、そのコンテンツに顔が写っているAさん、Kさん、およびOさんの顔の画像と名前とを表示させることができる。例えば、”ファイル060111.jpgには3人の人物がふくまれています”などのメッセージを表示させることができる。このメッセージにおける”3人”の3は、例えば、ブロック項目群の個人情報個数情報から得られた数である。同様に、ブロック項目群の顔個数情報または顔画像個数情報から得られた数を基に各種の表示をさせることができる。
逆に、人物情報を入力することにより、その人物が写っているコンテンツの検索や、顔一覧表示も行うことが可能になる。
また、動画像であるコンテンツに対する処理の例として、動画像であるコンテンツに登場する人物であるAさん、Kさん、およびOさんの出現時間を、図15で示されるように、Aさん、Kさん、およびOさんのそれぞれの、顔画像と名前とバーによってコンテンツにおいて登場する区間とを表示させることも可能になる。
ここで表示されている顔画像のいずれかを指示すると、その顔画像の顔の人物が登場する時刻からコンテンツの再生が開始されるようにしてもよい。
このように、顔メタデータ131の再生時において、所望の顔メタデータを高速に検出することができ、また、顔メタデータ131として、様々な種類の多くの数のデータまたはデータ量の多いデータを記録し再生することができる。
このように、記録媒体にメタデータを記録するようにした場合には、再生において、メタデータを読み出すことができる。また、コンテンツ毎に付加される第1のメタデータと、記録媒体において第1のメタデータが記録される位置を示す第1の記録位置情報と、コンテンツから検出された顔画像毎に付加される、顔画像に関する第2のメタデータと、記録媒体において第2のメタデータが記録される位置を示す第2の記録位置情報とからなるデータであって、記録媒体において第2の記録位置情報が記録される位置を示す第3の記録位置情報と第1の記録位置情報とが1つの群をなすデータの記録媒体への記録を制御するようにした場合には、再生において、顔についてのメタデータを含むメタデータのうちの、所望のメタデータをより迅速に読み出すことができる。
また、コンテンツにメタデータを付加するようにした場合には、メタデータを読み出すことができる。また、記録媒体に記録されているデータであって、コンテンツ毎に付加された第1のメタデータと、記録媒体において第1のメタデータが記録されている位置を示す第1の記録位置情報と、コンテンツから検出された顔画像毎に付加された、顔画像に関する第2のメタデータと、記録媒体において第2のメタデータが記録されている位置を示す第2の記録位置情報とからなり、記録媒体において第2の記録位置情報が記録されている位置を示す第3の記録位置情報と第1の記録位置情報とが1つの群をなすデータの再生を制御するようにした場合には、顔についてのメタデータを含むメタデータのうちの、所望のメタデータをより迅速に読み出すことができる。
なお、本発明は、動画像または静止画像を撮影するデジタルカメラ11に限らず、例えば、携帯電話機などの被写体を撮影する機器、またはDVD(Digital Versatile Disc)若しくはハードディスクレコーダ若しくはプレーヤなどのコンテンツを記録または再生する機器などに適用することもできる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図16は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。
CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。
入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。
入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図16に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211、または、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明の一実施の形態のデジタルカメラの構成を示すブロック図である。 プログラムを実行するCPUによって実現される機能の構成を示すブロック図である。 顔メタデータの構造の概要を説明する図である。 顔メタデータの具体的な構造を説明する図である。 顔メタデータにおける記録位置情報の構造を示す図である。 顔メタデータにおける実データの構造を示す図である。 代表位置および代表画像の例を示す図である。 検出顔ID、検出顔画像ID、および検出顔人物IDの例を説明する図である。 検出顔ID、検出顔画像ID、および検出顔人物IDの例を説明する図である。 顔メタデータの記録の処理を説明するフローチャートである。 顔メタデータの生成の処理を説明するフローチャートである。 記録媒体の連続した記録領域にそれぞれ記録される、ブロック項目群、コンテンツデータ群、フェイスブロック群、および検出顔データ群の例を示す図である。 記録媒体の連続した記録領域にそれぞれ記録される、ブロック項目群、コンテンツデータ群、フェイスブロック群、および検出顔データ群の例を示す図である。 顔メタデータを用いて表示される画面の例を示す図である。 顔メタデータを用いて表示される画面の例を示す図である。 パーソナルコンピュータの構成の例を示すブロック図である。
符号の説明
35 記録媒体, 36 制御部, 81 CPU, 82 RAM, 83 フラッシュROM, 101 制御部, 121 顔検出エンジン, 122 顔識別エンジン, 123 記録制御部, 124 再生制御部, 131 顔メタデータ, 141 ブロック項目群生成部, 142 コンテンツデータ群生成部, 143 フェイスブロック群生成部, 144 検出顔データ群生成部, 145 イメージデータブロック群生成部, 146 検出顔画像データ群生成部, 147 パーソナルデータブロック群生成部, 148 検出顔人物データ群生成部, 151 ブロック項目群読み出し部, 152 コンテンツデータ群読み出し部, 153 フェイスブロック群読み出し部, 154 検出顔データ群読み出し部, 155 イメージデータブロック群読み出し部, 156 検出顔画像データ群読み出し部, 157 パーソナルデータブロック群読み出し部, 158 検出顔人物データ群読み出し部, 201 CPU, 202 ROM, 203 RAM, 208 記憶部, 211 リムーバブルメディア

Claims (25)

  1. コンテンツ毎に付加される第1のメタデータと、記録媒体において前記第1のメタデータが記録される位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加される、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録される位置を示す第2の記録位置情報とからなるデータであって、前記記録媒体において前記第2の記録位置情報が記録される位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの前記記録媒体への記録を制御する記録制御手段を備える記録装置。
  2. 前記記録制御手段は、前記コンテンツから前記顔画像を検出した顔検出手段のバージョンを示す情報が前記第1のメタデータに含まれる前記データの前記記録媒体への記録を制御する
    請求項1に記載の記録装置。
  3. 前記記録制御手段は、前記コンテンツにおける前記顔画像の位置と前記顔画像の大きさとを示す情報が前記第2のメタデータに含まれる前記データの前記記録媒体への記録を制御する
    請求項1に記載の記録装置。
  4. 前記記録制御手段は、前記第1のメタデータの群、前記第1の記録位置情報の群、前記第2のメタデータのそれぞれの群、および複数の前記第2の記録位置情報からなる群が、群毎に前記記録媒体の連続した記録領域に記録されるように、前記データの前記記録媒体への記録を制御する
    請求項1に記載の記録装置。
  5. 前記記録制御手段は、前記第2のメタデータが付加された前記顔画像の数を示す情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御する
    請求項1に記載の記録装置。
  6. 前記記録制御手段は、前記コンテンツから検出された顔画像から予め決められた条件で選択された前記顔画像であって、前記第2のメタデータが付加された前記顔画像の数を示す前記情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御する
    請求項5に記載の記録装置。
  7. 前記記録制御手段は、前記コンテンツから検出された顔画像の顔画像データと、前記記録媒体において前記顔画像データが記録される位置を示す第4の記録位置情報とを更に含む前記データであって、前記記録媒体において前記第4の記録位置情報が記録される位置を示す第5の記録位置情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御する
    請求項1に記載の記録装置。
  8. 前記記録制御手段は、複数の前記第4の記録位置情報からなる群が前記記録媒体の連続した記録領域に記録されるように、前記データの前記記録媒体への記録を制御する
    請求項7に記載の記録装置。
  9. 前記記録制御手段は、前記顔画像データの数を示す情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御する
    請求項7に記載の記録装置。
  10. 前記記録制御手段は、前記コンテンツから顔画像が検出された人に関する第3のメタデータと、前記記録媒体において前記第3のメタデータが記録される位置を示す第4の記録位置情報とを更に含む前記データであって、前記記録媒体において前記第4の記録位置情報が記録される位置を示す第5の記録位置情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御する
    請求項1に記載の記録装置。
  11. 前記記録制御手段は、複数の前記第4の記録位置情報からなる群が前記記録媒体の連続した記録領域に記録されるように、前記データの前記記録媒体への記録を制御する
    請求項10に記載の記録装置。
  12. 前記記録制御手段は、前記第3のメタデータの数を示す情報が前記第1の記録位置情報の群に含まれる前記データの前記記録媒体への記録を制御する
    請求項10に記載の記録装置。
  13. コンテンツ毎に付加される第1のメタデータと、記録媒体において前記第1のメタデータが記録される位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加される、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録される位置を示す第2の記録位置情報とからなるデータであって、前記記録媒体において前記第2の記録位置情報が記録される位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの前記記録媒体への記録を制御するステップを含む記録方法。
  14. コンテンツ毎に付加される第1のメタデータと、記録媒体において前記第1のメタデータが記録される位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加される、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録される位置を示す第2の記録位置情報とからなるデータであって、前記記録媒体において前記第2の記録位置情報が記録される位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの前記記録媒体への記録を制御するステップをコンピュータに実行させるプログラム。
  15. 記録媒体に記録されているデータであって、コンテンツ毎に付加された第1のメタデータと、前記記録媒体において前記第1のメタデータが記録されている位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加された、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録されている位置を示す第2の記録位置情報とからなり、前記記録媒体において前記第2の記録位置情報が記録されている位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの再生を制御する再生制御手段を備える再生装置。
  16. 前記再生制御手段は、前記第1のメタデータの群、前記第1の記録位置情報の群、前記第2のメタデータのそれぞれの群、および複数の前記第2の記録位置情報からなる群が、群毎に前記記録媒体の連続した記録領域に記録されている前記データの再生を制御する
    請求項15に記載の再生装置。
  17. 前記再生制御手段は、前記第2のメタデータが付加された前記顔画像の数を示す情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御する
    請求項15に記載の再生装置。
  18. 前記再生制御手段は、前記コンテンツから検出された顔画像の顔画像データと、前記記録媒体において前記顔画像データが記録されている位置を示す第4の記録位置情報とを更に含む前記データであって、前記記録媒体において前記第4の記録位置情報が記録されている位置を示す第5の記録位置情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御する
    請求項15に記載の再生装置。
  19. 前記再生制御手段は、複数の前記第4の記録位置情報からなる群が前記記録媒体の連続した記録領域に記録されている前記データの再生を制御する
    請求項18に記載の再生装置。
  20. 前記再生制御手段は、前記顔画像データの数を示す情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御する
    請求項18に記載の再生装置。
  21. 前記再生制御手段は、前記コンテンツから顔画像が検出された人に関する第3のメタデータと、前記記録媒体において前記第3のメタデータが記録されている位置を示す第4の記録位置情報とを更に含む前記データであって、前記記録媒体において前記第4の記録位置情報が記録されている位置を示す第5の記録位置情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御する
    請求項15に記載の再生装置。
  22. 前記再生制御手段は、複数の前記第4の記録位置情報からなる群が前記記録媒体の連続した記録領域に記録されている前記データの再生を制御する
    請求項21に記載の再生装置。
  23. 前記再生制御手段は、前記第3のメタデータの数を示す情報が前記第1の記録位置情報の群に含まれている前記データの再生を制御する
    請求項21に記載の再生装置。
  24. 記録媒体に記録されているデータであって、コンテンツ毎に付加された第1のメタデータと、前記記録媒体において前記第1のメタデータが記録されている位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加された、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録されている位置を示す第2の記録位置情報とからなり、前記記録媒体において前記第2の記録位置情報が記録されている位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの再生を制御するステップを含む再生方法。
  25. 記録媒体に記録されているデータであって、コンテンツ毎に付加された第1のメタデータと、前記記録媒体において前記第1のメタデータが記録されている位置を示す第1の記録位置情報と、前記コンテンツから検出された顔画像毎に付加された、前記顔画像に関する第2のメタデータと、前記記録媒体において前記第2のメタデータが記録されている位置を示す第2の記録位置情報とからなり、前記記録媒体において前記第2の記録位置情報が記録されている位置を示す第3の記録位置情報と前記第1の記録位置情報とが1つの群をなすデータの再生を制御するステップをコンピュータに実行させるプログラム。
JP2006252239A 2006-09-19 2006-09-19 記録装置および方法、プログラム、並びに再生装置および方法 Pending JP2008078713A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2006252239A JP2008078713A (ja) 2006-09-19 2006-09-19 記録装置および方法、プログラム、並びに再生装置および方法
TW096133622A TW200835328A (en) 2006-09-19 2007-09-07 Recording device and method, program, and reproducing device and method
KR1020087011909A KR20090055516A (ko) 2006-09-19 2007-09-19 기록 장치 및 방법, 프로그램, 재생장치 및 방법
US12/438,983 US8762659B2 (en) 2006-09-19 2007-09-19 Storage apparatus and method, program, and playback apparatus and method
PCT/JP2007/068116 WO2008035688A1 (fr) 2006-09-19 2007-09-19 Dispositif et procédé d'enregistrement, programme, et dispositif et procédé de lecture
CN2007800059982A CN101385338B (zh) 2006-09-19 2007-09-19 记录装置和方法以及再现装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006252239A JP2008078713A (ja) 2006-09-19 2006-09-19 記録装置および方法、プログラム、並びに再生装置および方法

Publications (1)

Publication Number Publication Date
JP2008078713A true JP2008078713A (ja) 2008-04-03

Family

ID=39200513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006252239A Pending JP2008078713A (ja) 2006-09-19 2006-09-19 記録装置および方法、プログラム、並びに再生装置および方法

Country Status (6)

Country Link
US (1) US8762659B2 (ja)
JP (1) JP2008078713A (ja)
KR (1) KR20090055516A (ja)
CN (1) CN101385338B (ja)
TW (1) TW200835328A (ja)
WO (1) WO2008035688A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016729A (ja) * 2008-07-07 2010-01-21 Hitachi Ltd 撮像装置
JP2010177990A (ja) * 2009-01-29 2010-08-12 Nikon Corp デジタルカメラ
JP2010177894A (ja) * 2009-01-28 2010-08-12 Sony Corp 撮像装置、画像管理装置及び画像管理方法、並びにコンピューター・プログラム
JP2010187109A (ja) * 2009-02-10 2010-08-26 Nikon Corp 電子スチルカメラ
JP2010239210A (ja) * 2009-03-30 2010-10-21 Toshiba Corp 情報処理装置
JP2011109253A (ja) * 2009-11-13 2011-06-02 Canon Inc 撮像装置
JP2012042741A (ja) * 2010-08-19 2012-03-01 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2012249156A (ja) * 2011-05-30 2012-12-13 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013017850A (ja) * 2012-10-29 2013-01-31 Sankyo Co Ltd 遊技用システム
JP2013126175A (ja) * 2011-12-15 2013-06-24 Nikon Corp 画像記録装置、画像生成装置、画像記録装置の制御プログラムおよび画像生成装置の制御プログラム
JP2014209707A (ja) * 2013-03-25 2014-11-06 パナソニック株式会社 映像再生装置および映像再生方法
JP2015111941A (ja) * 2015-03-02 2015-06-18 日立コンシューマエレクトロニクス株式会社 記録再生装置
JP2016105654A (ja) * 2016-03-07 2016-06-09 日立マクセル株式会社 記録再生装置
JP2017083957A (ja) * 2015-10-23 2017-05-18 株式会社日立システムズ 外部メタデータ付与システム及び外部メタデータ付与方法
US10176848B2 (en) 2008-05-19 2019-01-08 Maxell, Ltd. Recording and reproducing apparatus and method thereof
WO2023074355A1 (ja) * 2021-10-25 2023-05-04 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、情報処理システム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2447976B (en) * 2007-03-30 2011-04-27 Sony Uk Ltd Apparatus and method of image capture
JP4636135B2 (ja) * 2008-08-04 2011-02-23 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
TWI397866B (zh) * 2009-04-21 2013-06-01 Hon Hai Prec Ind Co Ltd 物體偵測系統及方法
JP2011009976A (ja) * 2009-06-25 2011-01-13 Hitachi Ltd 画像再生装置
US8320644B2 (en) 2010-06-15 2012-11-27 Apple Inc. Object detection metadata
CN102549579B (zh) * 2010-08-04 2016-06-08 松下电器(美国)知识产权公司 图像分类装置、方法以及集成电路
US8818025B2 (en) * 2010-08-23 2014-08-26 Nokia Corporation Method and apparatus for recognizing objects in media content
US9251854B2 (en) 2011-02-18 2016-02-02 Google Inc. Facial detection, recognition and bookmarking in videos
JP2012226617A (ja) * 2011-04-20 2012-11-15 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US9230187B2 (en) * 2012-03-15 2016-01-05 Qualcomm Incorporated System and method for robust estimation of color dependent measurements
WO2016088441A1 (ja) * 2014-12-05 2016-06-09 リケンテクノス株式会社 ハードコート積層フィルム
KR102306538B1 (ko) * 2015-01-20 2021-09-29 삼성전자주식회사 콘텐트 편집 장치 및 방법
US10546185B2 (en) * 2015-12-01 2020-01-28 Casio Computer Co., Ltd. Image processing apparatus for performing image processing according to privacy level
US10482640B2 (en) * 2016-04-07 2019-11-19 Casio Computer Co., Ltd. Image processing apparatus for clipping a part of an image and displaying same
US10250592B2 (en) 2016-12-19 2019-04-02 Ricoh Company, Ltd. Approach for accessing third-party content collaboration services on interactive whiteboard appliances using cross-license authentication
US10375130B2 (en) 2016-12-19 2019-08-06 Ricoh Company, Ltd. Approach for accessing third-party content collaboration services on interactive whiteboard appliances by an application using a wrapper application program interface
US10395405B2 (en) * 2017-02-28 2019-08-27 Ricoh Company, Ltd. Removing identifying information from image data on computing devices using markers
WO2020031453A1 (ja) 2018-08-10 2020-02-13 ソニー株式会社 情報処理装置及び情報処理方法、並びに映像音声出力システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339207A (ja) * 1999-05-25 2000-12-08 Sony Corp 記録媒体、データ処理装置
JP2005101906A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 動画記録装置、動画記録方法、及びプログラム
JP2005333381A (ja) * 2004-05-19 2005-12-02 Toshiba Corp メディアデータ再生装置、メディアデータ再生システム、メディアデータ再生プログラムおよび遠隔操作プログラム
JP2006508601A (ja) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド ビデオカメラ
JP2006134006A (ja) * 2004-11-05 2006-05-25 Hitachi Ltd 再生装置、記録再生装置、再生方法、記録再生方法及びソフトウェア

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332478B2 (en) * 1998-10-01 2012-12-11 Digimarc Corporation Context sensitive connected content
US6651076B1 (en) * 1999-05-19 2003-11-18 Cablynx, Inc. Archive computer system and method for storage and retrieval of records
JP2002055995A (ja) * 2000-05-31 2002-02-20 Canon Inc 情報処理方法及び装置
WO2001095331A2 (en) * 2000-06-09 2001-12-13 Koninklijke Philips Electronics N.V. Method of implicit partitioning the storage space available on a storage medium
US7295755B2 (en) * 2001-06-22 2007-11-13 Thomson Licensing Method and apparatus for simplifying the access of metadata
JP2004336466A (ja) 2003-05-08 2004-11-25 Canon Inc メタデータ登録方法
JP4134869B2 (ja) 2003-09-25 2008-08-20 三菱電機株式会社 撮像装置
CN1255748C (zh) * 2003-11-24 2006-05-10 华中科技大学 一种存储虚拟化系统的元数据层次管理方法及其系统
JP2007041987A (ja) 2005-08-05 2007-02-15 Sony Corp 画像処理装置および方法、並びにプログラム
US20080027931A1 (en) * 2006-02-27 2008-01-31 Vobile, Inc. Systems and methods for publishing, searching, retrieving and binding metadata for a digital object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339207A (ja) * 1999-05-25 2000-12-08 Sony Corp 記録媒体、データ処理装置
JP2006508601A (ja) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド ビデオカメラ
JP2005101906A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 動画記録装置、動画記録方法、及びプログラム
JP2005333381A (ja) * 2004-05-19 2005-12-02 Toshiba Corp メディアデータ再生装置、メディアデータ再生システム、メディアデータ再生プログラムおよび遠隔操作プログラム
JP2006134006A (ja) * 2004-11-05 2006-05-25 Hitachi Ltd 再生装置、記録再生装置、再生方法、記録再生方法及びソフトウェア

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11948605B2 (en) 2008-05-19 2024-04-02 Maxell, Ltd. Recording and reproducing apparatus and method thereof
US11727960B2 (en) 2008-05-19 2023-08-15 Maxell, Ltd. Recording and reproducing apparatus and method thereof
US11094350B2 (en) 2008-05-19 2021-08-17 Maxell, Ltd. Recording and reproducing apparatus and method thereof
US10418069B2 (en) 2008-05-19 2019-09-17 Maxell, Ltd. Recording and reproducing apparatus and method thereof
US10176848B2 (en) 2008-05-19 2019-01-08 Maxell, Ltd. Recording and reproducing apparatus and method thereof
JP2010016729A (ja) * 2008-07-07 2010-01-21 Hitachi Ltd 撮像装置
US8768063B2 (en) 2009-01-28 2014-07-01 Sony Corporation Image processing apparatus, image management apparatus and image management method, and computer program
JP2010177894A (ja) * 2009-01-28 2010-08-12 Sony Corp 撮像装置、画像管理装置及び画像管理方法、並びにコンピューター・プログラム
JP2010177990A (ja) * 2009-01-29 2010-08-12 Nikon Corp デジタルカメラ
JP2010187109A (ja) * 2009-02-10 2010-08-26 Nikon Corp 電子スチルカメラ
JP2010239210A (ja) * 2009-03-30 2010-10-21 Toshiba Corp 情報処理装置
JP2011109253A (ja) * 2009-11-13 2011-06-02 Canon Inc 撮像装置
JP2012042741A (ja) * 2010-08-19 2012-03-01 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2012249156A (ja) * 2011-05-30 2012-12-13 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013126175A (ja) * 2011-12-15 2013-06-24 Nikon Corp 画像記録装置、画像生成装置、画像記録装置の制御プログラムおよび画像生成装置の制御プログラム
JP2013017850A (ja) * 2012-10-29 2013-01-31 Sankyo Co Ltd 遊技用システム
JP2014209707A (ja) * 2013-03-25 2014-11-06 パナソニック株式会社 映像再生装置および映像再生方法
JP2015111941A (ja) * 2015-03-02 2015-06-18 日立コンシューマエレクトロニクス株式会社 記録再生装置
JP2017083957A (ja) * 2015-10-23 2017-05-18 株式会社日立システムズ 外部メタデータ付与システム及び外部メタデータ付与方法
JP2016105654A (ja) * 2016-03-07 2016-06-09 日立マクセル株式会社 記録再生装置
WO2023074355A1 (ja) * 2021-10-25 2023-05-04 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、情報処理システム

Also Published As

Publication number Publication date
CN101385338B (zh) 2011-03-02
TW200835328A (en) 2008-08-16
CN101385338A (zh) 2009-03-11
WO2008035688A1 (fr) 2008-03-27
KR20090055516A (ko) 2009-06-02
US20100014719A1 (en) 2010-01-21
US8762659B2 (en) 2014-06-24
TWI374668B (ja) 2012-10-11

Similar Documents

Publication Publication Date Title
JP2008078713A (ja) 記録装置および方法、プログラム、並びに再生装置および方法
US8269857B2 (en) Image processing device, imaging apparatus, image-processing method, and program for face detection, discrimination and file entry correlation
US9013604B2 (en) Video summary including a particular person
EP2710594B1 (en) Video summary including a feature of interest
JP4973098B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4640456B2 (ja) 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
US8331691B2 (en) Image data processing apparatus and image data processing method
JP2008276707A (ja) 画像記録装置、再生装置、撮像装置、画像再生システム、および、これらにおける処理方法、プログラム
JP5878523B2 (ja) コンテンツ加工装置とその集積回路、方法、およびプログラム
JP2007329521A (ja) 画像再生システム、デジタルカメラ、および画像再生装置
KR20140072785A (ko) 동영상 처리 장치 및 그 방법.
JP2013121097A (ja) 撮像装置及び方法、並びに画像生成装置及び方法、プログラム
JP2010237911A (ja) 電子機器
JP2006229293A (ja) 分類用データ生成プログラム及びデジタルカメラ並びに記録装置
JP2010200056A (ja) 記録再生装置
JP2008020944A (ja) 画像処理方法、プログラムおよび装置
JP4882525B2 (ja) 画像再生システム、デジタルカメラ、および画像再生装置
WO2022158201A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2007065897A (ja) 撮像装置及びその制御方法
JP5454391B2 (ja) 画像処理装置
JP5812848B2 (ja) 画像処理装置およびその制御方法
JP2011109292A (ja) 撮像装置、その制御方法及びプログラム並びに記憶媒体
JP2017121001A (ja) 画像処理装置、画像処理方法及びプログラム
JP2011061857A (ja) 画像処理装置、画像処理方法、プログラム、撮像装置
JP2015011221A (ja) 撮像装置、撮像装置の制御方法、およびプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110301