JP2010016621A - 画像データ処理装置と画像データ処理方法およびプログラムと記録媒体 - Google Patents

画像データ処理装置と画像データ処理方法およびプログラムと記録媒体 Download PDF

Info

Publication number
JP2010016621A
JP2010016621A JP2008174640A JP2008174640A JP2010016621A JP 2010016621 A JP2010016621 A JP 2010016621A JP 2008174640 A JP2008174640 A JP 2008174640A JP 2008174640 A JP2008174640 A JP 2008174640A JP 2010016621 A JP2010016621 A JP 2010016621A
Authority
JP
Japan
Prior art keywords
image data
feature
recording medium
unit
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008174640A
Other languages
English (en)
Inventor
Kentaro Aoki
健太郎 青木
Miyuki Okada
深雪 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008174640A priority Critical patent/JP2010016621A/ja
Priority to US12/480,198 priority patent/US8331691B2/en
Priority to CN200910139495A priority patent/CN101621650A/zh
Publication of JP2010016621A publication Critical patent/JP2010016621A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Processing (AREA)

Abstract

【課題】ユーザの所望する画像データを容易に記録メディアから読み出すことができるようにする。
【解決手段】撮像部22で生成された画像データから特徴抽出処理部25で視覚的特徴を抽出する。視覚的特徴は、人物の顔検出を行って得られた顔検出結果、顔検出結果を用いて顔属性検出と人物特定と人体検出の少なくともいずれかを行って得られた結果、また人物だけでなく物体の検出結果等を用いる。記録メディア31には、画像データと該画像データから抽出した視覚的特徴を関連付けて記録する。特徴比較処理部26は特徴抽出処理部25で抽出された視覚的特徴と記録メディア31に記録されている視覚的特徴を比較する。制御部40は、比較結果に基づき、抽出された視覚的特徴を示す画像データを記録メディア31から読み出す。
【選択図】 図1

Description

この発明は、画像データ処理装置と画像データ処理方法に関する。詳しくは、記録メディアに保存されている大量の静止画や動画の画像データから、簡単に所望の画像データを探し出して、再生や編集を行うことができるようにするものである。
近年、記録メディアの大容量化に伴い、ディジタルスチルカメラやカメラ一体型ビデオレコーダーで得られた静止画や動画の画像データを大量に記録することが可能となってきている。しかし、記録メディアに大量の静止画や動画の画像データを記録できるようになると、画像データの再生や編集等を行う場合、所望の画像データを簡単に探し出すことができなくなる。このため、特許文献1では、記録時に記録対象データの特徴を抽出して、この特徴に基づくメタデータを保存しておき、再生時にはメタデータを検索することで、所望のデータを容易に得られるようにすることが開示されている。
また、人物の顔の検出を行い、検出した顔をキーワードとして記録メディアから所望のデータを探し出す方法も提案されている。例えば、特許文献2では、再生対象データ中から検出した顔と特定人物の顔との類似度を判定して、類似度の高い顔が含まれる画像を順次再生する方法が開示されている。また、特許文献3では、再生対象データ中の特定人物をユーザが指示することによって、再生対象データ中からその人物を含む部分動画を抽出する方法が開示されている。
特開2007−49332号公報 特開2005−33276号公報 特開2007−281858号公報
ところで、記録時に記録対象データ中から特徴を抽出して、この特徴に基づくメタデータを保存する場合、どのような特徴に基づくメタデータを保存するかについては、特徴を抽出する際に予め設定されている。このため、所望のデータの検索を容易とする特徴が抽出されていないと、メタデータを検索しても所望のデータを容易に得ることができない。また、多くの特徴を抽出して、この抽出した特徴に基づくメタデータを保存しておけば、メタデータを検索して所望のデータを容易に得ることができる。しかし、多くの特徴が抽出されていると、所望のデータを得るためにいずれの特徴を用いればよいか、特徴の選択が容易でなくなってしまう。
また、再生対象データ中から検出した顔と特定人物の顔との類似度を判定して、判定結果に基づき画像の再生を行う方法では、再生対象画像登録データベースから特定人物画像が指定される。このため、特定人物画像を指定できるように再生対象画像登録データベースを予め設けておかなければならない。さらに、再生対象画像登録データベースに登録されている人物が多くなると、特定人物画像を容易に指定することが困難となってしまう。
また、再生対象データ中の特定人物をユーザが指示することによって、再生対象データ中からその人物を含む部分動画を抽出する方法では、再生中の動画(または静止画)や再生対象データ中に含まれる人物を指定操作が必要となる。このため、所望の人物が含まれた画像を再生しなければ人物の指定を行えないので、簡単に所望の人物を含む部分動画を抽出することができない。
そこで、この発明では、ユーザの所望する画像データを容易に記録メディアから読み出すことができる画像データ処理装置と画像データ処理方法を提供するものである。
本発明の第1の側面は、被写体を撮像して画像データを生成する撮像部と、生成された画像データから視覚的特徴を抽出する特徴抽出処理部と、記録メディアに記録されている画像データから抽出されて該画像データに関連付けられている視覚的特徴と、特徴抽出処理部で抽出された視覚的特徴の比較を行う特徴比較処理部と、比較結果に基づいて、記録メディアから特徴抽出処理部で抽出された視覚的特徴を示す画像データの読み出しを行う制御部とを備える画像データ処理装置にある。
この画像データ処理装置では、撮像部で生成された画像データから視覚的特徴が抽出される。視覚的特徴は、人物の顔検出を行って得られた顔検出結果、顔検出結果を用いて顔属性検出と人物特定と人体検出の少なくともいずれかを行って得られた結果、また人物だけでなく物体の検出結果等が用いられる。記録メディアには、例えば画像データと該画像データから抽出された視覚的特徴が関連付けて記録されている。撮像部で生成された画像データから抽出された視覚的特徴は、記録メディアに記録されている視覚的特徴と比較されて、この比較結果に基づき、撮像部で生成された画像データから抽出された視覚的特徴を示す画像データが、記録メディアから読み出される。また、読み出された画像データは、つなぎ合わされて1つのファイルとされる場合もある。
本発明の第2の側面は、被写体を撮像して画像データを生成するステップと、生成された画像データから視覚的特徴を抽出するステップと、記録メディアに記録されている画像データから抽出されて該画像データに関連付けられている視覚的特徴と、抽出された視覚的特徴の比較を行うステップと、比較結果に基づいて、抽出された視覚的特徴を示す画像データを記録メディアから読み出すステップとを有する画像データ処理方法にある。
この発明によれば、被写体を撮像して生成された画像データから抽出された視覚的特徴と、記録メディアに記録されている視覚的特徴が比較されて、この比較結果に基づき、撮像部で生成された画像データから抽出された視覚的特徴を示す画像データが記録メディアから読み出される。
このため、再生対象画像登録データベースに登録されている人物から特定の人物を指定したり、特定人物が含まれる画像を再生して、再生中の画像が特定人物を指定する操作を行わなくとも、所望の被写体を撮像するだけで、所望の被写体が含まれる画像データを記録メディアから容易に読み出すことができる。
以下、図を参照しながら、この発明の実施の一形態について説明する。図1は画像データ処理装置の構成を示している。
画像データ処理装置10は、レンズ部21、撮像部22、カメラ信号処理部23、解像度変換処理部24、特徴抽出処理部25、特徴比較処理部26、記録再生処理部27、入出力インタフェース部28、メモリ部29、記録メディア駆動部30、記録メディア31、表示部35、ユーザインタフェース部39、制御部40を備えている。また、カメラ信号処理部23、解像度変換処理部24、特徴抽出処理部25、特徴比較処理部26、記録再生処理部27、入出力インタフェース部28、メモリ部29、制御部40は、バス50を介して接続されている。また、入出力インタフェース部28には、記録メディア31に対して画像データ等の記録再生を行う記録メディア駆動部30、および画像表示やメニュー表示等を行う表示部35が接続されている。
レンズ部21は、撮像部22を構成する撮像素子の撮像面上に被写体画像を結像させる。撮像部22は、被写体を撮像して画像データDVaを生成する。この撮像部22は、撮像素子や撮像素子を駆動するための駆動回路等で構成されている。撮像部22は、光電変換等を行うことで撮像信号を生成する。また、撮像部22は、撮像信号のノイズ除去や信号レベル調整を行う。さらに、撮像部22は、ノイズ除去や信号レベル調整等が行われたアナログの撮像信号をディジタル信号に変換して、画像データDVaとしてカメラ信号処理部23に供給する。
カメラ信号処理部23は、色再現性を向上させるためのマトリクス演算、高輝度部分を圧縮するニー補正、忠実な階調表現を行うためのガンマ補正、撮像画像の輪郭を補償するディテール処理等を行う。また、カメラ信号処理部23は、信号処理後の画像データDVbを解像度変換処理部24またはメモリ部29に供給する。
解像度変換処理部24は、カメラ信号処理部23から供給された画像データDVb、またはメモリ部29に記憶されている画像データDVbを所望の解像度の画像データDVcに変換する。さらに、解像度変換処理部24は、変換後の画像データDVcをメモリ部29に記憶させる。
特徴抽出処理部25は、メモリ部29に記憶されている画像データDVcから画像データの視覚的特徴を抽出して、抽出した視覚的特徴を示す特徴量Vaを制御部40に供給する。
図2は、特徴抽出処理部25の構成を示している。特徴抽出処理部25は、顔検出部251、顔属性検出部252、人物特定部253、人体検出部254、物体検出部255を備えており、各部はバス50を介して特徴比較処理部26やメモリ部29および制御部40と接続可能とされている。
顔検出部251は、画像データDVcに基づく画像から、人物の顔部分を検出するものである。顔検出部251は、顔の数や画像内の顔の位置、顔のサイズ等を検出して、この検出結果を顔検出結果Va-1として制御部40と顔属性検出部252と人物特定部253および人体検出部254に通知する。顔検出部251は、例えば画像データDVcに基づく画像から顔画像テンプレートとマッチング度が高い肌色領域を顔部分として、この顔部分と判別された領域に基づいて顔検出結果Va-1を生成する。
顔属性検出部252は、画像データDVcに基づく画像において、顔検出結果Va-1で示された顔部分の画像から顔属性を検出する。顔属性検出部252は、顔属性として、顔の表情、瞬き、男性であるか女性であるか、大人であるか子供であるか等を検出して、顔属性検出結果Va-2を制御部40に通知する。顔属性検出部252は、例えば顔の表情(笑顔など)の度合いや、瞬きの度合いなどをスコア化して顔属性検出結果とする。
人物特定部253は、画像データDVcに基づく画像において、顔検出結果Va-1で示された顔部分の画像が、いずれの人物の顔であるかを特定して、人物特定結果Va-3を制御部40に通知する。人物特定部253は、例えば顔検出結果Va-1で示された顔部分の画像と予め登録されている顔画像の類似度をスコア化して人物特定結果とする。
人体検出部254は、画像データDVcに基づく画像から、人体部分を検出して人体検出結果Va-4を制御部40に通知するものである。人体検出部254は、例えば顔検出結果Va-1で示された顔部分とつながっている人体部分の複数点、例えば肩や肘および手首や膝などの関節部分を検出して、画像内における関節部分の位置を人体検出結果とする。
物体検出部255は、画像データDVcに基づく画像から、人物以外の物体を検出して、物体検出結果Va-5を制御部40に通知するものである。物体検出部255は、例えば検出した物体の種類(既知の対象物との類似度を示すスコア)、物体の画像内の位置、物体を示す画像のサイズなどを物体検出結果とする。
なお、顔検出や顔属性検出、人物特定、人体検出、物体検出は、上述の方法に限られるものではなく、他の種々の方法を用いるものとしてもよい。また、特徴抽出処理部25は、上述の各部を用いて構成する場合に限られるものではなく、一部のみを用いて構成するものとしたり、新たな特徴を抽出するようにしてもよい。例えば、画像データ処理装置のリソース(処理能力およびハードウェアの制限規模・動作周波数など)により自由に設定できるものとする。
図1の特徴比較処理部26は、特徴抽出処理部25で抽出された特徴と記録メディア31に画像データと関連付けて記録されている特徴を比較するものである。特徴比較処理部26は、比較対象元の付随データと比較対象先の付随データを蓄える記憶部を備えている。付属データは、後述するように、視覚的特徴を示す特徴量および撮影条件(例えば撮像日時やズーム位置など)を示す情報等を示す所定フォーマットのデータである。特徴比較処理部26は、特徴抽出処理部25で抽出された特徴を示す付随データDNaと、入出力インタフェース部28に接続されている記録メディア駆動部30の記録メディア31に記録されている付随データDNrの比較を行い、比較結果JGを特徴比較処理部26の記憶部に記憶する。
記録再生処理部27は、メモリ部29に記憶されている画像データDVcを所定のフォーマット、例えばJPEGやMPEG4等のフォーマットの符号化データに変換して、入出力インタフェース部28に接続されている記録メディア駆動部30に供給する。また、記録再生処理部27は、記録メディア駆動部30によって記録メディア31から読み出されたデータのデコードを行う。
入出力インタフェース部28は、バス50に記録メディア駆動部30を接続するためのインタフェースである。メモリ部29は、画像データ、また場合によっては、特徴量Vaや比較結果JGを記憶する。
記録メディア駆動部30は、記録メディア31を駆動して記録メディア31に対してデータの書き込みや、書き込まれているデータの読み出しを行う。記録メディア31は、光ディスクや磁気ディスクまたは半導体メモリ等で構成されており、種々のデータが記録される。記録メディア31は、記録メディア駆動部30に対して着脱可能とされていてもよく、記録メディア駆動部30と一体に構成されて、画像データ処理装置の内部に設けられるものであってもよい。
表示部35は、静止画や動画の表示、動作設定等のためのメニュー表示等を行う。なお、表示部35は、画像データ処理装置と一体に設けられていてもよく、画像データ処理装置と別個に設けられていてもよい。
ユーザインタフェース部39は操作キー等で構成されており、ユーザ操作に応じた操作信号PSを生成して制御部40に供給する。
制御部40は、CPU(Central Processing Unit)やROM(Read Only Memory)およびRAM(Random Access Memory)等で構成されている。CPUは、ROMまたはRAMに記録されているプログラムを実行して、画像データ処理装置の動作がユーザ操作に応じた動作となるように、操作信号PSに基づき各部の動作を制御する。例えば、所望の画像データを記録メディア31から読み出して再生する処理や、所望の画像データを記録メディア31から読み出して編集する処理を行う。また、制御部40は、所望の画像データを記録メディア31から読み出す際に、特徴量Va(Va-1〜Va-5)を利用して画像データの検索を行う。
次に、画像データ処理装置の動作について説明する。図3は、所望の静止画を記録メディアから自動的に検索して順次再生する場合のフローチャート、図4は、このときの処理工程図を例示している。具体的には、対象人物やその他の人物、および風景等を大量に撮影した静止画が記憶されているディジタルスチルカメラを外部モニターにつないで、静止画を大勢で閲覧する場合、例えば対象人物が笑顔で写っている写真のみを自動的に検索してスライドショー表示するような場合などである。なお、記録メディアから自動的に所望の画像を検索して再生する場合の動作モードを、「自動再生モード」とよぶものとする。
また、図1の記録メディア31には、撮像した静止画の画像データだけでなく、静止画の撮像時に特徴抽出処理部25で得られた特徴量、および撮影条件(例えば日時やズーム位置など)を示す情報等が所定フォーマットの付随データDNrとして、画像データに関係付けて記憶されているものとする。
ここで、画像の検索を行う場合、動作モード毎にプリセット情報が設定されているものとする。このプリセット情報は、所望の画像を検索するとき、どのような視覚的特徴を抽出して検索を行うか指示する情報である。すなわち、プリセット情報は、所望の画像を検索するとき、どのような項目の特徴量を用いるものとするか、またはどのような特徴量がどのような値等であるとき検索対象とするか等を示す情報である。例えば特徴量の項目として、画像データのファイルが動画ファイルであるか静止画ファイルであるかを示す「ファイル種類」・「顔検出結果」・「顔属性検出結果」・「人物特定結果」をプリセット情報で示すものする。この場合、所望の画像を検索するときに、「ファイル種類」・「顔検出結果」・「顔属性検出結果」・「人物特定結果」が検索条件として用いられる。また、プリセット情報では、特徴量の項目だけでなく特徴量の値等を示すものとしてもよい。例えば特徴量の値として、「ファイル種類が静止画」・「検出された顔の数が所定数以上」・「検出された顔属性が笑顔」・「特定された人物が検索対象の人物」であることを示すものする。この場合、ファイル種類が静止画であって、検出された顔の数が所定数以上、検出された顔属性が笑顔の条件を満たす画像が検索対象となる。なお、プリセット情報は、動作モードが選択される前に設定されてもよく、動作モードが選択されたときに、プリセット情報の設定や既に設定されているプリセット情報の変更を行うことができるようにしてもよい。
ステップST1で制御部40は、自動再生モードが選択されているか否かを判別する。制御部40は、ユーザによって自動再生モードの選択操作(図4のユーザ操作US1)が行われたことにより、自動再生モードが選択されていると判別したときステップST2に進む。また、制御部40は、他の再生モードが選択されているときステップST29に進み、他の再生モードで動作を行う。なお、動作モードの選択は、例えば画像データ処理装置10の表示部35で動作モードの選択メニュー表示を行い、選択メニュー表示から自動再生モードを選択できるようにする。
ステップST2で制御部40は、付随データに含める情報の設定指示を行う(図4の制御部の動作CA1)。制御部40は、プリセット情報で示された特徴量だけでなく他のどのような情報を付随データに含めて比較対象とするかユーザに設定させる。制御部40は、表示部35で情報の設定を行う設定画面を表示させて、例えば、自動再生モードであるときの検索条件で人物の特定を外したり、検索条件に撮像日時やズーム位置などの撮像条件等を比較対象とするための撮像情報を設定できるようにする(図4の他部の動作MA1)。ユーザは、設定画面にしたがい、付随データに含める撮像情報の設定を行う(図4のユーザ操作US2)。なお、ステップST2で制御部40は、プリセット情報の設定や設定されているプリセット情報の変更を行うことができるようにしてもよい。また、制御部40は、既にプリセット情報の設定がなされており、プリセット情報とは異なる撮像情報の設定や変更等が必要ない場合、このステップの処理を省略できるものとする。
ステップST3で制御部40は、モニタリング動作を開始させてステップST4に進む。制御部40は、レンズ部21、撮像部22、カメラ信号処理部23、解像度変換処理部24等の動作を制御して(図4の制御部の動作CA2)、表示部35に撮像画像を表示させる(図4の他部の動作MA2)。
ステップST4で制御部40はシャッター操作が行われたか否かを判別して、シャッター操作が行われていないときはステップST4に戻り、シャッター操作が行われたときにはステップST5に進む。ユーザは、所望の静止画を検索するための画像データを生成させる。例えば対象人物が笑顔で写っている写真のみを自動的に検索する場合、ユーザは、対象人物が笑顔であるときにシャッター操作を行い(図4のユーザ操作US3)、対象人物が笑顔で写っている画像データを生成させる。
ステップST5で制御部40は特徴抽出の指示を行いステップST6に進む。制御部40は、シャッター操作が行われたときの撮像画像から特徴抽出の指示を行う(図4の制御部の動作CA3)。
ステップST6で制御部40は、記録メディア31に記録されている付随データDNrを読み出してステップST7に進む(図4の制御部の動作CA4)。
ステップST7で制御部40は、読み出した付随データDNrを特徴比較処理部26に転送してステップST20に進む(図4の制御部の動作CA5)。
図5は、所望の静止画を自動的に検索して順次再生する場合の特徴抽出動作を示すフローチャートである。制御部40によって特徴抽出の指示が行われると、ステップST11でカメラ信号処理部23は、画像データの取り込みを行い(図4の他部の動作MA3)、シャッター操作が行われたときの撮像画像の画像データをメモリ部29に記憶させてステップST12に進む。
ステップST12で解像度変換処理部24は、メモリ部29に記憶された画像データに対して解像度変換を行いステップST13に進む。解像度変換処理部24は、メモリ部29に記憶された画像データを、特徴抽出処理部25が必要とする解像度に変換してメモリ部29に戻す処理を行う(図4の他部の動作MA4)。
ステップST13で特徴抽出処理部25の顔検出部251は顔検出を行う。顔検出部251は、メモリ部29に記憶されている解像度変換後である画像データの画像中から人物の顔の検出を行い、画像内における人物の顔の位置や顔のサイズ等を検出して、この検出結果を顔検出結果Va-1として制御部40に通知する(図4の特許抽出処理部の動作MB1)。
ステップST14で特徴抽出処理部25の顔属性検出部252は顔属性検出を行う。顔属性検出部252は、ステップST13で検出した人物の顔に対して、顔属性の検出を行い、顔属性検出結果Va-2を制御部40に通知する(図4の特許抽出処理部の動作MB2)。ここで、対象人物が笑顔であるときにシャッター操作が行われた場合、検出結果では笑顔のスコアが大きく、その他の属性のスコアは小さいものとなる。
ステップST15で特徴抽出処理部25の人物特定部253は人物特定を行う。人物特定部253は、ステップST13で検出した顔がいずれの人物の顔であるかを特定して人物特定結果Va-3を制御部40に通知する(図4の特許抽出処理部の動作MB3)。
このステップST11〜ステップST15の処理を行うことで、所望の静止画を検索するための特徴、すなわち対象人物が笑顔で写っている写真のみを自動的に検索する場合に、この対象人物の笑顔に対応した特徴が得られたことになる。
図3のステップST20で制御部40は、所望の静止画を検索するための特徴が抽出されたか否かを判別する。制御部40は、特徴抽出が完了していないときステップST20に戻り、特徴抽出が完了したときステップST21に進む。
ステップST21で制御部40は、付随データDNaの生成を行ってステップST22に進む。制御部40は、抽出された特徴を用いて、記録メディア31に記録されている付随データDNrと同様のフォーマットでの付随データDNaを生成する(図4の制御部の動作CA6)。
図6は、付随データのフォーマットを例示している。付随データは、例えば「付随データ識別情報」・「ファイルの種類」・「先頭からのバイト数」・「顔検出数」・「顔属性検出結果」・「人物検出結果」・「人体検出結果」・「物体検出数」・「検出物体特定結果」のデータを有している。
付随データ識別情報は、付随データの先頭に設けられており、付随データであることを示す固有データ列である。ファイルの種類は、静止画または動画のいずれの画像データであるかを示すデータである。先頭からのバイト数は、記録媒体の先頭から付随データが記録された位置までのバイト数を示している。顔検出数は、顔検出部251で画像フレーム中から検出された顔の数を示すデータである。
顔属性検出結果は、顔属性検出部252で検出された顔の属性を示すデータである。 図7は、顔属性検出結果を示している。顔属性検出部252では、顔妥当性検出やYaw角度検出、男女検出、大人子供検出、笑顔検出、瞬き検出を行い、顔妥当性検出結果VDT、Yaw角度検出結果YDT、男女検出結果GDT、大人子供検出結果CDT、笑顔検出結果SDT、瞬き検出結果BDTを示すものとする。この顔属性検出では、例えば各属性のスコアと閾値の比較結果を各検出結果として用いる。
人物検出結果は、人物特定部253において、例えば予め登録されている人物から、検出された顔と最も類似すると特定された人物の識別情報を示すデータである。
人体検出結果は、人体検出部254で検出された検出結果を示すデータである。図8は、人体検出結果を示している。人体検出では、図8の(A)に示すように、顔の中心を基準として、左肩位置(QS1)、右肩位置(QS2)、左肘位置(QE1)、右肘位置(QE2)、左手位置(QH1)、右手位置(QH2)、腰位置(QW)、左膝位置(QK1)、右膝位置(QK2)を検出する。この検出結果に基づき、図8の(B)に示すように、各検出位置の検出結果例えば各検出位置において、顔中心からのX座標とY座標を示すデータを人体検出結果とする。ここで、人体が離れた位置であるときは、顔の中心から各位置までの距離が、人体が接近した位置であるときよりも短くなる。したがって、人体検出結果は、顔の大きさ(QN)に応じて正規化したデータとする。
物体検出結果は、物体検出部255において、画像フレーム中から検出した物体の数を示すデータである。検出物体特定結果は、物体検出部255において、例えば予め登録されている物体から、検出された物体と最も類似すると特定された物体の識別情報を示すデータである。
なお、図6では、付随データDNaにおいて、「付随データ識別情報」・「ファイルの種類」・「先頭からのバイト数」・「顔検出数」・「顔属性検出結果」・「人物検出結果」・「人体検出結果」・「物体検出数」・「検出物体特定結果」のデータを示す場合を例示した。しかし、各動作モードにおける付随データDNaの生成では、動作モード毎に必要なデータのみを示す付随データDNaを生成する。例えば、顔検出結果を用いて、顔属性検出と人物特定と人体検出の少なくともいずれかを行い、これらの結果を視覚的特徴に含めるものとして、この視覚的特徴を示す付随データDNaを生成する。また、プリセット情報のみが設定されて、このプリセット情報で、上述のように「ファイルの種類」および視覚的特徴として「顔検出数」と「属性検出結果」および「人物特定結果」の項目が示されている場合、「付随データ識別情報」・「ファイルの種類」・「先頭からのバイト数」・「顔検出数」・「属性検出結果」・「人物特定結果」を示す付随データDNaを生成する。
ステップST22で制御部40は生成した付随データDNaを特徴比較処理部26に転送する処理を行ったのちステップST23に進む(図4の制御部の動作CA7)。
ステップST23で特徴比較処理部26は付随データDNaと付随データDNrの比較を行ってステップST24に進む。特徴比較処理部26は、制御部40からの比較方法の指示にしたがい、ステップST22で転送された付随データDNaをステップST7で転送された付随データDNrと比較して、検索条件に合致する静止画を検出する。例えば、ステップST4でシャッター操作が行われたと判別されたときの撮像画を検索条件として、検索条件に合致する静止画を検出するように制御部40で比較方法の指示が行われたとき、検索条件に合致する静止画を検出する。すなわち、対象人物が笑顔である静止画のファイル名を選択する指示が行われたとき、特徴比較処理部26は、付随データの比較として顔属性検出結果Va-2および人物特定結果Va-3等を比較して、対象人物が笑顔である静止画のファイル名を検出する(図4の特徴比較処理部の動作MC1)。
ステップST24で特徴比較処理部26は全付随データの比較が終了したか否かを判別する。特徴比較処理部26は、ステップST22で転送された付随データDNaを、ステップST7で転送された全ての付随データDNrと比較する処理が終了していないときステップST23に戻り、全ての付随データDNrとの比較が終了したときステップST25に進む。
ステップST25で制御部40は、付随データの比較結果JGを読み出してステップST26に進む。制御部40は、特徴比較処理部26から付随データの比較結果JG、すなわち検索条件に合致する静止画のファイル名を読み出す(図4の制御部の動作CA8)。
ステップST26で制御部40は、付随データの比較結果JGに基づいた再生指示を行ってステップST27に進む。制御部40は、付随データの比較結果JGで示されたファイル名を記録再生処理部27に通知して、記録再生処理部27によって、比較結果で示されたファイル名の静止画を順次再生させる(図4の制御部の動作CA9)。検索された静止画の再生は、比較結果に格納されている順番に順次再生するものとしてもよく、ランダムな順番で順次再生するものとしてもよい。また、複数の再生画像を同時に表示したり、再生画像毎の間に特殊効果を入れてもよい。なお、再生動作によってはメモリ部29に複数の再生画像が置かれる場合もある。
記録再生処理部27は、付随データの比較結果JGで示されたファイル名の画像データを記録メディアから読み出してメモリ部29に記憶させるとともに、メモリ部29に記憶させた画像データDRa,DRb,DRc・・・を表示部35に供給する処理を行う(図4の他部の動作MA5)。
ステップST27で制御部40は、再生終了操作が行われたか否かを判別する。制御部40は、再生終了操作が行われていないと判別したときステップST26に戻り、再生終了操作が行われていないと判別したとき再生動作を終了させる。
なお、上述の動作では、記録メディア31に記録されている付随データDNrを一度で読み出して特徴比較処理部26に転送して付随データの比較を行ったが、付随データの容量が大きい場合などは、特徴比較処理部26で処理できる容量毎の単位で、記録メディア31に記録されている付随データDNrの読み出しや、付随データの比較を行うものとする。
このようにすれば、ユーザは自動再生モードを選択して対象人物の笑顔を撮像するだけで、記録メディア31に保存されている大量の静止画から対象人物が笑顔である静止画を探し出して、この静止画の画像データを読み出して自動的に再生することが可能となる。
なお、ステップST6とステップST7の処理、すなわち記録メディア31に記録されている付随データの読み出しと、読み出した付随データを特徴比較処理部26に転送する処理は、シャッター操作が行われる前に行うことも可能である。しかし、ユーザがシャッター操作を行うことなく再生動作を中止させてしまうと、付随データの読み出しと転送の処理が無効となってしまう。したがって、シャッター操作が行われたあとに付随データの読み出しと転送の処理を行うことが好ましい。
ところで、上述の実施の形態は、記録メディア31に静止画が記録されている場合について説明したが、動画が記録されている場合でも、同様にして所望の動画を容易に検索することができる。
次に、記録メディア31に記録されている動画から所望の動画を自動的検索する場合について説明する。図9は、所望の動画を記録メディアから自動的に読み出して編集する場合のフローチャート、図10は、このときの処理工程図を例示している。具体的には、大量に撮影した動画が入っているカメラ一体型ビデオレコーダー中から所望の動画を編集する場合、例えば人物がゴルフのスイングをしている場面のみを全て取り出して編集したいような場合などである。なお、記録メディアから自動的に所望の動画を検索して編集する場合の動作モードを「自動動画編集モード」とよぶものとする。
また、図1の記録メディア31には、撮像した動画の画像データだけでなく、動画の撮像時に特徴抽出処理部25で得られた特徴量、および撮影条件(例えば日時やズーム位置など)を示す情報等が所定フォーマットの付随データDNrとして、画像データに関係付けて記憶されているものとする。
ステップST31で制御部40は、自動動画編集モードが選択されているか否かを判別する。制御部40は、ユーザによって自動動画編集モードの選択操作(図10のユーザ操作US11)が行われたことにより、自動動画編集モードが選択されていると判別したときステップST32に進む。また、制御部40は、他の編集モードが選択されているときステップST59に進み、他の編集モードで動作を行う。なお、編集モードの選択は、例えば画像データ処理装置10の表示部35で編集モードの選択メニュー表示を行い、選択メニュー表示から自動動画編集モードを選択できるようにする。
ステップST32で制御部40は、付随データに含める情報の設定指示を行う(図10の制御部の動作CB1)。制御部40は、プリセット情報で示された特徴量だけでなく他のどのような情報を付随データに含めて比較対象とするかユーザに設定させる。制御部40は、表示部35で情報の設定を行う設定画面を表示させて、例えば、自動動画編集モードであるときの検索条件に、上半身のみを比較対象としたり、撮像日時やズーム位置などの撮像条件等を比較対象とするための撮像情報を設定できるようにする(図10の他部の動作MD1)。ユーザは、設定画面にしたがい、付随データに含める情報の設定を行う(図10のユーザ操作US12)。なお、ステップST32で制御部40は、プリセット情報の設定や設定されているプリセット情報の変更を行うことができるようにしてもよい。また、制御部40は、既にプリセット情報の設定がなされており、プリセット情報とは異なる撮像情報の設定や変更等が必要ない場合、このステップの処理を省略できるものとする。
ステップST33で制御部40は、モニタリング動作を開始させてステップST34に進む。制御部40は、レンズ部21、撮像部22、カメラ信号処理部23、解像度変換処理部24等の動作を制御して(図10の制御部の動作CB2)、表示部35に撮像画像を表示させる(図10の他部の動作MD2)。
ステップST34で制御部40は撮像開始操作が行われたか否かを判別して、撮像開始操作が行われていないときはステップST34に戻り、撮像開始操作が行われたときにはステップST35に進む。ユーザは、所望の動画を検索するための画像を生成させる。例えば記録メディア31に記録されている動画の中から所望の画像データに近い状態である被写体の動作を、撮像画像として取り込む。撮像画像の取り込みでは、動画を撮影するときと同様に、撮影開始時および終了時に、ビデオカメラの録画スタートボタンを操作することによって行う。具体的には、検索の対象となる人物にビデオカメラを向けて、対象となる人物がゴルフスイングの動作開始と同時に録画スタートボタンを操作して(図10のユーザ操作US13)、モニタリング動作から撮像動作に動作を切り換える。
ステップST35で制御部40は特徴抽出の指示を行ってステップST36に進む。制御部40は、録画スタートボタンが操作されて撮像動作開始後の画像から特徴を抽出する指示を行う(図10の制御部の動作CB3)。
ステップST36で制御部40は、記録メディア31に記録されている付随データDNrを読み出してステップST37に進む(図10の制御部の動作CB4)。
ステップST37で制御部40は、読み出した付随データDNrを特徴比較処理部26に転送してステップST50に進む(図10の制御部の動作CB5)。
図11は、所望の動画を自動的に読み出して編集する場合の特徴抽出動作を示すフローチャートである。制御部40によって特徴量抽出の指示が行われると、ステップST41でカメラ信号処理部23は、画像データの取り込みを行い(図10の他部の動作MD3)、撮像画像の画像データをメモリ部29に記憶させてステップST42に進む。
ステップST42で解像度変換処理部24は、メモリ部29に記憶された画像データに対して解像度変換を行いステップST43に進む。解像度変換処理部24は、メモリ部29に記憶された画像データを、特徴抽出処理部25が必要とする解像度に変換してメモリ部29に戻す処理を行う(図10の他部の動作MD4)。
ステップST43で特徴抽出処理部25の顔検出部251は顔検出を行ってステップST44に進む。顔検出部251は、メモリ部29に記憶されている解像度変換後である画像データの画像中から人物の顔の検出を行い、画像内における人物の顔の位置や顔のサイズ等を検出して、この検出結果を顔検出結果Va-1として制御部40に通知する(図10の特許抽出処理部の動作ME1)。
ステップST44で特徴抽出処理部25の人体検出部254は人体検出を行う。人体検出部254は、ステップST43で検出した人物の顔とつながった人体部分の検出を行い、人体検出結果Va-4を制御部40に通知する(図10の特許抽出処理部の動作ME2)。人体検出部254は、人体検出結果Va-4として、肩や肘および手首や膝などの関節部分の画像内における位置を検出する。
このステップST41〜ステップST44の処理を行うことで、所望の動画を検索するための特徴、すなわち人物がゴルフスイングを行っている動画を自動的に検索する場合に、この人物のゴルフスイングに対応した特徴が得られることになる。
図9のステップST50で制御部40は、所望の動画を検索するための条件に対応する特徴が抽出されたか否かを判別する。制御部40は、特徴抽出が完了していないときステップST50に戻り、特徴抽出が完了したときステップST51に進む。
ステップST51で制御部40は、付随データDNaの生成を行ってステップST52に進む。制御部40は、抽出された特徴を用いて、記録メディア31に記録されている付随データDNrと同様のフォーマットでの付随データDNaを生成する(図10の制御部の動作CB6)。なお、付随データDNaの生成は、動作モード毎に必要な付随データのみを作成すればよい。例えば、プリセット情報のみが設定されて、このプリセット情報で「ファイルの種類」と「顔検出数」および「人体検出結果」の項目が示されており、プリセット情報以外の情報が設定されていない場合、「ファイルの種類」と「顔検出数」および「人体検出結果」を示す付随データを生成する。
ステップST52で制御部40は、撮像終了操作が行われたか否かを判別する。制御部40は、例えば録画ストップボタンが操作されていないときステップST50に戻り、録画ストップボタンが操作されて(図10のユーザ操作US14)撮像動作が終了されるときステップST53に進む。すなわち、撮像期間中は、ステップST41〜ステップST44およびステップST50,ステップST51の処理が繰り返されて、撮像画像毎に付随データDNaが生成されることになる。
ステップST53で制御部40は、生成した付随データDNaを特徴比較処理部26に転送する処理を行ったのちステップST54に進む(図10の制御部の動作CA7)。
ステップST54で特徴比較処理部26は、付随データDNaと付随データDNrの比較を行ってステップST55に進む。特徴比較処理部26は、制御部40からの比較方法の指示にしたがい、ステップST53で転送された付随データDNaをステップST37で転送された付随データDNrと比較して、検索条件に合致する動画の位置を検出する。例えば、撮像動作の開始から終了までの撮像画像を検索条件として、検索条件に合致する動画を検出するように制御部40で比較方法の指示が行われたとき、検索条件に合致する動画の位置を検出する。すなわち、人物がゴルフスイングを行っている部分動画を含む動画のファイル名と部分動画の位置を検出する指示が行われたとき、特徴比較処理部26は、付随データの比較として顔検出結果Va-1および人体検出結果Va-4等の比較を行い、人物がゴルフスイングを行っている動画のファイル名と部分動画の位置を検出する。(図10の特徴比較処理部の動作MF1)。
ステップST55で特徴比較処理部26は全付随データの比較が終了したか否かを判別する。特徴比較処理部26は、ステップST53で転送された付随データDNaを、ステップST37で転送された全ての付随データDNrと比較する処理が終了していないときステップST54に戻り、全ての付随データDNrとの比較が終了したときステップST56に進む。
ステップST56で制御部40は、付随データの比較結果JGを読み出してステップST57に進む。制御部40は、特徴比較処理部26から付随データの比較結果JG、すなわち検索条件に合致する静止画のファイル名を読み出す(図10の制御部の動作CB8)。
ステップST57で制御部40は、付随データの比較結果JGに基づいて動画編集を行う(図10の制御部の動作CB9)。制御部40は、付随データの比較結果で示されたファイル名の画像データから、検索条件に合致する部分動画の画像データを記録メディア31から読み出して結合する処理を行って、ステップST58に進む。
図12は、動画編集の概念を示している。図12の(A)は、記録メディア31に記録されている動画を示しており、斜線部は、付随データの比較結果によって示された検索条件に合致する部分動画DMa,DMb,DMcを示している。
制御部40は、図12の(B)に示すように、検索条件に合致する部分動画を、記録メディア31に記録された時間順、すなわち部分動画DMa,DMb,DMcの順につなぎ合わせる。また、制御部40は、図12の(C)に示すように、検索条件に合致する部分動画をランダムにつなぎ合わせてもよい。例えば部分動画DMb,DMa,DMcの順につなぎ合わせる。つなぎ合わせた動画のファイルは、つなぎ合わせを行う毎にメモリ部29に随時記憶させる(図10のDMac)。
図9のステップST58で制御部40は、動画編集の終了後、メモリ部29に記憶されている編集後の画像データファイル(図10のDMac)にヘッダ等を付加して、編集済みファイルとして記録メディア31に書き込む(図10の制御部の動作CB10)。その後、通常の再生モード等に遷移して本モードの処理を終了する。
なお、上述の動作では、記録メディア31に記録されている付随データを一度で読み出して特徴比較処理部に転送して付随データの比較を行ったが、付随データの容量が大きい場合などは、特徴比較処理部26で処理できる容量毎の単位で、記録メディア31に記録されている付随データの読み出しや、付随データの比較を行うものとする。また、同様に、付随データの一部を生成中に、付随データを一度に処理できる容量以上に大きくなった場合などは、生成中の付随データの一部をメモリ部29に転送し、撮像終了操作が行われたとき、特徴比較処理部26で処理できる容量毎の単位で、特徴比較処理部26への付随データの転送を行うものとする。
また、ステップST36とステップST37の処理、すなわち記録メディアに記録されている付随データの読み出しと、読み出した付随データを特徴比較処理部26に転送する処理は、撮像開始操作が行われる前に行うことも可能である。しかし、ユーザが撮像開始操作を行うことなく編集動作を中止させてしまうと、付随データの読み出しと転送の処理が無効となってしまう。したがって、撮像開始操作が行われたあとに付随データの読み出しと転送の処理を行うことが好ましい。
このようにすれば、ユーザは自動動画編集モードを選択して、人物の例えばゴルフスイングの動作を撮像するだけで、記録メディアに保存された大量の動画から、人物のゴルフスイングの部分動画を探し出して、自動的に編集することが可能となる。
また、検索する被写体は人物に限られるものではなく、人物以外の物体を検出して、画像の再生や編集を行うものとしてもよい。例えば、小動物が写っている静止画を記録メディアから読み出して順次再生する場合、対象となる小動物(若しくは小動物に似せたぬいぐるみなど)を撮像して、このときの静止画の画像データを用いて物体検出部255で特徴抽出を行う。さらに、抽出した特徴を用いて付随データの生成を行い、生成した付随データと、記録メディア31に記録されている付随データとの比較結果を用いることで、小動物が写っている静止画を記録メディアから読み出して順次再生することができる。
また、上述の画像データ処理装置は、撮像装置とコンピュータ装置を用いて構成するものとしてもよい。この場合、撮像装置で生成された画像データから視覚的特徴を抽出するステップと、抽出された視覚的特徴と記録メディアに画像データと関連付けられて記録されている視覚的特徴を比較するステップと、比較結果に基づいて、抽出された視覚的特徴を示す画像データを記録メディアから読み出すステップとコンピュータ装置で実行させるプログラムを用いる。コンピュータ装置は、このプログラムを実行することで、記録メディアに記録されている静止画や動画から、撮像装置で生成された撮像画像に基づいて所望の画像の検索を行い、検索された画像の画像データを読み出して、再生や編集を行う。
なお、プログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータ装置に対して、コンピュータ読み取り可能な形式で提供する記憶媒体、通信媒体、例えば光ディスクや磁気ディスクおよび半導体メモリ等の記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能とする。
この発明によれば、撮像部で生成した撮像画像に含まれる被写体と類似の被写体を含む画像を容易に検索することが可能となる。このため、静止画や動画が大量に記録される記録メディアを用いる機器に好適である。
画像データ処理装置の構成を示す図である。 特徴抽出処理部の構成を示す図である。 所望の静止画を自動的に検索して順次再生する場合の動作を示すフローチャートである。 所望の静止画を自動的に検索して順次再生する場合の処理工程図である。 所望の静止画を自動的に検索して順次再生する場合の特徴抽出動作を示すフローチャートである。 付随データのフォーマットを示す図である。 顔属性検出結果を示す図である。 人体検出結果を示す図である。 所望の動画を自動的に読み出して編集する場合の動作を示すフローチャートである。 所望の動画を自動的に読み出して編集する場合の処理工程図である。 所望の動画を自動的に読み出して編集する場合の特徴抽出動作を示すフローチャートである。 編集動作を説明するための図である。
符号の説明
10・・・画像データ処理装置、21・・・レンズ部、22・・・撮像部、23・・・カメラ信号処理部、24・・・解像度変換処理部、25・・・特徴抽出処理部、26・・・特徴比較処理部、27・・・記録再生処理部、28・・・入出力インタフェース部、29・・・メモリ部、30・・・記録メディア駆動部、31・・・記録メディア、35・・・表示部、39・・・ユーザインタフェース部、40・・・制御部、50・・・バス、251・・・顔検出部、252・・・顔属性検出部、253・・・人物特定部、254・・・人体検出部、255・・・物体検出部

Claims (8)

  1. 被写体を撮像して画像データを生成する撮像部と、
    前記生成された画像データから視覚的特徴を抽出する特徴抽出処理部と、
    記録メディアに記録されている画像データから抽出されて該画像データに関連付けられている視覚的特徴と、前記特徴抽出処理部で抽出された視覚的特徴の比較を行う特徴比較処理部と、
    前記比較結果に基づいて、前記記録メディアから前記特徴抽出処理部で抽出された視覚的特徴を示す画像データの読み出しを行う制御部と
    を備える画像データ処理装置。
  2. 前記特徴抽出処理部は、人物の顔検出を行い、顔検出結果を前記視覚的特徴に含める
    請求項1記載の画像データ処理装置。
  3. 前記特徴抽出処理部は、前記顔検出結果を用いて、顔属性検出と人物特定と人体検出の少なくともいずれかを行い、得られた結果を前記視覚的特徴に含める
    請求項2記載の画像データ処理装置。
  4. 前記特徴抽出処理部は、抽出する視覚的特徴を指示するプリセット情報に基づいて、前記視覚的特徴の抽出を行う
    請求項1記載の画像データ処理装置。
  5. 前記特徴比較処理部は、前記プリセット情報とは異なる撮像情報をさらに用いるものとし、前記生成された画像データに関連付けられている撮像情報と、前記記録メディアに記録されている画像データに関連付けられている撮像情報の比較を行い、
    前記制御部は、前記比較結果に基づいて、前記特徴抽出処理部で抽出された視覚的特徴と前記生成された画像データに関連付けられている撮像情報を示す画像データを、前記記録メディアから読み出す
    請求項4記載の画像データ処理装置。
  6. 前記制御部は、読み出した画像データをつなぎ合わせて1つのファイルとする
    請求項1記載の画像データ処理装置
  7. 前記制御部は、前記撮像部で生成された画像データを前記記録メディアに記録する際に、前記特徴抽出処理部で抽出された視覚的特徴を画像データに関連付けて記録する請求項1記載の画像データ処理装置。
  8. 被写体を撮像して画像データを生成するステップと、
    前記生成された画像データから視覚的特徴を抽出するステップと、
    記録メディアに記録されている画像データから抽出されて該画像データに関連付けられている視覚的特徴と、前記抽出された視覚的特徴の比較を行うステップと、
    前記比較結果に基づいて、前記抽出された視覚的特徴を示す画像データを前記記録メディアから読み出すステップと
    を有する画像データ処理方法。
JP2008174640A 2008-07-03 2008-07-03 画像データ処理装置と画像データ処理方法およびプログラムと記録媒体 Pending JP2010016621A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008174640A JP2010016621A (ja) 2008-07-03 2008-07-03 画像データ処理装置と画像データ処理方法およびプログラムと記録媒体
US12/480,198 US8331691B2 (en) 2008-07-03 2009-06-08 Image data processing apparatus and image data processing method
CN200910139495A CN101621650A (zh) 2008-07-03 2009-06-24 图像数据处理设备和图像数据处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008174640A JP2010016621A (ja) 2008-07-03 2008-07-03 画像データ処理装置と画像データ処理方法およびプログラムと記録媒体

Publications (1)

Publication Number Publication Date
JP2010016621A true JP2010016621A (ja) 2010-01-21

Family

ID=41464450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008174640A Pending JP2010016621A (ja) 2008-07-03 2008-07-03 画像データ処理装置と画像データ処理方法およびプログラムと記録媒体

Country Status (3)

Country Link
US (1) US8331691B2 (ja)
JP (1) JP2010016621A (ja)
CN (1) CN101621650A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004747A (ja) * 2010-06-15 2012-01-05 Toshiba Corp 電子機器および画像表示方法
WO2014133076A1 (ja) 2013-02-27 2014-09-04 株式会社ニコン 撮像素子および電子機器
WO2015001646A1 (ja) 2013-07-04 2015-01-08 株式会社ニコン 電子機器、電子機器の制御方法、及び制御プログラム
WO2015022900A1 (ja) 2013-08-12 2015-02-19 株式会社ニコン 電子機器、電子機器の制御方法、及び制御プログラム
WO2015046565A1 (ja) 2013-09-30 2015-04-02 株式会社ニコン 電子機器、電子機器の制御方法、及び制御プログラム
WO2015050118A1 (ja) 2013-10-01 2015-04-09 株式会社ニコン 電子機器
WO2015080163A1 (ja) 2013-11-26 2015-06-04 株式会社ニコン 電子機器、撮像装置、および、撮像素子
JP2020039012A (ja) * 2018-08-31 2020-03-12 株式会社コロプラ プログラム、情報処理装置、および方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011101110A (ja) * 2009-11-04 2011-05-19 Ricoh Co Ltd 撮像装置
JP2012181704A (ja) * 2011-03-01 2012-09-20 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
CN104680171B (zh) * 2013-11-27 2018-10-02 富士通株式会社 图像中斑马线的检测装置、方法
US10497014B2 (en) * 2016-04-22 2019-12-03 Inreality Limited Retail store digital shelf for recommending products utilizing facial recognition in a peer to peer network
CN109949858B (zh) * 2019-02-26 2020-05-19 杭州来布科技有限公司 一种原始文件转化为活化文件方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046911A (ja) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 監視記録装置及びその方法
JP2005341394A (ja) * 2004-05-28 2005-12-08 Nikon Corp 画像分類装置、画像分類プログラム、および電子カメラ
JP2006276162A (ja) * 2005-03-28 2006-10-12 Casio Comput Co Ltd カメラ装置およびその制御プログラム
JP2007088814A (ja) * 2005-09-22 2007-04-05 Casio Comput Co Ltd 撮像装置、画像記録装置および撮像制御プログラム
JP2007281858A (ja) * 2006-04-06 2007-10-25 Omron Corp 動画編集装置
JP2008011316A (ja) * 2006-06-30 2008-01-17 Casio Comput Co Ltd カメラ装置及びカメラ装置制御プログラム
JP2008090814A (ja) * 2006-09-08 2008-04-17 Seiko Epson Corp 印刷装置、画像検索方法、および、画像検索プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033276A (ja) 2003-07-07 2005-02-03 Seiko Epson Corp 画像再生システム及び画像再生プログラム、並びに画像再生方法
GB2410359A (en) * 2004-01-23 2005-07-27 Sony Uk Ltd Display
US20060274949A1 (en) * 2005-06-02 2006-12-07 Eastman Kodak Company Using photographer identity to classify images
JP2007049332A (ja) 2005-08-09 2007-02-22 Sony Corp 記録再生装置および記録再生方法、並びに、記録装置および記録方法
US7933451B2 (en) * 2005-11-23 2011-04-26 Leica Geosystems Ag Feature extraction using pixel-level and object-level analysis
US7606411B2 (en) * 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
US20080298643A1 (en) * 2007-05-30 2008-12-04 Lawther Joel S Composite person model from image collection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046911A (ja) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 監視記録装置及びその方法
JP2005341394A (ja) * 2004-05-28 2005-12-08 Nikon Corp 画像分類装置、画像分類プログラム、および電子カメラ
JP2006276162A (ja) * 2005-03-28 2006-10-12 Casio Comput Co Ltd カメラ装置およびその制御プログラム
JP2007088814A (ja) * 2005-09-22 2007-04-05 Casio Comput Co Ltd 撮像装置、画像記録装置および撮像制御プログラム
JP2007281858A (ja) * 2006-04-06 2007-10-25 Omron Corp 動画編集装置
JP2008011316A (ja) * 2006-06-30 2008-01-17 Casio Comput Co Ltd カメラ装置及びカメラ装置制御プログラム
JP2008090814A (ja) * 2006-09-08 2008-04-17 Seiko Epson Corp 印刷装置、画像検索方法、および、画像検索プログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004747A (ja) * 2010-06-15 2012-01-05 Toshiba Corp 電子機器および画像表示方法
US10924697B2 (en) 2013-02-27 2021-02-16 Nikon Corporation Image sensor and electronic device having imaging regions for focus detection extending in first and second different directions
WO2014133076A1 (ja) 2013-02-27 2014-09-04 株式会社ニコン 撮像素子および電子機器
US11595604B2 (en) 2013-02-27 2023-02-28 Nikon Corporation Image sensor and imaging device including a plurality of semiconductor substrates
WO2015001646A1 (ja) 2013-07-04 2015-01-08 株式会社ニコン 電子機器、電子機器の制御方法、及び制御プログラム
EP3588940A1 (en) 2013-07-04 2020-01-01 Nikon Corporation Electronic apparatus, method for controlling electronic apparatus, and control program
WO2015022900A1 (ja) 2013-08-12 2015-02-19 株式会社ニコン 電子機器、電子機器の制御方法、及び制御プログラム
WO2015046565A1 (ja) 2013-09-30 2015-04-02 株式会社ニコン 電子機器、電子機器の制御方法、及び制御プログラム
WO2015050118A1 (ja) 2013-10-01 2015-04-09 株式会社ニコン 電子機器
WO2015080163A1 (ja) 2013-11-26 2015-06-04 株式会社ニコン 電子機器、撮像装置、および、撮像素子
US10757341B2 (en) 2013-11-26 2020-08-25 Nikon Corporation Electronic device, imaging device, and imaging element
US9961271B2 (en) 2013-11-26 2018-05-01 Nikon Corporation Electronic device, imaging device, and imaging element
US11785345B2 (en) 2013-11-26 2023-10-10 Nikon Corporation Electronic device, imaging device, and imaging element for obtaining exposure of each area of image
JP2020039012A (ja) * 2018-08-31 2020-03-12 株式会社コロプラ プログラム、情報処理装置、および方法

Also Published As

Publication number Publication date
CN101621650A (zh) 2010-01-06
US8331691B2 (en) 2012-12-11
US20100002940A1 (en) 2010-01-07

Similar Documents

Publication Publication Date Title
JP2010016621A (ja) 画像データ処理装置と画像データ処理方法およびプログラムと記録媒体
TWI374668B (ja)
JP4636135B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
WO2004002144A1 (ja) メタデータ作成装置、その作成方法および検索装置
JP2008084213A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5677011B2 (ja) 動画再生装置及びその制御方法
JP2008276707A (ja) 画像記録装置、再生装置、撮像装置、画像再生システム、および、これらにおける処理方法、プログラム
JP4999589B2 (ja) 画像処理装置及び方法
JP2003274352A (ja) コンテンツ記録再生装置およびコンテンツ編集方法
JP2010161562A (ja) 画像処理装置、その制御方法、プログラム及び記録媒体
WO2015178234A1 (ja) 画像検索システム
JP2008199330A (ja) 動画像管理装置
JP3745363B2 (ja) カメラ
JP2013121097A (ja) 撮像装置及び方法、並びに画像生成装置及び方法、プログラム
JP2010219607A (ja) ターゲットフレーム抽出装置、撮像装置およびデジタルカメラ
JP4692336B2 (ja) 画像表示システム、画像表示装置及び画像表示方法
JP2017211995A (ja) 再生装置、再生方法、再生プログラム、音声要約装置、音声要約方法および音声要約プログラム
WO2022209648A1 (ja) 情報処理装置、情報処理方法および非一時的なコンピュータ可読記憶媒体
JP5665380B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び記録媒体
JP2010157960A (ja) 撮像装置
JP5454391B2 (ja) 画像処理装置
JP3679796B2 (ja) カメラ
JP6263002B2 (ja) 撮像装置およびその制御方法、プログラム
JP3690749B2 (ja) 画像取扱装置
JP2005253100A (ja) カメラ

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100727