JP6660236B2 - 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 - Google Patents

画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 Download PDF

Info

Publication number
JP6660236B2
JP6660236B2 JP2016082348A JP2016082348A JP6660236B2 JP 6660236 B2 JP6660236 B2 JP 6660236B2 JP 2016082348 A JP2016082348 A JP 2016082348A JP 2016082348 A JP2016082348 A JP 2016082348A JP 6660236 B2 JP6660236 B2 JP 6660236B2
Authority
JP
Japan
Prior art keywords
image
lens
evaluation
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016082348A
Other languages
English (en)
Other versions
JP2017192114A (ja
JP2017192114A5 (ja
Inventor
康嘉 宮▲崎▼
康嘉 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016082348A priority Critical patent/JP6660236B2/ja
Priority to US15/483,403 priority patent/US10438067B2/en
Publication of JP2017192114A publication Critical patent/JP2017192114A/ja
Publication of JP2017192114A5 publication Critical patent/JP2017192114A5/ja
Application granted granted Critical
Publication of JP6660236B2 publication Critical patent/JP6660236B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/90Identifying an image sensor based on its output data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数の画像ダイジェスト再生用の画像を選抜する画像処理技術に関する。
従来、静止画や動画を記録媒体に記録するときに、記録媒体に記録された静止画や動画をプレビュー再生することができるデジタルカメラが知られている。このようなプレビュー機能を有するデジタルカメラでは、記録媒体に膨大な量の静止画や動画が記録されていると、全ての画像を閲覧するのに長時間を要する。このため、特許文献1には、動画から重要なシーンだけを抽出し、ダイジェスト再生する技術が記載されている。特に、特許文献1では、サッカーなどの試合を記録した動画において、重要なシーンを音声の大小で判別し、所定の音声レベルを超えるシーンを抜粋し、ダイジェスト再生するものである。
特開2007−267351号公報
ところが、上記特許文献1のように音声レベルだけでシーンを抜粋すると、一定箇所のシーンばかりが抽出されてしまうことがある。例えば、特許文献1は、ゴールシーンのように観客が盛り上がったシーンを抽出するのには適しているが、ゴールシーンに至る経緯は抽出されず、ゴールシーンばかりが連続してダイジェスト再生されてしまう。
このような課題に対して、画像中の被写体情報を評価値として画像選抜に用いることでシーンの偏りなどがない質の高いダイジェスト再生用の画像を生成することができる。しかしながら、レンズ交換式のカメラなどで撮影された画像についてダイジェスト再生用の画像選抜を行う場合、レンズ特性が大きく異なるものもあるため、例えばコンパクトデジタルカメラと同様の評価基準を適用すると不都合が発生する可能性がある。例えば、非常に浅い深度にて撮影可能なEF−M22mの単焦点レンズにより得られた画像と、EF−M18−55mmのズームレンズにより得られた画像を同等の基準で評価すると、周辺ボケに関して失敗画像ではないものを失敗画像と判断してしまう可能性がある(図6参照)。
本発明は、上記課題に鑑みてなされ、その目的は、画像の撮影に用いられたレンズを考慮してダイジェスト再生用の画像選抜を行う技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の画像処理装置は、複数の画像からダイジェスト再生用の画像を選抜する画像処理装置であって、画像ごとに撮影時の撮影情報を取得する情報取得手段と、前記撮影情報と評価基準とに基づいて画像の評価値を求める画像評価手段と、前記評価値に基づいて画像を順位づけすることでダイジェスト再生用の画像を選抜する画像選抜手段と、を有し、前記画像評価手段は、各画像の撮影に用いられたレンズの情報に基づいて前記評価基準を変更する。
本発明によれば、画像の撮影に用いられたレンズを考慮してダイジェスト再生用の画像選抜を行うことで、画像選抜における誤判断を回避し、質の高いダイジェスト再生用画像を生成することができる。
本実施形態の装置構成を示すブロック図。 本実施形態のダイジェスト再生用の画像選抜処理を示すフローチャート。 選択範囲が1日の場合のクラスタリングを示した図。 画像選抜における評価値算出方法の説明図。 画像選抜における動きベクトルに基づく評価値算出方法の説明図。 レンズ種別の違いによる画像選抜結果を例示する図。 レンズ種別を例示する図。 レンズ種別による評価基準の違いを例示する図。 コントラスト評価値の算出方法の説明図。
以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。
[実施形態1]
以下、本実施形態の画像処理装置としてデジタルカメラ等の撮像装置に適用した例ついて説明する。
<装置構成>
以下、図1を参照して、本実施形態の撮像装置の構成および機能ついて説明する。

操作部101は、本実施形態のデジタルカメラ(以下、カメラ)の操作者がカメラに対して各種の指示を入力するために操作するスイッチやボタンなどにより構成されている。操作部101の中には、電源スイッチ、シャッタースイッチ、タッチセンサ(表示パネルに対してタッチ操作可能な操作部材)も含む。制御部102は、図1に示すカメラの各種機能を統括して制御するための、CPU、RAM、ROMや、専用の回路などを含む。CPUは、不揮発性メモリであるROMに格納されたプログラムをワークメモリとしてのRAMに展開し実行することで、後述する撮影からプレビューまでの処理を実現する。
センサ部103は、CCD、CMOSセンサ等の撮像素子を含み、レンズ群108aおよびメカ機構109aを介して入射される光を受け、その光量に応じた電荷を蓄積し画像信号を出力する。本実施形態では、カメラ本体の前面に対して交換レンズ部122が着脱可能なレンズ交換式のカメラであり、交換レンズ部122は、本実施形態のデジタルカメラ以外の他のカメラにも装着可能である。交換レンズ部122は、フォーカスレンズやズームレンズを含むレンズ群108aと、絞りやシャッターを含むメカ機構109aを含む。レンズ情報取得部123は、交換レンズ部122からレンズ情報を取得し、撮影された画像データに付与する。
A/D変換部104は、センサ部103から出力されたアナログ画像信号に対して、サンプリング、ゲイン調整、A/D変換等を行い、デジタル画像信号として出力する。画像処理部105は、A/D変換部104から出力されたデジタル画像信号に対して各種の画像処理を行い、処理済みのデジタル画像信号を出力する。例えば、A/D変換部104から受けたデジタル画像信号を、YUV画像信号に変換して出力する。
被写体検出部115は、画像処理部105から得られたデジタル画像信号を用いて被写体の検出を行う。本実施形態では、被写体として人物の顔検出処理を行い、検出された顔のサイズや位置などの顔情報を被写体情報として抽出する。表情検出部116は、被写体検出部115により得られた顔情報を用いて顔の表情検出処理を行う。表情検出部116は、顔のエッジ情報を用いて、笑顔のレベルを判定し、これを数値化した笑顔度を算出する(図4(c))。撮影情報作成部117は、被写体検出部115により得られた被写体情報や表情検出部116により得られた笑顔度、およびユーザ設定などの撮影設定情報などを撮影情報としてまとめ、エンコーダ部112に出力する。
表示部107は、液晶画面などにより構成され、制御部102の制御により各種の表示を行なう。また、表示部107は、タッチセンサが一体構成されている。AF処理部108は画像処理部105によって得られた画像をもとにレンズ108aを制御し、ピントを合わせる。AE処理部109は、被写体検出部115によって得られた被写体輝度と適正輝度との差分を算出し、メカ機構109aを制御する。EF処理部110は、発光判断がされた場合に被写体が適正となりうる光量で発光部111を発光させる。発光部111は、LEDを光源としたストロボ装置である。発光部111は、デジタルカメラ本体に内蔵されてもよいし、着脱可能であってもよい。
エンコーダ部112は、出力されたデジタル画像信号(画像データ)のフォーマットをJPEGなどのフォーマットに変換し、画像記録部113に出力する。また、エンコーダ部112は、撮影情報作成部117から受けた撮影情報を画像データのヘッダへと書き込む処理も行う。
画像記録部113は、エンコーダ部112から受けたフォーマット変換済みの画像データをメモリ部125に記録する。メモリ部125は、カメラの内部メモリや、カメラに挿入されているメモリカードやハードディスクなどの外部メモリなどである。外部接続部114は、パーソナルコンピュータ等の外部装置と通信可能に接続するためのインタフェースである。外部接続部114を外部装置に接続することで、表示部107に表示される画面を外部装置に表示することが可能となる。
再生期間設定部118は、本実施形態のダイジェスト再生を行う場合に再生範囲内の画像を指定する。本実施形態ではユーザが1日や一週間などの再生期間を設定することを想定している。
画像評価部119では、画像データのヘッダに記録された撮影情報に基づき、再生範囲内に指定された画像の評価値を算出する。この評価値算出に関して、例えば、図4(a)においては、顔サイズが大きいほど評価値が高くなり、図4(b)においては、顔位置が画面中心に近いほど評価値が高くなる。また、顔検出処理において笑顔度も算出しており、この笑顔度は笑顔の度合いが大きいほど高い値が算出される(図4(c)参照)。
また、本実施形態では、動画再生を目的としており、素材となる画像データとしては静止画だけでなく動画も含まれる。ダイジェスト再生用の画像として動画を選抜する場合には、例えば図5に示すように被写体の動きベクトルを算出し、被写体の動きが大きいほど評価値を高く設定して画像選抜を行う。また。動画を選抜する場合は、笑顔度や顔サイズの変動も評価しており、例えば、笑顔度が安定して高い動画やそのショットの後半に笑顔度のピークがくる動画なども選抜される。なお、動画を選抜する際には、被写界深度が浅いレンズでは奥行き方向の被写体の動きに関する評価基準を厳しくする。
画像分類部120は、再生範囲内に指定された画像それぞれに対して撮影日時を用いたクラスタリングを行う。
画像選抜部121は、設定された再生期間に応じて選抜枚数を設定し、評価値に基づき画像選抜を行う。
<撮影から再生までの動作>
次に、本実施形態のデジタルカメラを用いて画像の撮像を行い、ダイジェスト再生用の画像を作成し、イベントを保存するか否かを決定する前にプレビューを行うまでの動作について説明する。
カメラの操作者が、操作部101に含まれる電源スイッチをオンにすると、電源スイッチから制御部102へ通知され、制御部102は、カメラを構成する各部への電力供給を開始する。電力供給が開始されると、メカ機構109aのシャッターが開くので、センサ部103には、交換レンズ部122のレンズ108aおよびメカ機構109bを通じて被写体像光が入射し、センサ部103に電荷が蓄積される。制御部102は、センサ部103に蓄積された電荷を読み出し、A/D変換部104にアナログ画像信号として出力する。
A/D変換部104は、センサ部103から出力されたアナログ画像信号に対して、サンプリング、ゲイン調整、A/D変換等を行う。画像処理部105は、A/D変換部104から出力されたデジタル画像信号に対して各種画像処理を行い、処理済みのデジタル画像信号を出力する。画像処理部105により処理されたデジタル画像信号は制御部102を介してAE処理部109へ送られる。AE処理部109は、被写体検出部115により検出された被写体の輝度と適正輝度との差分を算出し、メカ機構109aにより適正な露出条件へ自動で収束させる制御を行う。
また、被写体検出部115は、画像処理部105により処理されたデジタル画像信号を用いて被写体(顔)検出処理を行い、被写体情報(顔のサイズ、位置)を取得する。AF処理部108は、被写体情報を用いて撮影者から被写体までの距離情報を取得し、レンズ108aを駆動して最適なピントへ自動で収束させる制御を行う。表情検出部116は、被写体情報を用いて被写体(顔)の表情検出を行う。本実施形態では、被写体としての顔のエッジ情報を用いて表情検出を行い、顔の表情が笑顔であるほど高いスコアが検出される。
撮影者がシャッタースイッチを半押しすることにより、制御部102がシャッタースイッチから撮影準備指示信号SW1の通知を受けると、その時点で得られた画像信号を用いてAF処理およびAE処理を行い、撮影に最適なピントおよび露出条件を取得する。
撮影者がシャッタースイッチを半押しから全押しすることにより、制御部102がシャッタースイッチから撮影準備指示信号SW1の通知を受けた後さらに撮影指示信号SW2の通知を受けると、本撮影動作に移行する。制御部102は、本撮影動作に移行すると、レンズ108aおよびメカ機構109aを通過しセンサ部103に蓄積された被写体光像に応じた電荷を読み出し、A/D変換部104によりアナログ画像信号から変換したデジタル画像信号を画像処理部105に出力する。なお、制御部102は、画像処理部105により処理された画像データから現在の輝度値を検出する。また、制御部102は、検出した輝度値が所定の閾値よりも低いと判定した場合は、EF処理部110に発光制御指令を出力し、EF処理部110は発光部111を本撮影動作に合わせて発光させる。
A/D変換部104により信号処理が行われ、画像処理部105により画像処理が行われたデジタル画像信号は、エンコーダ部112により所定のファイルフォーマットに変換され、画像記録部113によりメモリ部125に記録される。ここで、撮影情報作成部117は、被写体検出部115により得られた被写体情報や表情検出部116により得られた笑顔度、およびユーザ設定などの撮影設定情報などを撮影情報としてまとめ、エンコーダ部112に出力する。エンコーダ部112は、撮影情報作成部117により作成された撮影情報を、画像記録部113による画像ファイルの記録と同時に画像ファイルのヘッダ領域に書き込む。
なお、再生期間設定部118、画像評価部119、画像分類部120、および画像選抜部121は、本実施形態のダイジェスト再生用の画像選抜を行うブロックである。各ブロックは、メモリ部125に記録されている画像ファイルをダイジェスト再生する場合に、制御部102の制御により、メモリ部125に格納されている複数の画像から所定の条件に該当する画像をダイジェスト再生用の画像として選抜する。なお、本実施形態の再生期間の設定からダイジェスト画像選抜までの詳細な処理については後述する。
ダイジェスト再生用に選抜された画像は、タイトル処理、色フィルタ処理などの加工処理が施された後、表示部107または外部接続部114を介して外部モニタに表示される。
<ダイジェスト再生用の画像選抜処理>
次に、図2を参照して、本実施形態のダイジェスト再生用の画像選抜処理について説明する。
なお、図2の処理は、制御部102のCPUがROMに格納されたプログラムを、RAMに読み出して実行することにより実現される。また、図2の処理は、制御部102から制御部から再生期間設定部118にダイジェスト再生用の再生期間設定指示がなされると開始される。
ステップS201では、再生期間設定部118は、画像記録部113によりメモリ部125に格納されている複数の画像から再生範囲を設定し、再生範囲内の画像を指定する。本実施形態ではユーザが1日や一週間などの再生期間を設定することを想定している。
ステップS202では、画像評価部119は、ステップS201で指定された再生範囲内の画像について、画像のExif情報に基づいて撮影に用いられたレンズ種別ごとに分類する。本実施形態では、図7に例示するように焦点距離に応じたレンズ種別の分類を行う。主に、焦点距離24mm未満のものを超広角レンズ、24〜35mmのものを広角レンズ、35mm〜40mmのものを準広角レンズとする。また、焦点距離40〜60mmのものを標準レンズ、60mm〜135mmのものを中望遠レンズ、135mm〜300mmのものを望遠レンズ、300mm以上のものを超望遠レンズとする。なお、本実施形態では、これらの分類をさらに大別し、広角・準広角を広角レンズ、中望遠・望遠・超望遠を望遠レンズにまとめている。
ステップS203では、画像評価部119は、レンズ種別ごとの画像の撮影枚数に応じて、選抜枚数を設定する。
ステップS204では、画像評価部119は、画像記録部113によりメモリ部125に格納されているレンズ種別ごとの評価基準情報を取得する。本実施形態では、レンズ種別が多いため、カメラ側では評価基準情報を持たずに、撮影時に交換レンズ部122からレンズの評価基準情報を取得しメモリ部125に記録することを想定している。なお、評価基準情報をカメラ側で予め保持するようにしてもよい。
ステップS205〜S210では、画像評価部119は、ステップS204で取得したレンズ種別ごとの評価基準情報に基づき、各画像の評価値を算出する。具体的には、画像評価部119は、広角レンズの場合(S205でYES)は広角レンズ用の評価基準を用いて評価値を算出する(S206)。また、標準レンズの場合(S207でYES)は標準レンズ用の評価基準を用いて評価値を算出し(S208)、望遠レンズの場合(S209)は望遠レンズ用の評価基準を用いて評価値を算出する(S210)。ここで、評価値算出に使用される情報は、主に撮影時に得られた情報で、画像ファイルのヘッダ領域に書き込まれている情報である。例えば、被写体検出部115により得られた顔の位置情報やサイズ情報である。顔のサイズ情報と評価値との関係は、図4(a)に示すように顔サイズが大きいほど評価値が高く設定され、顔の位置情報と評価値との関係は、図4(b)に示すように顔位置が画面中心に近いほど評価値が高く設定される。なお、歪曲収差の大きいレンズでは、顔位置による評価値について位置を補正した上で再度評価値を算出するようにしてもよい。なお、本実施形態では画像のヘッダ領域に顔の表情情報も書き込まれている。顔の表情情報と評価値との関係は、図4(c)に示すように笑顔度が大きいほど評価値が高く設定される。なお、評価値算出に使用される情報は、上記3種類の情報に限らず、合焦情報、YUVヒストグラム、ズーム情報、ジャイロセンサにより検出される角速度情報、加速度センサにより検出される加速度ベクトル情報などを使用しても良い。
ステップS211では、画像評価部119は、ステップS205〜S210で得られた評価値を加算して総合評価値を算出し、この総合評価値を評価値の高い順に順位づけ(ソート)する。
ここで、レンズ種別に応じた評価基準の違いを説明する。
画像を評価する際に画面内のエッジ強度を求めるため、図9に示すように画面をブロック分割した画像から、各ブロックに対してエッジ信号を抽出し、各ブロックのエッジ部分のピークホールドにて得られたエッジ信号の大小にて画像のコントラスト評価を行う。そして、図8に示すように画面内のエッジ強度が強いほど、コントラスト評価値が高く設定される。これは被写体および背景にピントが合っていることや、像ブレが発生していないことを確認するためである。しかしながら、レンズ交換式のカメラでは、レンズ特性によっては、背景ぼけを持ち味とした望遠レンズもあり、このようなレンズを他のレンズと同様に評価した場合、被写体にピントは合っているが、背景がぼけているような画像であると、評価値が落ちることになる。このような背景に鑑み、本実施形態においては、図8に示すように、標準レンズの場合は評価基準A、広角レンズの場合は評価基準B、望遠レンズの場合は評価基準Cを用いてコントラスト評価値を算出する。このようにしてレンズ特性に適した画像選抜を行うことが可能となる。
ステップS212では、画像分類部120は、ユーザにより設定された選抜範囲内の画像の撮影総時間を算出する。本実施形態では、選抜範囲内の画像のうち一番最初に撮影された画像と、一番最後に撮影された画像との時間差を撮影総時間とする。この撮影総時間が1日以下の場合、1時間を1つのイベントの区切りとし、1時間あたり1クラスタとして、選抜範囲の総クラスタ数を決定する。例えば、撮影開始時刻が8:00、撮影終了時刻が20:00の場合、1時間を1つのイベント発生期間と考え、時系列に並べられた画像の時間差が近いものを同一イベントとして分類し、12個のクラスタを生成する。
ステップS213では、画像分類部120は、ステップS212で決定された総クラスタ数に応じてクラスタリングを行う(図3(b))。ステップS214では、制御部102は、ユーザが設定した目標再生時間を画像分類部120に通知する。
ステップS215では、画像分類部120では、目標再生時間から総選抜枚数を決定する。本実施形態では、静止画1枚当たりの再生時間を4秒とし、これで目標再生時間を除算して再生可能枚数を求める。ステップS216では、画像選抜部121は、ステップS215で決定された総選抜枚数を用いて、各クラスタを再生時間で正規化する(図3(c))。なお、正規化を行う場合に、クラスタ内の再生可能枚数が少ないと正規化により画像が0となってしまうことがあるため、本実施形態では小数点以下を切り上げて処理する。
ステップS217では、画像選抜部121は、各クラスタにおいて選抜可能な枚数だけ評価値の上位から画像を選抜する。なお、本実施形態では、ステップS205〜S210で得られた評価値を加算した総合評価値に基づいて画像選抜を行ったが、ダイジェスト再生用の選抜画像の種別を増やすために、評価値ごとに選抜を行ってもよい。
その後、画像選抜部121は、選抜された画像を時系列順に並べ替え(ステップS218)、1つの動画として結合し(ステップS219)、結合された動画を再生し、これを印刷用のプレビューとして表示部107に表示する(ステップS220)。なお、このプレビューのエンドロールに、画像選抜に使用したレンズ情報を表示してもよい。
プレビュー終了後は、表示部107に保存メニューが表示され、このイベントを動画として保存するか否かをユーザに選択させ、処理を終了する。
なお、本実施形態では、レンズ特性としてレンズの焦点距離による分類を行ったが、単焦点レンズ、ズームレンズ、マクロレンズにも適した被写体が存在し、これによる分類も含むものとする。例えば、単焦点レンズであって開放F値が明るいレンズではボケ味が強く出るため、周辺ボケを許容するように望遠レンズと同じような傾向のコントラスト評価基準を用いることとする。また、画像選抜の際に評価値が同等である場合は、ズームレンズよりも単焦点レンズの評価値を高く設定する。また、マクロレンズは被写体を大きく撮影できるため、昆虫や草花の撮影に適している。このように、画像評価部119で画像のシーン判定を行い、判定された撮影シーンに適した特徴を持つレンズで撮影された画像が優先的に選抜されるように評価値を高く設定してもよい。
また、現在カメラに装着されているレンズの評価値を高く設定したり、装着中のレンズに応じて予め決められた画像が選抜されるようにしてもよい。また、画像を選抜する際に、明らかに周辺光量落ち、歪曲、ボケ感の異なる画像が連続しないように、レンズ特性に応じた最適な画像を選抜するようにしてもよい。また、オート色効果が設定された場合、そのレンズに不適なフィルタはかけないようにする、例えば、魚眼レンズで撮影された画像に周辺光量を上げるためのフィルタをかけないようにしてもよい。
以上のように、本実施形態によれば、画像の撮影に用いられたレンズを考慮してダイジェスト再生用の画像選抜を行うことで、画像選抜における誤判断を回避し、質の高いダイジェスト再生用画像を作成することができる。
[他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102…制御部、105…画像処理部、107…表示部、117…撮影情報作成部、118…再生期間設定部、119…画像評価部、120…画像分類部、121…画像選抜部、122…交換レンズ部、123…レンズ情報取得部

Claims (20)

  1. 複数の画像からダイジェスト再生用の画像を選抜する画像処理装置であって、
    画像ごとに撮影時の撮影情報を取得する情報取得手段と、
    前記撮影情報と評価基準とに基づいて画像の評価値を求める画像評価手段と、
    前記評価値に基づいて画像を順位づけすることでダイジェスト再生用の画像を選抜する画像選抜手段と、を有し、
    前記画像評価手段は、各画像の撮影に用いられたレンズの情報に基づいて前記評価基準を変更することを特徴とする画像処理装置。
  2. 前記撮影情報は、各画像の撮影に用いられたレンズの情報としてレンズ種別に関する情報を含み、
    前記画像評価手段は、前記複数の画像をレンズ種別ごとに分類し、前記分類されたレンズ種別ごとの画像の枚数に応じて選抜枚数を設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像選抜手段は、前記評価値に基づいて順位づけされた画像について前記評価値の高い画像から順に所定の再生時間に基づいて決められる枚数の画像を選抜することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記選抜された画像を時系列の順に並び替えて1つの動画として結合し、再生する再生手段をさらに有することを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。
  5. 前記撮影情報は、前記画像から検出された被写体情報を含むことを特徴とする請求項1ないし4のいずれか1項に記載の画像処理装置。
  6. 前記被写体情報は、被写体の位置およびサイズを含み、
    前記評価値は、前記被写体情報を用いて算出されることを特徴とする請求項5に記載の画像処理装置。
  7. 前記被写体は人物の顔であり、前記顔の表情を検出する表情検出手段をさらに有し、
    前記被写体情報は、顔の位置、サイズ、画面中心からの距離、および笑顔度の少なくともいずれかを含むことを特徴とする請求項6に記載の画像処理装置。
  8. 前記評価値は、ジャイロセンサにより検出される角速度情報、または加速度センサにより検出される加速度ベクトル情報を用いて算出されることを特徴とする請求項1ないし7のいずれか1項に記載の画像処理装置。
  9. 前記画像として動画を選抜する場合、前記評価値は、被写体の動きベクトルを用いて算出されることを特徴とする請求項1ないし8のいずれか1項に記載の画像処理装置。
  10. 画像の撮影シーンを判定する判定手段をさらに有し、
    前記画像評価手段は、判定されたシーンに適したレンズで撮影された画像の評価値を高く設定することを特徴とする請求項1ないし9のいずれか1項に記載の画像処理装置。
  11. 前記評価値は、画像から得られるコントラスト評価値を用いて算出され、
    画面内のエッジ部分の強度が強いほど、コントラスト評価値が高く設定されることを特徴とする請求項1ないし10のいずれか1項に記載の画像処理装置。
  12. 前記画像評価手段は、前記コントラスト評価値について、同等の強度のエッジ部分を評価する場合、焦点距離が小さいレンズよりも、焦点距離が大きいレンズの評価値を高く設定することを特徴とする請求項11に記載の画像処理装置。
  13. 前記評価値が同等の場合、ズームレンズよりも単焦点レンズの評価値を高く設定することを特徴とする請求項12に記載の画像処理装置。
  14. 前記画像処理装置は、レンズ交換式の撮像装置であり、
    前記画像評価手段は、前記撮像装置に装着されているレンズで撮影された画像の評価値を高く設定することを特徴とする請求項1ないし13のいずれか1項に記載の画像処理装置。
  15. 前記撮像装置に装着されているレンズからレンズの情報を取得するレンズ情報取得手段をさらに有することを特徴とする請求項14に記載の画像処理装置。
  16. ダイジェスト再生の際に前記撮像装置に装着されているレンズの情報を表示する表示手段をさらに有することを特徴とする請求項14または15に記載の画像処理装置。
  17. 前記画像評価手段は、撮影時に使用したレンズの特性に応じて、異なる評価基準を使用して画像の評価値を求めることを特徴とする請求項1ないし16のいずれか1項に記載の画像処理装置。
  18. 前記画像評価手段は、撮影時に使用したレンズの焦点距離に応じて、異なる評価基準を用いて画像の評価値を求めることを特徴とする請求項17に記載の画像処理装置。
  19. 複数の画像からダイジェスト再生用の画像を選抜する画像処理方法であって、
    情報取得手段が、画像ごとに撮影時の撮影情報を取得する情報取得ステップと、
    画像評価手段が、前記撮影情報と評価基準とに基づいて画像の評価値を求める画像評価ステップと、
    画像選抜手段が、前記評価値に基づいて画像を順位づけすることでダイジェスト再生用の画像を選抜する画像選抜ステップと、を有し、
    前記画像評価ステップでは、各画像の撮影に用いられたレンズの情報に基づいて前記評価基準を変更することを特徴とする画像処理方法。
  20. コンピュータを、請求項1ないし18のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2016082348A 2016-04-15 2016-04-15 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 Active JP6660236B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016082348A JP6660236B2 (ja) 2016-04-15 2016-04-15 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
US15/483,403 US10438067B2 (en) 2016-04-15 2017-04-10 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016082348A JP6660236B2 (ja) 2016-04-15 2016-04-15 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体

Publications (3)

Publication Number Publication Date
JP2017192114A JP2017192114A (ja) 2017-10-19
JP2017192114A5 JP2017192114A5 (ja) 2019-05-23
JP6660236B2 true JP6660236B2 (ja) 2020-03-11

Family

ID=60038907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016082348A Active JP6660236B2 (ja) 2016-04-15 2016-04-15 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体

Country Status (2)

Country Link
US (1) US10438067B2 (ja)
JP (1) JP6660236B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201904265A (zh) 2017-03-31 2019-01-16 加拿大商艾維吉隆股份有限公司 異常運動偵測方法及系統
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3774662B2 (ja) * 2000-12-27 2006-05-17 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、プログラム、及び記録媒体
US20070071406A1 (en) 2005-09-28 2007-03-29 Sanyo Electric Co., Ltd. Video recording and reproducing apparatus and video reproducing apparatus
JP4435130B2 (ja) 2005-09-28 2010-03-17 三洋電機株式会社 映像再生装置、再生装置
JP4240330B2 (ja) * 2006-10-24 2009-03-18 ソニー株式会社 データベース作成方法、データベース作成プログラム、データベース作成装置及び映像コンテンツ記録装置
US20080240503A1 (en) * 2007-03-30 2008-10-02 Sanyo Electric Co., Ltd. Image Processing Apparatus And Image Pickup Apparatus Mounting The Same, And Image Processing Method
JP4933354B2 (ja) * 2007-06-08 2012-05-16 キヤノン株式会社 情報処理装置、及び情報処理方法
JP4645707B2 (ja) * 2008-09-01 2011-03-09 ソニー株式会社 コンテンツデータ処理装置
JP2010226557A (ja) * 2009-03-25 2010-10-07 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP5550419B2 (ja) * 2010-03-31 2014-07-16 三菱重工業株式会社 圧縮機
US8630494B1 (en) * 2010-09-01 2014-01-14 Ikorongo Technology, LLC Method and system for sharing image content based on collection proximity

Also Published As

Publication number Publication date
US20170300756A1 (en) 2017-10-19
JP2017192114A (ja) 2017-10-19
US10438067B2 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
JP5056061B2 (ja) 撮像装置
US8164643B2 (en) Composition determining apparatus, composition determining method, and program
JP4644883B2 (ja) 撮像装置
JP4574459B2 (ja) 撮影装置及びその制御方法及びプログラム及び記憶媒体
JP4787180B2 (ja) 撮影装置及び撮影方法
US20070269196A1 (en) System for and method of taking image
KR101700366B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
JP2009060195A (ja) 撮像装置および方法並びにプログラム
JP5623256B2 (ja) 撮像装置、その制御方法及びプログラム
JP2011182252A (ja) 撮像装置および画像撮影方法
JP4645413B2 (ja) 撮像装置
JP2009077026A (ja) 撮影装置および方法並びにプログラム
JP2007282118A (ja) 電子カメラおよび画像処理装置
JP5655668B2 (ja) 撮像装置、画像処理方法及びプログラム
JP2007142702A (ja) 画像処理装置
JP6660236B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
KR101630304B1 (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 매체
JP2009070374A (ja) 電子機器
JP4948014B2 (ja) 電子カメラ
JP2009017427A (ja) 撮像装置
JP5157528B2 (ja) 撮影装置
JP2011119934A (ja) 画像撮影装置及び画像撮影方法
JP2006039254A (ja) カメラ
JP2010104061A (ja) 電子カメラおよび画像処理装置
JP2012090103A (ja) 撮像装置、撮影枚数表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200207

R151 Written notification of patent or utility model registration

Ref document number: 6660236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151