JP2018186418A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2018186418A
JP2018186418A JP2017087638A JP2017087638A JP2018186418A JP 2018186418 A JP2018186418 A JP 2018186418A JP 2017087638 A JP2017087638 A JP 2017087638A JP 2017087638 A JP2017087638 A JP 2017087638A JP 2018186418 A JP2018186418 A JP 2018186418A
Authority
JP
Japan
Prior art keywords
image
images
category
unit
story map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017087638A
Other languages
English (en)
Other versions
JP6614198B2 (ja
JP2018186418A5 (ja
Inventor
将 小野澤
Susumu Onozawa
将 小野澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017087638A priority Critical patent/JP6614198B2/ja
Priority to US15/948,101 priority patent/US10762395B2/en
Priority to CN201810383322.7A priority patent/CN108810398B/zh
Publication of JP2018186418A publication Critical patent/JP2018186418A/ja
Publication of JP2018186418A5 publication Critical patent/JP2018186418A5/ja
Application granted granted Critical
Publication of JP6614198B2 publication Critical patent/JP6614198B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ユーザにとって趣向性の高い集約画像を提供すること。
【解決手段】撮像装置1は、画像取得部52と、画像選択部57と、動画生成部58とを備える。画像取得部52は、複数の画像を取得する。画像選択部57は、複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択する。動画生成部58は、選択された画像を1つの画像に合成する。
【選択図】図6

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
従来、複数の画像からいくつかの画像を選択してコラージュ画像や動画を生成する技術がある(特許文献1参照)。
特開2016−066343号公報
上記特許文献1に記載された技術では、複数の画像から評価の高い画像を優先的に選択してコラージュ画像や動画を生成することでユーザ評価の高い画像を集約した集約画像を生成することはできる。
しかしながら、上記特許文献1に記載された技術では、評価の高い画像の構図が似通い、単調な集約画像になってしまうことがあるという課題があった。
本発明は係る問題に鑑みてなされたものであり、ユーザにとって趣向性の高い集約画像を提供することを目的とする。
上記目的を達成するため、本発明の一態様の画像処理装置は、
複数の画像を取得する取得手段と、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成手段と、
を備えることを特徴とする。
本発明によれば、ユーザにとって趣向性の高い集約画像を提供することができる。
本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。 スコア別最適化の具体例を示す模式図であり、図2(a)は各画像の個別再生時間及び画像スコアを示す図、図2(b)は、画像を選択するための画像スコアの積算経路を示す図である。 画像の分類を示すカテゴリを示す模式図である。 ストーリーマップの一例を示す模式図である。 ストーリーマップに則した画像選択の具体例を示す模式図であり、図5(a)は各画像のカテゴリ、個別再生時間及び画像スコアを示す図、図5(b)はカテゴリ間に設定されたボーナス乗数を示す図、図5(c)は、画像を選択するための画像スコアの積算経路を示す図である。 図1の撮像装置の機能的構成のうち、ハイライト動画生成処理を実行するための機能的構成を示す機能ブロック図である。 生成されたハイライト動画の一例を示す模式図である。 図6の機能的構成を有する図1の撮像装置が実行するハイライト動画生成処理の流れを説明するフローチャートである。
以下、本発明の実施形態について、図面を用いて説明する。
図1は、本発明の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えば、デジタルカメラとして構成される。
撮像装置1は、図1に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、センサ部17と、入力部18と、出力部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。
CPU11は、ROM12に記録されているプログラム、または、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、センサ部17、入力部18、出力部19、記憶部20、通信部21及びドライブ22が接続されている。
撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
なお、撮像部16には、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
センサ部17は、加速度や角速度の情報を取得する加速度センサやジャイロセンサといった各種センサにより構成される。
本実施形態においては、撮像部16において撮影が行われた場合には、撮影時のセンサ情報を取得して、撮影した画像に対応付けて記憶しておく。
入力部18は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部19は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部20は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。
このように構成される撮像装置1では、記憶している複数の画像(ここでは動画とする)を閲覧しようとする場合、全てを閲覧するには膨大な時間を要してしまうため、特徴的な画像だけを選択して、ユーザの閲覧に供する機能を有する。本実施形態の撮像装置1では、選択した画像を結合することにより、特徴的なシーンのみを集めた集約画像(以下、「ハイライト動画」ともいう。)を生成して、ユーザの閲覧に供する。このとき、撮像装置1では、記憶している複数の画像を複数のカテゴリに分類し、ハイライト動画における時系列のカテゴリの構成(以下、「ストーリーマップ」ともいう。)が設定されたデータを用いて画像を選択し、ハイライト動画を生成する。
[画像の組み合わせの選択手法(スコア別最適化)の基本的な流れ]
本実施形態においては、撮像装置1では、画像の撮影時のセンサ情報(加速度情報や角速度情報)、画像解析結果(顔等の特定の被写体の有無等)、及び使用状況に関する情報(再生回数やSNSへのアップロード情報等)といった属性情報に基づいて、ハイライト動画の生成対象の候補となる画像(以下、「候補画像」ともいう。)の特徴量を算出する。
そして、算出した特徴量に基づいて、画像の価値としてのスコア(以下、適宜「画像スコア」という。)を設定する。なお、画像スコアは、人の主観に基づいて特徴量算出に用いた項目に応じて一義的に設定してもよいし、主観的な評価結果を教師データとして機械学習に基づいて特徴量の項目のそれぞれに重み付けをして、重み付けに応じて、総合的に設定してもよい。
また、撮像装置1では、ハイライト動画の最大再生時間を上限として、個別再生時間の合計(合計再生時間)が最大再生時間内に収まる画像の組み合わせにおいて、各画像の画像スコアを積算したスコア(以下、「積算スコア」という。)が最大の組み合わせとなる経路を画像の撮像順に沿って探索する。ここで、本実施形態においては、動画の最大再生時間の制約下において、積算スコアの最大の経路を選択することを「スコア別最適化」という。
図2は、スコア別最適化の具体例を示す模式図であり、図2(a)は各画像(Image)の個別再生時間(Time)及び画像スコア(Score)を示す図、図2(b)は、画像を選択するための画像スコアの積算経路を示す図である。本例では、ハイライト動画の最大再生時間は、6secに設定されている。
なお、図2(b)においては、起点ノードからの経路として、個別再生時間の組み合わせや画像スコア等の観点から適切な経路とならない経路を「淘汰パス」、設定可能な経路を「親パス」、積算スコアが最も高くなる経路を最適パスとして示している。
具体的には、本実施形態においては、個別再生時間と撮影順の画像とのマトリクスに、撮影順に画像を組み合わせた経路を設定する。各経路の組み合わせのうち、経路にある画像の画像スコアを積算した積算スコアが最大となる経路の組み合わせを、ハイライト動画を構成する画像群として選択する。
「撮影順に画像が組み合わされた経路」とは、本実施形態においては画像の撮影順に沿って最初の画像から最後の画像に向かって順番に経路探索を行うことで算出される経路のことである。
図2(b)の例では、撮影順に画像A乃至画像Eを、ハイライト画像を構成するフレーム画像の候補の画像としている。
画像A乃至画像Eでは、画像の特徴量に基づいて算出された画像スコアが設定されており、画像A[Score:8]、画像B[Score:5]、画像C[Score:7]、画像D[Score:6]、画像E[Score:7]となっている。また、画像の個別再生時間が設定されており、画像A[Time:2sec]、画像B[Time:3sec]、画像C[Time:2sec]、画像D[Time:3sec]、画像E[Time:2sec]が設定される。なお、個別再生時間は、画像スコア等に対応して設定するように構成してもよい。具体的には、例えば、画像スコアの高い画像は個別再生時間を長く、画像スコアの低い画像は個別再生時間を短く設定するように構成してもよい。
このように画像スコアと個別再生時間が設定された画像群において、図2(b)に示すように、縦軸が画像の撮影順で、横軸が動画の再生時間のマトリクスにおいて、設定された動画の最大再生時間内に納まるように、撮影順に画像が組み合わされた経路を設定する。
設定した経路において、経路を構成する全ての画像の積算スコアを算出して、最大の積算スコアの経路の組み合わせを選択する。
本例では各経路のうち、積算スコア[22]となる経路が、積算スコアが最大となる経路となる。この経路は、画像Aを起点ノードとして、画像Cと、画像Eの組み合わせからなる。即ち、画像A→画像C→画像Eの経路が最適パスとなる。
なお、本例では、積算スコアのみを考慮したスコア別最適化を行ったが、合計再生時間を長くすることを考慮するスコア別最適化を行うように構成してもよい。
その場合、合計再生時間も最大の6secとなり、積算スコアも[21]と比較的高くなる画像Aを起点ノードとする画像Dと、画像Eの組み合わせの経路を選択する。
その後、撮像装置1では、選択された経路における再生順で、各画像の個別再生時間を合計した合計再生時間からなるハイライト動画を作成することができる。
[ストーリーマップに則した選択手法(ストーリーフィッティング)]
上述したようなスコア別最適化を行った場合、特徴量と画像スコアとが関連しているために選択される組み合わせにおいて類似した画像が含まれてしまうことがある。また、ハイライト動画の作品性という観点からは、必ずしも画像としての価値(画像スコア)が高いもの(特徴的なもの)ばかりを列挙することが適切なわけではない。例えば、ところどころに空気感を演出するような画像(味付けの意味合いを有する画像)を挿入することで、メリハリのある動画とする方が好ましい場合もある。
そこで、本手法では、ハイライト動画における時系列のカテゴリの配列(ストーリーマップ)を用意し、このストーリーマップを参照して、カテゴリに分類された複数の画像の中から、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像を選択して合成する。これにより、ストーリーマップで意図されたストーリー構成に則した動画を生成することができる。
本手法による画像選択を行う場合、まず、各画像がカテゴリに分類される。
図3は、画像の分類を示すカテゴリを示す模式図である。
図3に示すように、各画像は、その画像内容あるいは撮影時に取得されたパラメータ(各種センサの情報を含む)等に応じて、複数のカテゴリに分類することができる。
例えば、複数の人物がポーズを決めて撮影されている画像は、ハイライト動画を編集する際の中心となる注目度の高いカテゴリの画像(以下、「メイン画像」という。)とすることができる。メイン画像としては、人物が集合して撮影されているものや、人物の笑顔が撮影されているものを選択することができる。また、メイン画像の要素は含んでおらず、メイン画像に比して注目度は高くないものの、撮影者が意図的に狙って撮影した画像は、ハイライト動画を編集する際にメイン画像に準ずるカテゴリの画像(以下、「サブ画像」という。)とすることができる。サブ画像としては、例えば、メイン画像よりも少ない数の人物が撮影されているものや、特有の構図で撮影されているもの(足元の画像等)を選択することができる。また、時間的または空間的な指標が撮影されている画像は、撮影画像群における時間的または空間的な流れを示すカテゴリの画像(以下、「キー画像」という。)とすることができる。キー画像としては、例えば、道標や時計等の場所や時刻の目印になるような被写体が撮影されているものを選択することができる。さらに、通常の風景が撮影されている画像は、現場の臨場感を表現するカテゴリの画像(以下、「シズル画像」という。)とすることができる。シズル画像としては、例えば、人物の歩行シーンや歩行路面が撮影されているものを選択することができる。
なお、カテゴリの種類及び数は、ハイライト動画の生成目的等に応じて、適宜設定することができ、上述の4種類以外とすることが可能である。
ここで、各画像を複数のカテゴリに分類する場合、DNN(Deep Neural Network)を用いたディープラーニングを用いることができる。この場合、ユーザによって各カテゴリに予め分類された画像を教師データとし、この教師データを用いて、カテゴリの分類器に学習を行わせる。そして、学習を経た分類器に未分類の画像を入力(例えば、画素データやセンサ情報を要素として入力)することにより、各画像をいずれかのカテゴリに分類することができる。
なお、ディープラーニングによって各画像をカテゴリに分類する他、ユーザの判断によって各画像にカテゴリを設定したり、各画像の画像内容あるいは撮影時に取得されたパラメータを条件判断して自動的にカテゴリを設定したりすることも可能である。自動的に画像にカテゴリを設定する場合、SVM(SupportVectorMachine)やBoF(Bag−of−Feature)等の機械学習やBayes等の確率モデルを用いることも可能である。この場合には、各画像から特徴量に変換が行われる。例えば、画像内容からは、人や顔の数、カラーヒストグラムあるいは構図等を基に特徴量への変換を行うことができる。一方、センサ情報からは、FFT(Fast Fourier Transform)解析結果や自己相関量等を用いて特徴量への変換を行うことができる。
そして、このようなカテゴリを時系列に配置したストーリーマップに対して、撮影画像群における各画像のカテゴリ、画像スコア及び撮影順(時系列における位置)に基づいて、ストーリーマップに対するフィッティングが行われる。
図4は、ストーリーマップの一例を示す模式図である。
図4に示すように、ストーリーマップは、全体の再生時間が定められ、時系列にカテゴリが配列されたデータとして構成される。
本実施形態においては、ストーリーマップに配列されるカテゴリは、カテゴリ毎に画像の再生時間が予め設定されている。
そして、後述するように、ストーリーマップに配列された各カテゴリには、撮影画像群における各画像のうち、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像が選択される。このとき、選択された画像の個別再生時間がカテゴリに設定された再生時間よりも長い場合には、画像の個別再生時間がストーリーマップのカテゴリに対応する再生時間にクリッピング(ここでは超過分を削除)される。
図5は、ストーリーマップに則した画像選択の具体例を示す模式図であり、図5(a)は各画像のカテゴリ(Category)、個別再生時間(Time)及び画像スコア(Score)を示す図、図5(b)はカテゴリ間に設定されたボーナス乗数を示す図、図5(c)は、画像を選択するための画像スコアの積算経路を示す図である。なお、図5に示す例では、説明を簡単にするため、各画像のカテゴリとして、α、β、γの3種類が設定されている場合を示している。また、ボーナス乗数とは、ストーリーマップに配列されたカテゴリと、選択される画像のカテゴリとの関係に応じて、画像スコアに乗算されるスコアの補正のためのパラメータである。
図5(c)に示す画像選択手法は、図2に示すスコア別最適化の流れに対し、上述のように、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像がより選択され易くなると共に、画像の個別再生時間をストーリーマップのカテゴリに対応する再生時間にクリッピング(ここでは超過分を削除)する補正を加えた画像選択手法となっている。
即ち、図5(c)に示す画像選択手法では、ストーリーマップにおいて、時系列上の注目する位置と、その位置に選択可能な撮影画像群における各画像とで、カテゴリが一致する場合には、ボーナス乗数を乗算することで画像スコアがアップされる。これにより、選択可能な画像のうち、ストーリーマップに配列されたカテゴリと一致する画像が選択され易くなる。また、ストーリーマップに配列されたカテゴリの切り替え時間よりも、選択された画像の個別再生時間の方が長い場合、個別再生時間をクリッピングしてカテゴリに設定された時間に収めることで、ストーリーマップに設定されたカテゴリの時系列に則した画像の構成とすることができる。
例えば、図5(c)において、画像Bのカテゴリはβであり、ストーリーマップにおける0〜1秒の時間帯に設定されているカテゴリはβである。そのため、ストーリーマップにおける0〜1秒の時間帯に画像Bが選択される場合には、画像Bのスコア[5]に対して、ボーナス乗数2が乗算され、スコアが[10]に補正される。その結果、ストーリーマップにおける0〜1秒の時間帯における画像A(カテゴリはα)のスコア[8]よりも、補正後の画像Bのスコア[10]の方が高くなり、ストーリーマップにおける0〜1秒の時間帯の画像として、画像Bが選択される。
また、選択された画像Bは、個別再生時間が5秒である一方、ストーリーマップにおける0〜1秒の時間帯のカテゴリは2秒の再生時間が設定されているため、画像Bの個別再生時間は2秒にクリッピングされる。
また、図5(c)において、画像Cのカテゴリはγであり、ストーリーマップにおける2〜3秒の時間帯に設定されているカテゴリはαである。そのため、ストーリーマップにおける2〜3秒の時間帯に画像Cが選択される場合には、画像Cのスコア[7]に対して、ボーナス乗数1/2が乗算され、スコアが[3.5]に補正される。一方、画像Dのカテゴリはαであり、ストーリーマップにおける2〜3秒の時間帯に設定されているカテゴリはαである。そのため、ストーリーマップにおける2〜3秒の時間帯に画像Dが選択される場合には、画像Dのスコア[6]に対して、ボーナス乗数2が乗算され、スコアが[12]に補正される。その結果、ストーリーマップにおける2〜3秒の時間帯における補正後の画像Cのスコア[3.5]よりも、補正後の画像Dのスコア[12]の方が高くなり、画像Bに続く2〜3秒の時間帯の画像として、画像Dが選択される。
そして、ストーリーマップにおける3秒以降の時間帯に選択される画像が、同様にボーナス乗数を乗算されたスコアを基に選択されると共に、必要に応じて、個別再生時間がクリッピングされる。
この結果、本例では各経路のうち、積算スコア[25.5]となる経路が、積算スコアが最大となる経路となる。この経路は、画像B(補正後のスコア[10])を起点ノードとして、画像D(補正後のスコア[12])と、画像E(補正後のスコア[3.5])の組み合わせからなる。即ち、画像B→画像D→画像Eの経路が最適パスとなる。
したがって、本手法を用いることにより、ストーリーマップを参照して、カテゴリに分類された複数の画像の中から、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像を、例えば、時間や枚数等の制約内で積算スコアがなるべく最大となるように選択することができる。このため、ストーリーマップで意図されたストーリー構成に則した適切な動画を生成することができる。
図6は、図1の撮像装置1の機能的構成のうち、ハイライト動画生成処理を実行するための機能的構成を示す機能ブロック図である。
ハイライト動画生成処理とは、複数の候補画像の中から、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像であって、画像スコアの高い組み合わせとなる候補画像からなるハイライト動画を生成する一連の処理をいう。
ハイライト動画生成処理を実行する場合には、図6に示すように、CPU11において、ストーリーマップ取得部51と、画像取得部52と、特徴量算出部53と、スコア算出部54と、カテゴリ分類部55と、経路設定部56と、画像選択部57と、動画生成部58と、が機能する。
また、記憶部20の一領域には、画像記憶部71が設定される。
画像記憶部71には、撮影時に取得したセンサ情報と対応付けられた画像のデータが記憶される。
ストーリーマップ取得部51は、ハイライト動画生成処理において参照されるストーリーマップのデータを取得する。ストーリーマップのデータは、ユーザが生成したものを取得したり、デザイナーによってデザインされた既製のものを取得したりすることができる。
画像取得部52は、ハイライト動画の対象となる複数の候補画像を画像記憶部71から取得する。本実施形態において、候補画像のデータには、撮影時に取得したセンサ情報が対応付けられており、画像取得部52は、候補画像のデータを取得する際に、センサ情報のデータを併せて取得する。
特徴量算出部53は、取得した候補画像毎に特徴量を算出する。本実施形態において、特徴量算出部53は、候補画像を画像解析した結果及び候補画像に対応付けられているセンサ情報に基づいて、各候補画像の特徴量を算出する。
スコア算出部54は、特徴量算出部53が算出した特徴量に基づいて、画像の価値としての画像スコアを設定する。なお、画像スコアは、人の主観に基づいて特徴量算出に用いた項目に応じて一義的に設定してもよいし、主観的な評価結果を教師データとして機械学習に基づいて特徴量の項目のそれぞれに重み付けをして、重み付けに応じて、総合的に設定してもよい。
カテゴリ分類部55は、DNNを用いたディープラーニングを用いて、候補画像を複数のカテゴリに分類する。本実施形態において、カテゴリ分類部55は、ユーザによって各カテゴリに予め分類された画像を教師データとし、この教師データを用いて、カテゴリの分類器に学習を行わせる。そして、カテゴリ分類部55は、学習を経た分類器に未分類の画像を入力(例えば、画素データやセンサ情報を要素として入力)することにより、各画像をいずれかのカテゴリに分類する。
経路設定部56は、画像の撮影順と設定された候補画像の個別再生時間に基づいて、ハイライト動画の個別再生時間と候補画像によって構成されるマトリクスに可能な経路の組み合わせ(配列)を設定する。本実施形態において、経路設定部56は、画像のカテゴリとストーリーマップに設定されたカテゴリとに基づいて、候補画像のスコアを補正しつつ、経路の組み合わせ(配列)を設定する。
画像選択部57は、積算スコアが最も高くなる経路を選択して、経路を構成する候補画像を選択する。本実施形態において、画像選択部57は、図2に示すスコア別最適化の流れに対し、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像がより選択され易くなると共に、画像の個別再生時間をストーリーマップのカテゴリに対応する再生時間にクリッピング(ここでは超過分を削除)する補正を加えた画像選択手法によって、候補画像を選択する。例えば、画像選択部57は、ストーリーマップにおいて、時系列上の注目する位置と、その位置に選択可能な撮影画像群における各候補画像とで、カテゴリが一致する場合には、ボーナス乗数を乗算することで候補画像のスコアをアップさせる。これにより、選択可能な候補画像のうち、ストーリーマップに配列されたカテゴリと一致する候補画像が選択され易くなる。また、画像選択部57は、ストーリーマップに配列されたカテゴリの切り替え時間よりも、選択された候補画像の個別再生時間の方が長い場合、個別再生時間をクリッピングしてカテゴリに設定された時間に収めることで、ストーリーマップに設定されたカテゴリの時系列に則した画像の構成とする。
動画生成部58は、画像選択部57によって選択された経路の候補画像を設定された最大再生時間に収まるように構成したハイライト動画を生成する。
図7は、生成されたハイライト動画の一例を示す模式図である。
図7に示すように、上述の手法によって候補画像から画像を選択することにより、ストーリーマップに設定されたカテゴリの時系列に則した特徴的な画像によって構成されるハイライト動画が生成される。
[動作]
次に、撮像装置1の動作を説明する。
図8は、図6の機能的構成を有する図1の撮像装置1が実行するハイライト動画生成処理の流れを説明するフローチャートである。
ハイライト動画生成処理は、ユーザによる入力部18へのハイライト動画生成処理開始の操作により開始される。
ステップS1において、ストーリーマップ取得部51は、ハイライト動画生成処理において参照されるストーリーマップのデータを取得する。
ステップS2において、画像取得部52は、ハイライト動画の対象となる複数の候補画像を画像記憶部71から取得する。なお、候補画像のデータには、撮影時に取得したセンサ情報が対応付けられており、画像取得部52は、候補画像のデータを取得する際に、センサ情報のデータを併せて取得する。
ステップS3において、特徴量算出部53は、取得した候補画像毎に特徴量を算出する。このとき、特徴量算出部53は、候補画像を画像解析した結果及び候補画像に対応付けられているセンサ情報に基づいて、各候補画像の特徴量を算出する。
ステップS4において、スコア算出部54は、特徴量算出部53が算出した特徴量に基づいて、画像の価値としての画像スコアを設定する。
ステップS5において、カテゴリ分類部55は、DNNを用いたディープラーニングを用いて、候補画像を複数のカテゴリに分類する。このとき、カテゴリ分類部55は、ユーザによって各カテゴリに予め分類された画像を教師データとし、この教師データを用いて、カテゴリの分類器に学習を行わせる。そして、カテゴリ分類部55は、学習を経た分類器に未分類の画像を入力(例えば、画素データやセンサ情報を要素として入力)することにより、各画像をいずれかのカテゴリに分類する。
ステップS6において、経路設定部56は、画像の撮影順と設定された候補画像の個別再生時間に基づいて、ハイライト動画の個別再生時間と候補画像によって構成されるマトリクスに可能な経路の組み合わせ(配列)を設定する。このとき、経路設定部56は、画像のカテゴリとストーリーマップに設定されたカテゴリとに基づいて、候補画像のスコアを補正しつつ、経路の組み合わせ(配列)を設定する。
ステップS7において、画像選択部57は、積算スコアが最も高くなる経路を選択して、経路を構成する候補画像を選択する。このとき、画像選択部57は、図2に示すスコア別最適化の流れに対し、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像がより選択され易くなると共に、画像の個別再生時間をストーリーマップのカテゴリに対応する再生時間にクリッピング(ここでは超過分を削除)する補正を加えた画像選択手法によって、候補画像を選択する。例えば、画像選択部57は、ストーリーマップにおいて、時系列上の注目する位置と、その位置に選択可能な撮影画像群における各候補画像とで、カテゴリが一致する場合には、ボーナス乗数を乗算することで候補画像スコアをアップさせる。また、画像選択部57は、ストーリーマップに配列されたカテゴリの切り替え時間よりも、選択された候補画像の個別再生時間の方が長い場合、個別再生時間をクリッピングしてカテゴリに設定された時間に収めることで、ストーリーマップに設定されたカテゴリの時系列に則した画像の構成とする。
ステップS8において、動画生成部58は、画像選択部57によって選択された経路の候補画像を設定された最大再生時間に収まるように構成したハイライト動画を生成する。
ステップS8の後、ハイライト動画生成処理は終了する。
このような処理により、ストーリーマップに配列された各カテゴリに対して、撮影画像群における各候補画像のうち、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する候補画像が選択される。このとき、選択された候補画像の個別再生時間がカテゴリに設定された再生時間よりも長い場合には、候補画像の個別再生時間がストーリーマップのカテゴリに対応する再生時間にクリッピングされる。
これにより、ストーリーマップを参照して、カテゴリに分類された複数の画像の中から、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像を、例えば、時間や枚数等の制約内で積算スコアがなるべく最大となるように選択することができる。このため、ストーリーマップで意図されたストーリー構成に則した適切な動画を生成することができる。
したがって、撮像装置1によれば、ユーザにとって趣向性の高い集約画像を提供することができる。
[変形例1]
上述の実施形態において、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する候補画像を選択する場合、DTW(Dynamic Time Warping)を用いた動的計画法に基づく経路設定を行うことで、最適な画像を選択することとしてもよい。
即ち、候補画像群とストーリーマップとは、時間の長さ及びサンプルの数が異なる2つの関数として捉えることができる。
そして、DTWによって、候補画像群及びストーリーマップの各サンプル(候補画像群の各候補画像とストーリーマップに配列されている各カテゴリ)間の距離を全て算出し、これらの距離を表すマトリクスにおいて、候補画像群とストーリーマップとの距離が最短となるパスを特定する。このとき、候補画像群及びストーリーマップの各サンプル間の距離は、カテゴリ間距離として定義することができる。カテゴリ間距離は、例えば、図5(a)に示すカテゴリα、β、γにおいては、同一のカテゴリ間では距離をゼロとし、カテゴリαとβとでは距離を「5」、カテゴリαとγとでは距離を「10」、カテゴリβとγとでは距離を「10」とすることができる。
このように特定されたパスを構成する候補画像の組み合わせが、ストーリーマップに最も適合(フィッティング)する候補画像となり、これらの候補画像を時系列に配列することで、ストーリーマップに配列された各カテゴリに具体的な候補画像が設定されたハイライト動画を生成することができる。
[変形例2]
上述の実施形態において、動画である候補画像を含む候補画像群を要約したハイライト動画を生成する場合を例に挙げて説明したが、これに限られない。
例えば、静止画像である候補画像からなる候補画像群から特徴的なものを集めた集約画像(コラージュ画像、スライドショーあるいはハイライト動画等)を生成する場合にも本発明を適用することができる。
一例として、複数の静止画像からハイライト動画を生成する場合、静止画像からなる候補画像群をカテゴリに分類し、ハイライト動画における時系列のカテゴリの配列(ストーリーマップ)を用意する。そして、このストーリーマップを参照して、カテゴリに分類された複数の画像の中から、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像を選択して合成する。このとき、静止画像である候補画像の個別再生時間は、ストーリーマップにおいて各カテゴリの画像毎に設定された再生時間とされる。なお、画像の選択には、図5に示す選択手法や、変形例1に示す選択手法のいずれを用いることも可能である。
これにより、静止画像である候補画像からなる候補画像群から特徴的なものを集めた集約画像を生成することができる。
したがって、ユーザにとって趣向性の高い集約画像を提供することができる。
[変形例3]
上述の実施形態において、候補画像群からストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像を選択する場合、ストーリーマップを候補画像群の長さに伸長し、伸長されたストーリーマップに配列された各カテゴリの時間帯において、同一のカテゴリの候補画像を選択することで、集約画像を生成することとしてもよい。
このとき、伸長されたストーリーマップに配列された各カテゴリの時間帯において、同一のカテゴリの候補画像を複数選択可能である場合には、画像スコアがより高い候補画像を選択することができる。
このような手法により、簡単な処理によって、候補画像群から特徴的なものを集めた集約画像を生成することができる。
[変形例4]
上述の実施形態において、候補画像群からストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像を選択する場合に、予め個別の画像スコアを算出することなく、ストーリーマップに沿って選択されるべきカテゴリの画像から、ボーナス乗数と時間軸上の位置とによって候補画像を選択するように構成してもよい。
このような手法により、簡単な処理によって、候補画像群から特徴的なものを集めた集約画像を生成することができる。
[変形例5]
上述の実施形態において、候補画像群からストーリーマップの時系列に沿ってボーナス乗数を考慮した画像スコアを算出するように構成したが、候補画像群を各カテゴリに分類した後、各カテゴリにおいて画像スコアの高い順にストーリーマップに必要な数だけの画像を選択して集約画像を生成するように構成してもよい。
また、上記の手法で選択した候補画像から集約画像を生成する際に、各画像の撮影タイミングの情報を読み出して、ストーリーマップに収まるような配列で集約画像を生成するように構成してもよい。
このような手法により、簡単な処理によって、候補画像群から特徴的なものを集めた集約画像を生成できる。
[変形例6]
上述の実施形態において、候補画像群からストーリーマップの時系列に沿ってボーナス乗数を考慮した画像スコアを算出するように構成したが、候補画像群を各カテゴリに分類した後、各カテゴリからランダムにストーリーマップに必要な数だけの画像を選択して集約画像を生成するように構成してもよい。
このような手法により、画像の選択処理を簡略化することができ、且つ候補画像群から特徴的なものを集めた集約画像を生成できる。
以上のように構成される撮像装置1は、画像取得部52と、画像選択部57と、動画生成部58とを備える。
画像取得部52は、複数の画像を取得する。
画像選択部57は、複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択する。
動画生成部58は、選択された画像を1つの画像に合成する。
これにより、複数の画像における画像の分類を考慮しつつ、画像の評価結果に基づいて、画像を選択して1つの画像に合成することができる。
したがって、ユーザにとって趣向性の高い集約画像を提供することができる。
画像選択部57は、ストーリーマップにおける注目する位置の画像を選択する際、当該位置の分類と画像の分類とが一致する場合、当該画像の評価を高める補正を行う。
これにより、ストーリーマップにおける注目する位置の分類と一致する画像を選択され易くすることができる。
複数の画像には、動画が含まれる。
ストーリーマップは、画像の分類の時間的な位置及び長さの配列を表す。
画像選択部57は、ストーリーマップにおける注目する位置の画像を選択する際、当該位置の時間的な長さよりも画像の再生時間が長い場合、当該画像の再生時間をクリッピングする。
これにより、選択される画像の再生時間をストーリーマップに設定された再生時間に収めることができ、ストーリーマップに設定された分類の時系列に則した画像の構成とすることができる。
撮像装置1は、カテゴリ分類部55を備える。
カテゴリ分類部55は、画像取得部52により取得された複数の画像を、画像の内容に基づいて複数の画像群に分類する。
これにより、複数の画像を分類することができ、画像の分類を考慮して画像を選択することが可能となる。
撮像装置1は、スコア算出部54を備える。
スコア算出部54は、画像取得部52により取得された複数の画像を評価する。
これにより、画像の評価を反映させて、画像を選択することが可能となる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、上述の実施形態において、ストーリーマップは、ハイライト動画(集約画像)における時系列のカテゴリの配列を定義したものとして説明した。即ち、ストーリーマップには、選択される候補画像の時間軸上の位置及びカテゴリが定義されているものとして説明した。
これに対し、ストーリーマップには、選択される候補画像の空間上の位置及びカテゴリが定義されるものとしてもよい。この場合、ストーリーマップは、平面的な画像(静止画像)における候補画像の配置位置と、各位置に配置される候補画像のカテゴリとが定義されたものとなる。
上述の実施形態では、動画または静止画像である候補画像から画像を選択してハイライト動画(集約画像)を生成するように構成したが、例えば、1つまたは複数の動画において、動画を構成するフレーム画像を候補画像としてもよい。
また、静止画、動画あるいはフレーム画像のうちの複数種類を候補画像とし、これら種類の異なる候補画像から画像を選択して集約画像を生成することとしてもよい。
また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、ハイライト動画生成処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図6の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
複数の画像を取得する取得手段と、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記合成手段は、前記画像の分類の時間的または空間的な位置の配列を表すストーリーマップに基づいて、前記複数の画像群の少なくともいずれかから画像を選択することを特徴とする付記1に記載の画像処理装置。
[付記3]
前記合成手段は、前記ストーリーマップにおける注目する位置の画像を選択する際、当該位置の分類と前記画像の分類とが一致する場合、当該画像の評価を高める補正を行うことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記複数の画像には、動画が含まれ、
前記ストーリーマップは、前記画像の分類の時間的な位置及び長さの配列を表し、
前記合成手段は、前記ストーリーマップにおける注目する位置の画像を選択する際、当該位置の時間的な長さよりも前記画像の再生時間が長い場合、当該画像の再生時間をクリッピングすることを特徴とする付記2または3に記載の画像処理装置。
[付記5]
前記取得手段により取得された前記複数の画像を、前記画像の内容に基づいて前記複数の画像群に分類する分類手段を備えることを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
[付記6]
前記取得手段により取得された前記複数の画像を評価する評価手段を備えることを特徴とする付記1から5のいずれか1つに記載の画像処理装置。
[付記7]
画像処理装置が実行する画像処理方法であって、
複数の画像を取得する取得ステップと、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成ステップと、
を含むことを特徴とする画像処理方法。
[付記8]
コンピュータに、
複数の画像を取得する取得機能と、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成機能と、
を実現させることを特徴とするプログラム。
1・・・撮像装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・センサ部,18・・・入力部,19・・・出力部,20・・・記憶部,21・・・通信部,22・・・ドライブ,31・・・リムーバブルメディア,51・・・ストーリーマップ取得部,52・・・画像取得部,53・・・特徴量算出部,54・・・スコア算出部,55・・・カテゴリ分類部,56・・・経路設定部,57・・・画像選択部,58・・・動画生成部,71・・・画像記憶部

Claims (8)

  1. 複数の画像を取得する取得手段と、
    前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記合成手段は、前記画像の分類の時間的または空間的な位置の配列を表すストーリーマップに基づいて、前記複数の画像群の少なくともいずれかから画像を選択することを特徴とする請求項1に記載の画像処理装置。
  3. 前記合成手段は、前記ストーリーマップにおける注目する位置の画像を選択する際、当該位置の分類と前記画像の分類とが一致する場合、当該画像の評価を高める補正を行うことを特徴とする請求項2に記載の画像処理装置。
  4. 前記複数の画像には、動画が含まれ、
    前記ストーリーマップは、前記画像の分類の時間的な位置及び長さの配列を表し、
    前記合成手段は、前記ストーリーマップにおける注目する位置の画像を選択する際、当該位置の時間的な長さよりも前記画像の再生時間が長い場合、当該画像の再生時間をクリッピングすることを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記取得手段により取得された前記複数の画像を、前記画像の内容に基づいて前記複数の画像群に分類する分類手段を備えることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記取得手段により取得された前記複数の画像を評価する評価手段を備えることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7. 画像処理装置が実行する画像処理方法であって、
    複数の画像を取得する取得ステップと、
    前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成ステップと、
    を含むことを特徴とする画像処理方法。
  8. コンピュータに、
    複数の画像を取得する取得機能と、
    前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成機能と、
    を実現させることを特徴とするプログラム。
JP2017087638A 2017-04-26 2017-04-26 画像処理装置、画像処理方法及びプログラム Active JP6614198B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017087638A JP6614198B2 (ja) 2017-04-26 2017-04-26 画像処理装置、画像処理方法及びプログラム
US15/948,101 US10762395B2 (en) 2017-04-26 2018-04-09 Image processing apparatus, image processing method, and recording medium
CN201810383322.7A CN108810398B (zh) 2017-04-26 2018-04-25 图像处理装置、图像处理方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087638A JP6614198B2 (ja) 2017-04-26 2017-04-26 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018186418A true JP2018186418A (ja) 2018-11-22
JP2018186418A5 JP2018186418A5 (ja) 2019-01-10
JP6614198B2 JP6614198B2 (ja) 2019-12-04

Family

ID=63916752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087638A Active JP6614198B2 (ja) 2017-04-26 2017-04-26 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10762395B2 (ja)
JP (1) JP6614198B2 (ja)
CN (1) CN108810398B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108924626B (zh) * 2018-08-17 2021-02-23 腾讯科技(深圳)有限公司 图片生成方法、装置、设备及存储介质
JP2022103693A (ja) * 2020-12-28 2022-07-08 京セラドキュメントソリューションズ株式会社 画像認識方法、画像認識装置、および画像認識プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000125253A (ja) 1998-10-15 2000-04-28 Toshiba Corp 動画編集装置および記録媒体
JP2004348674A (ja) * 2003-05-26 2004-12-09 Noritsu Koki Co Ltd 領域検出方法及びその装置
JP4189811B2 (ja) 2003-09-30 2008-12-03 日本電気株式会社 画像検出装置、画像検出方法及び画像検出用プログラム
JP2007097090A (ja) * 2005-09-30 2007-04-12 Fujifilm Corp 画像表示装置および方法ならびにプログラム、さらに写真プリント注文受付装置
CN101331522B (zh) 2005-10-18 2012-10-10 富士胶片株式会社 图册创建设备
JP5664120B2 (ja) 2010-10-25 2015-02-04 ソニー株式会社 編集装置、編集方法、プログラム、および記録媒体
JP2012114559A (ja) * 2010-11-22 2012-06-14 Jvc Kenwood Corp 映像処理装置、映像処理方法及び映像処理プログラム
JP2014017779A (ja) 2012-07-11 2014-01-30 Sony Corp 編集装置、編集方法、プログラム、および記録媒体
US9901317B2 (en) * 2013-05-31 2018-02-27 Konica Minolta, Inc. Image processing apparatus for acquiring a dynamic image and storage medium
JP2016066343A (ja) 2014-06-30 2016-04-28 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
US10658006B2 (en) * 2015-11-18 2020-05-19 Casio Computer Co., Ltd. Image processing apparatus that selects images according to total playback time of image data, image selection method, and computer-readable medium
CN105827964B (zh) * 2016-03-24 2019-05-17 维沃移动通信有限公司 一种图像处理方法及移动终端

Also Published As

Publication number Publication date
US10762395B2 (en) 2020-09-01
US20180314919A1 (en) 2018-11-01
CN108810398B (zh) 2021-01-26
JP6614198B2 (ja) 2019-12-04
CN108810398A (zh) 2018-11-13

Similar Documents

Publication Publication Date Title
US10706892B2 (en) Method and apparatus for finding and using video portions that are relevant to adjacent still images
KR101434564B1 (ko) 촬영 정보 자동 추출 시스템 및 방법
JP2011118710A (ja) 楽曲推薦システム、情報処理装置、および情報処理方法
JP2011170690A (ja) 情報処理装置、情報処理方法、およびプログラム。
JP2016118991A (ja) 画像生成装置、画像生成方法及びプログラム
US20150379748A1 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image by synthesizing a plurality of images
JP6341184B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6614198B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018077718A (ja) 情報処理システム、情報処理方法、およびプログラム
JP2022140458A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2008035125A (ja) 撮像装置、画像処理方法およびプログラム
US20130051633A1 (en) Image processing apparatus
US10658006B2 (en) Image processing apparatus that selects images according to total playback time of image data, image selection method, and computer-readable medium
JP2017098637A (ja) 画像特定装置、画像特定方法及びプログラム
JP2005175839A (ja) 画像表示装置、画像表示方法、プログラムおよび記憶媒体
JP6720509B2 (ja) 画像評価装置、画像評価方法及びプログラム
JP2006350546A (ja) 情報処理装置、画像分類方法、および情報処理システム
JP2019071047A (ja) ビデオシーケンスのフレームを選択する方法、システム、及び、装置
JP2015008428A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2018166314A (ja) 画像処理装置、画像処理方法及びプログラム
JP6418136B2 (ja) 画像処理装置、画像選択方法及びプログラム
JP6555978B2 (ja) 画像処理装置、その制御方法およびプログラム
JP2017184114A (ja) 画像処理装置、画像処理方法及びプログラム
JP6424620B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2016181823A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191021

R150 Certificate of patent or registration of utility model

Ref document number: 6614198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150