JP2018186418A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2018186418A JP2018186418A JP2017087638A JP2017087638A JP2018186418A JP 2018186418 A JP2018186418 A JP 2018186418A JP 2017087638 A JP2017087638 A JP 2017087638A JP 2017087638 A JP2017087638 A JP 2017087638A JP 2018186418 A JP2018186418 A JP 2018186418A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- category
- unit
- story map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 34
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000011156 evaluation Methods 0.000 claims description 19
- 230000002123 temporal effect Effects 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 abstract description 31
- 238000000034 method Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 18
- 238000003860 storage Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 14
- 238000005457 optimization Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000010187 selection method Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 235000011194 food seasoning agent Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
【解決手段】撮像装置1は、画像取得部52と、画像選択部57と、動画生成部58とを備える。画像取得部52は、複数の画像を取得する。画像選択部57は、複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択する。動画生成部58は、選択された画像を1つの画像に合成する。
【選択図】図6
Description
しかしながら、上記特許文献1に記載された技術では、評価の高い画像の構図が似通い、単調な集約画像になってしまうことがあるという課題があった。
複数の画像を取得する取得手段と、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成手段と、
を備えることを特徴とする。
図1は、本発明の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えば、デジタルカメラとして構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
なお、撮像部16には、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
本実施形態においては、撮像部16において撮影が行われた場合には、撮影時のセンサ情報を取得して、撮影した画像に対応付けて記憶しておく。
本実施形態においては、撮像装置1では、画像の撮影時のセンサ情報(加速度情報や角速度情報)、画像解析結果(顔等の特定の被写体の有無等)、及び使用状況に関する情報(再生回数やSNSへのアップロード情報等)といった属性情報に基づいて、ハイライト動画の生成対象の候補となる画像(以下、「候補画像」ともいう。)の特徴量を算出する。
そして、算出した特徴量に基づいて、画像の価値としてのスコア(以下、適宜「画像スコア」という。)を設定する。なお、画像スコアは、人の主観に基づいて特徴量算出に用いた項目に応じて一義的に設定してもよいし、主観的な評価結果を教師データとして機械学習に基づいて特徴量の項目のそれぞれに重み付けをして、重み付けに応じて、総合的に設定してもよい。
なお、図2(b)においては、起点ノードからの経路として、個別再生時間の組み合わせや画像スコア等の観点から適切な経路とならない経路を「淘汰パス」、設定可能な経路を「親パス」、積算スコアが最も高くなる経路を最適パスとして示している。
「撮影順に画像が組み合わされた経路」とは、本実施形態においては画像の撮影順に沿って最初の画像から最後の画像に向かって順番に経路探索を行うことで算出される経路のことである。
画像A乃至画像Eでは、画像の特徴量に基づいて算出された画像スコアが設定されており、画像A[Score:8]、画像B[Score:5]、画像C[Score:7]、画像D[Score:6]、画像E[Score:7]となっている。また、画像の個別再生時間が設定されており、画像A[Time:2sec]、画像B[Time:3sec]、画像C[Time:2sec]、画像D[Time:3sec]、画像E[Time:2sec]が設定される。なお、個別再生時間は、画像スコア等に対応して設定するように構成してもよい。具体的には、例えば、画像スコアの高い画像は個別再生時間を長く、画像スコアの低い画像は個別再生時間を短く設定するように構成してもよい。
設定した経路において、経路を構成する全ての画像の積算スコアを算出して、最大の積算スコアの経路の組み合わせを選択する。
本例では各経路のうち、積算スコア[22]となる経路が、積算スコアが最大となる経路となる。この経路は、画像Aを起点ノードとして、画像Cと、画像Eの組み合わせからなる。即ち、画像A→画像C→画像Eの経路が最適パスとなる。
なお、本例では、積算スコアのみを考慮したスコア別最適化を行ったが、合計再生時間を長くすることを考慮するスコア別最適化を行うように構成してもよい。
その場合、合計再生時間も最大の6secとなり、積算スコアも[21]と比較的高くなる画像Aを起点ノードとする画像Dと、画像Eの組み合わせの経路を選択する。
上述したようなスコア別最適化を行った場合、特徴量と画像スコアとが関連しているために選択される組み合わせにおいて類似した画像が含まれてしまうことがある。また、ハイライト動画の作品性という観点からは、必ずしも画像としての価値(画像スコア)が高いもの(特徴的なもの)ばかりを列挙することが適切なわけではない。例えば、ところどころに空気感を演出するような画像(味付けの意味合いを有する画像)を挿入することで、メリハリのある動画とする方が好ましい場合もある。
図3は、画像の分類を示すカテゴリを示す模式図である。
図3に示すように、各画像は、その画像内容あるいは撮影時に取得されたパラメータ(各種センサの情報を含む)等に応じて、複数のカテゴリに分類することができる。
例えば、複数の人物がポーズを決めて撮影されている画像は、ハイライト動画を編集する際の中心となる注目度の高いカテゴリの画像(以下、「メイン画像」という。)とすることができる。メイン画像としては、人物が集合して撮影されているものや、人物の笑顔が撮影されているものを選択することができる。また、メイン画像の要素は含んでおらず、メイン画像に比して注目度は高くないものの、撮影者が意図的に狙って撮影した画像は、ハイライト動画を編集する際にメイン画像に準ずるカテゴリの画像(以下、「サブ画像」という。)とすることができる。サブ画像としては、例えば、メイン画像よりも少ない数の人物が撮影されているものや、特有の構図で撮影されているもの(足元の画像等)を選択することができる。また、時間的または空間的な指標が撮影されている画像は、撮影画像群における時間的または空間的な流れを示すカテゴリの画像(以下、「キー画像」という。)とすることができる。キー画像としては、例えば、道標や時計等の場所や時刻の目印になるような被写体が撮影されているものを選択することができる。さらに、通常の風景が撮影されている画像は、現場の臨場感を表現するカテゴリの画像(以下、「シズル画像」という。)とすることができる。シズル画像としては、例えば、人物の歩行シーンや歩行路面が撮影されているものを選択することができる。
ここで、各画像を複数のカテゴリに分類する場合、DNN(Deep Neural Network)を用いたディープラーニングを用いることができる。この場合、ユーザによって各カテゴリに予め分類された画像を教師データとし、この教師データを用いて、カテゴリの分類器に学習を行わせる。そして、学習を経た分類器に未分類の画像を入力(例えば、画素データやセンサ情報を要素として入力)することにより、各画像をいずれかのカテゴリに分類することができる。
図4は、ストーリーマップの一例を示す模式図である。
図4に示すように、ストーリーマップは、全体の再生時間が定められ、時系列にカテゴリが配列されたデータとして構成される。
そして、後述するように、ストーリーマップに配列された各カテゴリには、撮影画像群における各画像のうち、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像が選択される。このとき、選択された画像の個別再生時間がカテゴリに設定された再生時間よりも長い場合には、画像の個別再生時間がストーリーマップのカテゴリに対応する再生時間にクリッピング(ここでは超過分を削除)される。
また、図5(c)において、画像Cのカテゴリはγであり、ストーリーマップにおける2〜3秒の時間帯に設定されているカテゴリはαである。そのため、ストーリーマップにおける2〜3秒の時間帯に画像Cが選択される場合には、画像Cのスコア[7]に対して、ボーナス乗数1/2が乗算され、スコアが[3.5]に補正される。一方、画像Dのカテゴリはαであり、ストーリーマップにおける2〜3秒の時間帯に設定されているカテゴリはαである。そのため、ストーリーマップにおける2〜3秒の時間帯に画像Dが選択される場合には、画像Dのスコア[6]に対して、ボーナス乗数2が乗算され、スコアが[12]に補正される。その結果、ストーリーマップにおける2〜3秒の時間帯における補正後の画像Cのスコア[3.5]よりも、補正後の画像Dのスコア[12]の方が高くなり、画像Bに続く2〜3秒の時間帯の画像として、画像Dが選択される。
この結果、本例では各経路のうち、積算スコア[25.5]となる経路が、積算スコアが最大となる経路となる。この経路は、画像B(補正後のスコア[10])を起点ノードとして、画像D(補正後のスコア[12])と、画像E(補正後のスコア[3.5])の組み合わせからなる。即ち、画像B→画像D→画像Eの経路が最適パスとなる。
画像記憶部71には、撮影時に取得したセンサ情報と対応付けられた画像のデータが記憶される。
ストーリーマップ取得部51は、ハイライト動画生成処理において参照されるストーリーマップのデータを取得する。ストーリーマップのデータは、ユーザが生成したものを取得したり、デザイナーによってデザインされた既製のものを取得したりすることができる。
特徴量算出部53は、取得した候補画像毎に特徴量を算出する。本実施形態において、特徴量算出部53は、候補画像を画像解析した結果及び候補画像に対応付けられているセンサ情報に基づいて、各候補画像の特徴量を算出する。
カテゴリ分類部55は、DNNを用いたディープラーニングを用いて、候補画像を複数のカテゴリに分類する。本実施形態において、カテゴリ分類部55は、ユーザによって各カテゴリに予め分類された画像を教師データとし、この教師データを用いて、カテゴリの分類器に学習を行わせる。そして、カテゴリ分類部55は、学習を経た分類器に未分類の画像を入力(例えば、画素データやセンサ情報を要素として入力)することにより、各画像をいずれかのカテゴリに分類する。
動画生成部58は、画像選択部57によって選択された経路の候補画像を設定された最大再生時間に収まるように構成したハイライト動画を生成する。
図7は、生成されたハイライト動画の一例を示す模式図である。
図7に示すように、上述の手法によって候補画像から画像を選択することにより、ストーリーマップに設定されたカテゴリの時系列に則した特徴的な画像によって構成されるハイライト動画が生成される。
次に、撮像装置1の動作を説明する。
図8は、図6の機能的構成を有する図1の撮像装置1が実行するハイライト動画生成処理の流れを説明するフローチャートである。
ハイライト動画生成処理は、ユーザによる入力部18へのハイライト動画生成処理開始の操作により開始される。
ステップS2において、画像取得部52は、ハイライト動画の対象となる複数の候補画像を画像記憶部71から取得する。なお、候補画像のデータには、撮影時に取得したセンサ情報が対応付けられており、画像取得部52は、候補画像のデータを取得する際に、センサ情報のデータを併せて取得する。
ステップS3において、特徴量算出部53は、取得した候補画像毎に特徴量を算出する。このとき、特徴量算出部53は、候補画像を画像解析した結果及び候補画像に対応付けられているセンサ情報に基づいて、各候補画像の特徴量を算出する。
ステップS5において、カテゴリ分類部55は、DNNを用いたディープラーニングを用いて、候補画像を複数のカテゴリに分類する。このとき、カテゴリ分類部55は、ユーザによって各カテゴリに予め分類された画像を教師データとし、この教師データを用いて、カテゴリの分類器に学習を行わせる。そして、カテゴリ分類部55は、学習を経た分類器に未分類の画像を入力(例えば、画素データやセンサ情報を要素として入力)することにより、各画像をいずれかのカテゴリに分類する。
ステップS8の後、ハイライト動画生成処理は終了する。
このような処理により、ストーリーマップに配列された各カテゴリに対して、撮影画像群における各候補画像のうち、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する候補画像が選択される。このとき、選択された候補画像の個別再生時間がカテゴリに設定された再生時間よりも長い場合には、候補画像の個別再生時間がストーリーマップのカテゴリに対応する再生時間にクリッピングされる。
したがって、撮像装置1によれば、ユーザにとって趣向性の高い集約画像を提供することができる。
上述の実施形態において、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する候補画像を選択する場合、DTW(Dynamic Time Warping)を用いた動的計画法に基づく経路設定を行うことで、最適な画像を選択することとしてもよい。
即ち、候補画像群とストーリーマップとは、時間の長さ及びサンプルの数が異なる2つの関数として捉えることができる。
そして、DTWによって、候補画像群及びストーリーマップの各サンプル(候補画像群の各候補画像とストーリーマップに配列されている各カテゴリ)間の距離を全て算出し、これらの距離を表すマトリクスにおいて、候補画像群とストーリーマップとの距離が最短となるパスを特定する。このとき、候補画像群及びストーリーマップの各サンプル間の距離は、カテゴリ間距離として定義することができる。カテゴリ間距離は、例えば、図5(a)に示すカテゴリα、β、γにおいては、同一のカテゴリ間では距離をゼロとし、カテゴリαとβとでは距離を「5」、カテゴリαとγとでは距離を「10」、カテゴリβとγとでは距離を「10」とすることができる。
上述の実施形態において、動画である候補画像を含む候補画像群を要約したハイライト動画を生成する場合を例に挙げて説明したが、これに限られない。
例えば、静止画像である候補画像からなる候補画像群から特徴的なものを集めた集約画像(コラージュ画像、スライドショーあるいはハイライト動画等)を生成する場合にも本発明を適用することができる。
一例として、複数の静止画像からハイライト動画を生成する場合、静止画像からなる候補画像群をカテゴリに分類し、ハイライト動画における時系列のカテゴリの配列(ストーリーマップ)を用意する。そして、このストーリーマップを参照して、カテゴリに分類された複数の画像の中から、ストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像を選択して合成する。このとき、静止画像である候補画像の個別再生時間は、ストーリーマップにおいて各カテゴリの画像毎に設定された再生時間とされる。なお、画像の選択には、図5に示す選択手法や、変形例1に示す選択手法のいずれを用いることも可能である。
これにより、静止画像である候補画像からなる候補画像群から特徴的なものを集めた集約画像を生成することができる。
したがって、ユーザにとって趣向性の高い集約画像を提供することができる。
上述の実施形態において、候補画像群からストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像を選択する場合、ストーリーマップを候補画像群の長さに伸長し、伸長されたストーリーマップに配列された各カテゴリの時間帯において、同一のカテゴリの候補画像を選択することで、集約画像を生成することとしてもよい。
このとき、伸長されたストーリーマップに配列された各カテゴリの時間帯において、同一のカテゴリの候補画像を複数選択可能である場合には、画像スコアがより高い候補画像を選択することができる。
このような手法により、簡単な処理によって、候補画像群から特徴的なものを集めた集約画像を生成することができる。
上述の実施形態において、候補画像群からストーリーマップの時間軸上の位置及びカテゴリに適合(フィッティング)する画像を選択する場合に、予め個別の画像スコアを算出することなく、ストーリーマップに沿って選択されるべきカテゴリの画像から、ボーナス乗数と時間軸上の位置とによって候補画像を選択するように構成してもよい。
このような手法により、簡単な処理によって、候補画像群から特徴的なものを集めた集約画像を生成することができる。
上述の実施形態において、候補画像群からストーリーマップの時系列に沿ってボーナス乗数を考慮した画像スコアを算出するように構成したが、候補画像群を各カテゴリに分類した後、各カテゴリにおいて画像スコアの高い順にストーリーマップに必要な数だけの画像を選択して集約画像を生成するように構成してもよい。
また、上記の手法で選択した候補画像から集約画像を生成する際に、各画像の撮影タイミングの情報を読み出して、ストーリーマップに収まるような配列で集約画像を生成するように構成してもよい。
このような手法により、簡単な処理によって、候補画像群から特徴的なものを集めた集約画像を生成できる。
上述の実施形態において、候補画像群からストーリーマップの時系列に沿ってボーナス乗数を考慮した画像スコアを算出するように構成したが、候補画像群を各カテゴリに分類した後、各カテゴリからランダムにストーリーマップに必要な数だけの画像を選択して集約画像を生成するように構成してもよい。
このような手法により、画像の選択処理を簡略化することができ、且つ候補画像群から特徴的なものを集めた集約画像を生成できる。
画像取得部52は、複数の画像を取得する。
画像選択部57は、複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択する。
動画生成部58は、選択された画像を1つの画像に合成する。
これにより、複数の画像における画像の分類を考慮しつつ、画像の評価結果に基づいて、画像を選択して1つの画像に合成することができる。
したがって、ユーザにとって趣向性の高い集約画像を提供することができる。
これにより、ストーリーマップにおける注目する位置の分類と一致する画像を選択され易くすることができる。
ストーリーマップは、画像の分類の時間的な位置及び長さの配列を表す。
画像選択部57は、ストーリーマップにおける注目する位置の画像を選択する際、当該位置の時間的な長さよりも画像の再生時間が長い場合、当該画像の再生時間をクリッピングする。
これにより、選択される画像の再生時間をストーリーマップに設定された再生時間に収めることができ、ストーリーマップに設定された分類の時系列に則した画像の構成とすることができる。
カテゴリ分類部55は、画像取得部52により取得された複数の画像を、画像の内容に基づいて複数の画像群に分類する。
これにより、複数の画像を分類することができ、画像の分類を考慮して画像を選択することが可能となる。
スコア算出部54は、画像取得部52により取得された複数の画像を評価する。
これにより、画像の評価を反映させて、画像を選択することが可能となる。
例えば、上述の実施形態において、ストーリーマップは、ハイライト動画(集約画像)における時系列のカテゴリの配列を定義したものとして説明した。即ち、ストーリーマップには、選択される候補画像の時間軸上の位置及びカテゴリが定義されているものとして説明した。
これに対し、ストーリーマップには、選択される候補画像の空間上の位置及びカテゴリが定義されるものとしてもよい。この場合、ストーリーマップは、平面的な画像(静止画像)における候補画像の配置位置と、各位置に配置される候補画像のカテゴリとが定義されたものとなる。
また、静止画、動画あるいはフレーム画像のうちの複数種類を候補画像とし、これら種類の異なる候補画像から画像を選択して集約画像を生成することとしてもよい。
例えば、本発明は、ハイライト動画生成処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
換言すると、図6の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
[付記1]
複数の画像を取得する取得手段と、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記合成手段は、前記画像の分類の時間的または空間的な位置の配列を表すストーリーマップに基づいて、前記複数の画像群の少なくともいずれかから画像を選択することを特徴とする付記1に記載の画像処理装置。
[付記3]
前記合成手段は、前記ストーリーマップにおける注目する位置の画像を選択する際、当該位置の分類と前記画像の分類とが一致する場合、当該画像の評価を高める補正を行うことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記複数の画像には、動画が含まれ、
前記ストーリーマップは、前記画像の分類の時間的な位置及び長さの配列を表し、
前記合成手段は、前記ストーリーマップにおける注目する位置の画像を選択する際、当該位置の時間的な長さよりも前記画像の再生時間が長い場合、当該画像の再生時間をクリッピングすることを特徴とする付記2または3に記載の画像処理装置。
[付記5]
前記取得手段により取得された前記複数の画像を、前記画像の内容に基づいて前記複数の画像群に分類する分類手段を備えることを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
[付記6]
前記取得手段により取得された前記複数の画像を評価する評価手段を備えることを特徴とする付記1から5のいずれか1つに記載の画像処理装置。
[付記7]
画像処理装置が実行する画像処理方法であって、
複数の画像を取得する取得ステップと、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成ステップと、
を含むことを特徴とする画像処理方法。
[付記8]
コンピュータに、
複数の画像を取得する取得機能と、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成機能と、
を実現させることを特徴とするプログラム。
Claims (8)
- 複数の画像を取得する取得手段と、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成手段と、
を備えることを特徴とする画像処理装置。 - 前記合成手段は、前記画像の分類の時間的または空間的な位置の配列を表すストーリーマップに基づいて、前記複数の画像群の少なくともいずれかから画像を選択することを特徴とする請求項1に記載の画像処理装置。
- 前記合成手段は、前記ストーリーマップにおける注目する位置の画像を選択する際、当該位置の分類と前記画像の分類とが一致する場合、当該画像の評価を高める補正を行うことを特徴とする請求項2に記載の画像処理装置。
- 前記複数の画像には、動画が含まれ、
前記ストーリーマップは、前記画像の分類の時間的な位置及び長さの配列を表し、
前記合成手段は、前記ストーリーマップにおける注目する位置の画像を選択する際、当該位置の時間的な長さよりも前記画像の再生時間が長い場合、当該画像の再生時間をクリッピングすることを特徴とする請求項2または3に記載の画像処理装置。 - 前記取得手段により取得された前記複数の画像を、前記画像の内容に基づいて前記複数の画像群に分類する分類手段を備えることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
- 前記取得手段により取得された前記複数の画像を評価する評価手段を備えることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
- 画像処理装置が実行する画像処理方法であって、
複数の画像を取得する取得ステップと、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成ステップと、
を含むことを特徴とする画像処理方法。 - コンピュータに、
複数の画像を取得する取得機能と、
前記複数の画像において、前記画像の内容に基づく分類に応じた複数の画像群から、前記複数の画像が評価された評価結果に基づいて画像を選択して、1つの画像に合成する合成機能と、
を実現させることを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017087638A JP6614198B2 (ja) | 2017-04-26 | 2017-04-26 | 画像処理装置、画像処理方法及びプログラム |
US15/948,101 US10762395B2 (en) | 2017-04-26 | 2018-04-09 | Image processing apparatus, image processing method, and recording medium |
CN201810383322.7A CN108810398B (zh) | 2017-04-26 | 2018-04-25 | 图像处理装置、图像处理方法以及记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017087638A JP6614198B2 (ja) | 2017-04-26 | 2017-04-26 | 画像処理装置、画像処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018186418A true JP2018186418A (ja) | 2018-11-22 |
JP2018186418A5 JP2018186418A5 (ja) | 2019-01-10 |
JP6614198B2 JP6614198B2 (ja) | 2019-12-04 |
Family
ID=63916752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017087638A Expired - Fee Related JP6614198B2 (ja) | 2017-04-26 | 2017-04-26 | 画像処理装置、画像処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10762395B2 (ja) |
JP (1) | JP6614198B2 (ja) |
CN (1) | CN108810398B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108924626B (zh) * | 2018-08-17 | 2021-02-23 | 腾讯科技(深圳)有限公司 | 图片生成方法、装置、设备及存储介质 |
JP7308775B2 (ja) * | 2020-02-12 | 2023-07-14 | 株式会社日立ハイテク | 機械学習方法および機械学習用情報処理装置 |
JP2022103693A (ja) * | 2020-12-28 | 2022-07-08 | 京セラドキュメントソリューションズ株式会社 | 画像認識方法、画像認識装置、および画像認識プログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000125253A (ja) | 1998-10-15 | 2000-04-28 | Toshiba Corp | 動画編集装置および記録媒体 |
JP2004348674A (ja) * | 2003-05-26 | 2004-12-09 | Noritsu Koki Co Ltd | 領域検出方法及びその装置 |
JP4189811B2 (ja) | 2003-09-30 | 2008-12-03 | 日本電気株式会社 | 画像検出装置、画像検出方法及び画像検出用プログラム |
JP2007097090A (ja) * | 2005-09-30 | 2007-04-12 | Fujifilm Corp | 画像表示装置および方法ならびにプログラム、さらに写真プリント注文受付装置 |
CN101331522B (zh) | 2005-10-18 | 2012-10-10 | 富士胶片株式会社 | 图册创建设备 |
JP5664120B2 (ja) | 2010-10-25 | 2015-02-04 | ソニー株式会社 | 編集装置、編集方法、プログラム、および記録媒体 |
JP2012114559A (ja) * | 2010-11-22 | 2012-06-14 | Jvc Kenwood Corp | 映像処理装置、映像処理方法及び映像処理プログラム |
JP2014017779A (ja) | 2012-07-11 | 2014-01-30 | Sony Corp | 編集装置、編集方法、プログラム、および記録媒体 |
CN105246406A (zh) * | 2013-05-31 | 2016-01-13 | 柯尼卡美能达株式会社 | 图像处理装置以及程序 |
JP2016066343A (ja) | 2014-06-30 | 2016-04-28 | カシオ計算機株式会社 | 画像生成装置、画像生成方法及びプログラム |
US10658006B2 (en) * | 2015-11-18 | 2020-05-19 | Casio Computer Co., Ltd. | Image processing apparatus that selects images according to total playback time of image data, image selection method, and computer-readable medium |
CN105827964B (zh) * | 2016-03-24 | 2019-05-17 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
-
2017
- 2017-04-26 JP JP2017087638A patent/JP6614198B2/ja not_active Expired - Fee Related
-
2018
- 2018-04-09 US US15/948,101 patent/US10762395B2/en not_active Expired - Fee Related
- 2018-04-25 CN CN201810383322.7A patent/CN108810398B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108810398A (zh) | 2018-11-13 |
CN108810398B (zh) | 2021-01-26 |
JP6614198B2 (ja) | 2019-12-04 |
US20180314919A1 (en) | 2018-11-01 |
US10762395B2 (en) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10706892B2 (en) | Method and apparatus for finding and using video portions that are relevant to adjacent still images | |
KR101434564B1 (ko) | 촬영 정보 자동 추출 시스템 및 방법 | |
JP2011118710A (ja) | 楽曲推薦システム、情報処理装置、および情報処理方法 | |
JP2011170690A (ja) | 情報処理装置、情報処理方法、およびプログラム。 | |
JP2016118991A (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP6614198B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20150379748A1 (en) | Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image by synthesizing a plurality of images | |
JP6341184B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2018077718A (ja) | 情報処理システム、情報処理方法、およびプログラム | |
JP2022140458A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2008035125A (ja) | 撮像装置、画像処理方法およびプログラム | |
US20130051633A1 (en) | Image processing apparatus | |
US10658006B2 (en) | Image processing apparatus that selects images according to total playback time of image data, image selection method, and computer-readable medium | |
JP2019071047A (ja) | ビデオシーケンスのフレームを選択する方法、システム、及び、装置 | |
JP2006350546A (ja) | 情報処理装置、画像分類方法、および情報処理システム | |
JP2017098637A (ja) | 画像特定装置、画像特定方法及びプログラム | |
JP2005175839A (ja) | 画像表示装置、画像表示方法、プログラムおよび記憶媒体 | |
JP6720509B2 (ja) | 画像評価装置、画像評価方法及びプログラム | |
JP2015008428A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2018166314A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6418136B2 (ja) | 画像処理装置、画像選択方法及びプログラム | |
JP6555978B2 (ja) | 画像処理装置、その制御方法およびプログラム | |
JP2017184114A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6424620B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP2016181823A (ja) | 画像処理装置、画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181031 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191021 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6614198 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |