JP2017037617A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2017037617A
JP2017037617A JP2015255240A JP2015255240A JP2017037617A JP 2017037617 A JP2017037617 A JP 2017037617A JP 2015255240 A JP2015255240 A JP 2015255240A JP 2015255240 A JP2015255240 A JP 2015255240A JP 2017037617 A JP2017037617 A JP 2017037617A
Authority
JP
Japan
Prior art keywords
image
unit
evaluation
scene
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015255240A
Other languages
English (en)
Other versions
JP6525862B2 (ja
Inventor
慶範 溝口
Yoshinori Mizoguchi
慶範 溝口
加藤 真夫
Masao Kato
真夫 加藤
後藤 文孝
Fumitaka Goto
文孝 後藤
寛康 國枝
Hiroyasu Kunieda
寛康 國枝
正明 大林
Masaaki Obayashi
正明 大林
真耶 黒川
Maya Kurokawa
真耶 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/219,369 priority Critical patent/US10290135B2/en
Priority to EP16001638.2A priority patent/EP3128461B1/en
Publication of JP2017037617A publication Critical patent/JP2017037617A/ja
Application granted granted Critical
Publication of JP6525862B2 publication Critical patent/JP6525862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】レイアウト対象の画像を、当該画像のシーンの種類に応じた評価基準に基づいて選択する画像処理装置を提供する。
【解決手段】レイアウト対象の候補である複数の画像のそれぞれについて特徴量を解析する。その解析された複数の画像の特徴量に基づいて、複数の画像が分類されるシーンの種類を決定する。評価対象の画像に対して、決定されたシーンの種類に対応する評価基準に従って、当該評価対象の画像の評価を行い、複数の画像それぞれに対する評価に基づいて、当該複数の画像からレイアウトする画像を選択する。
【選択図】図4

Description

本発明は、画像データを処理する画像処理装置、画像処理方法およびプログラムに関する。
近年、カメラ機能を搭載したモバイル端末の普及を背景として、個人の撮影する画像枚数が増加している。そのため、個人の所有する画像データの総量も増加してきている。フィルムカメラが主流であった頃は少ない撮影枚数をアルバムにまとめることは比較的簡単であったが、現在のような大量の画像データをアルバムにまとめることは容易ではなくなってきている。このような大量の画像データの有効活用を促す自動レイアウト機能を持ったアルバム作成サービスが提供され始めている。
自動レイアウトとは、アルバム作成に関する一部もしくは全機能が自動処理されることを指す。例えば、アルバム掲載用に自動で画像を選択する、アルバムに使用するテンプレートを自動で決定する、テンプレートに自動で画像を割り当てる、等が該当する。自動レイアウト機能によってユーザは迅速にアルバム製作を行うことができ、理想のアルバムを作成する際の作成指針として活用することもできる。
特に、画像の自動選択に関しては、ユーザから与えられた画像を評価して得られる得点に基づいて、ユーザが好ましいと感じる画像を選択する必要がある。画像の得点化について、特許文献1には、ユーザが入力した画像群から、ある選定基準で選定された画像を自動的に評価する画像評価装置が記載されている。
特開2008−084047号公報
特許文献1のように、顔の位置関係やサイズといった顔付帯情報を評価基準とした場合、そのような評価基準に従って選択された画像で構成するアルバムは全ページにわたって同じような構図の画像が選択されやすくなる。例えば、ユーザが入力した画像群中で、旅行や日常、セレモニーといった複数の撮影シーンで撮られた画像が混在していた場合であっても、一律の評価基準で画像の選択を行うことになる。その結果、撮影シーンごとの選択画像に変化のないアルバムが完成する。結果、例えば様々な特性の画像が配置されたアルバムを望むユーザにとっては、好ましくないアルバムが作成されてしまう。
本発明の目的は、このような従来の問題点を解決することにある。上記の点に鑑み、本発明は、レイアウト対象の画像を、当該画像のシーンの種類に応じた評価基準に基づいて選択する画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
上記課題を解決するため、本発明に係る画像処理装置は、画像をレイアウトする画像処理装置であって、レイアウト対象の候補である複数の画像のそれぞれについて特徴量を解析する解析手段と、前記解析手段により解析された前記複数の画像の特徴量に基づいて、前記複数の画像が分類されるシーンの種類を決定する決定手段と、前記決定手段により決定されたシーンの種類に対応する評価基準に従って、画像の評価を行う評価手段と、前記評価手段による前記複数の画像それぞれに対する評価に基づいて、当該複数の画像からレイアウトする画像を選択する選択手段と、を備えることを特徴とする。
本発明によれば、画像のシーンの種類に応じた評価基準に基づいて、シーンの画像特徴を持った画像を選択してレイアウトすることができる。
画像処理装置のハードウェアの構成を示すブロック図である。 アルバム作成アプリケーションのソフトウェアブロック図である。 アルバム作成アプリケーションが提供する表示画面を示す図である。 自動レイアウト処理を示すフローチャートである。 画像解析情報を示す図である。 画像データ群のシーン分割の結果を示す図である。 シーン毎の平均値と標準偏差を示す図である。 得点化軸の概念を示す図である。 画像データの選択を説明するための図である。 画像データのレイアウトに使うテンプレート群を示す図である。 画像得点部の構成を示す図である。 得点化処理を示すフローチャートである。 類似のテンプレートを示す図である。 画像得点部の構成を示す他の図である。 得点化処理を示す他のフローチャートである。 画像得点部の構成を示す他の図である。 得点化処理を示す他のフローチャートである。
以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
[第1の実施形態]
本実施形態では、画像処理装置上で、アルバム作成アプリケーションを動作させ、自動レイアウト機能によりレイアウトを生成するまでの処理について説明する。
図1は、画像処理装置のハードウェアの構成を示すブロック図である。なお、画像処理装置としては、例えば、PC、スマートフォン等が挙げられ、本実施形態ではPCとする。CPU(中央演算装置/プロセッサ)101は、画像処理装置100を統括的に制御し、例えば、ROM102に記憶されたプログラムをRAM103に読み出して実行することにより、本実施形態の動作を実現する。図1では、CPUは1つであるが、複数のCPUで構成されても良い。ROM102は、汎用的なROMであり、例えば、CPU101により実行されるプログラムが記憶されている。RAM103は、汎用的なRAMであり、例えば、CPU101によるプログラムの実行時に、各種情報を一時的に記憶するためのワーキングメモリとして用いられる。HDD(ハードディスク)104は、画像ファイルや画像解析などの処理結果を保持するデータベースや、アルバム作成アプリケーションにより用いられるテンプレートなどを記憶するための記憶媒体(記憶部)である。
ディスプレイ105は、本実施形態のユーザインタフェース(UI)や画像のレイアウト結果をユーザに表示する。キーボード106及びポインティングデバイス107は、ユーザからの指示操作を受け付ける。ディスプレイ105は、タッチセンサ機能を備えても良い。キーボード106は、例えば、ユーザが、ディスプレイ105に表示されたUI上に作成したいアルバムの見開き数を入力する際に用いられる。ポインティングデバイス107は、例えば、ユーザが、ディスプレイ105に表示されたUI上のボタンをクリックする際に用いられる。
データ通信部108は、有線や無線等のネットワークを介した外部の装置との通信を行う。データ通信部108は、例えば、自動レイアウト機能によりレイアウトされたデータを画像処理装置100と通信可能なプリンタやサーバに送信する。データバス109は、図1の各ブロック間を相互に通信可能に接続する。
本実施形態におけるアルバム作成アプリケーションは、HDD104に保存され、後述するようにユーザがディスプレイ105に表示されているアプリケーションのアイコンをポインティングデバイス107によりダブルクリックして起動する。
図2は、アルバム作成アプリケーションのソフトウェアブロック図である。図2は、特に、自動レイアウト機能を実行する自動レイアウト処理部216に関するソフトウェアブロック図を示している。アルバム作成条件指定部201は、ポインティングデバイス107による後述のユーザのUI操作に応じたアルバム作成条件を自動レイアウト処理部216に出力する。
画像取得部202は、アルバム作成条件指定部201から指定された画像データ群をHDD104から取得する。画像変換部203は、以降の処理に用いる画像データを所望の画素数や色情報に変換する。本実施形態では、短辺420画素の画素数とsRGBの色情報の解析画像データに変換する。画像解析部204は、解析画像データから後述の、特徴量の取得、顔検出、表情認識、個人認識の各処理を実行する。また、画像解析部204は、HDD104から取得した画像データに付随したデータの取得、例えばExif情報から撮影日時の取得も実行する。画像分類部205は、画像データ群に対して撮影日時情報や撮影枚数、検出した顔情報等を用いて、後述のシーン分割やシーン分類を実行する。シーンとは、旅行や日常、結婚式等の撮影シーンのことである。画像得点部207は、各画像データに対してレイアウトに適した画像が高得点になるような得点付けを行う。後述するが、画像得点部207は、画像解析部204からの情報と、画像分類部からの情報を用いて得点付けを行う。
主人公情報入力部206は、アルバム作成条件指定部201から指示された主人公のID(識別情報)を画像得点部207に入力する。画像得点部207は、主人公情報入力部206から入力された主人公IDが含まれる画像データについてより高い得点を付加するように構成されている。
見開き割当部209は、画像データ群を分割してアルバムの各見開きに割り当てる。見開き入力部208は、アルバム作成条件指定部201から指定されたアルバムの見開き数を見開き割当部209に入力する。見開き割当部209は、入力された見開き数に応じて画像データ群を分割し、各見開きに画像データ群の一部(分割分)を割り当てる。画像選択部210は、見開き割当部209で各見開きに割り当てられた画像データ群の一部から、アルバム作成条件指定部201から指定されたスロット数分の画像データを、画像得点部207で付された得点に基づいて選択する。
画像レイアウト部212は、画像データのレイアウトを決定する。テンプレート入力部211は、アルバム作成条件指定部201から指定されたテンプレート情報に応じた複数のテンプレートを画像レイアウト部212に入力する。画像レイアウト部212は、画像選択部210で選択された画像データに適したテンプレートを、テンプレート入力部211から入力された複数のテンプレートから選択し、画像データのレイアウトを決定する。レイアウト情報出力部215は、画像レイアウト部212が決定した画像データのレイアウトに従って、ディスプレイ105に表示する為のレイアウト情報を出力する。レイアウト情報は、例えば、選択されたテンプレートに画像選択部210により選択された画像データをレイアウトしたビットマップデータである。
画像補正部214は、覆い焼き補正(輝度補正)、赤目補正、コントラスト補正を実行する。画像補正条件入力部213は、アルバム作成条件指定部201から指定された画像補正のON/OFF条件を画像補正部214に入力する。画像補正部214は、画像補正条件がONの場合、画像データに対して補正を実行し、画像補正条件がOFFの場合、補正を実行しない。尚、画像補正部214は、画像変換部203から入力された画像データに対して補正のON/OFFに従って、補正を実行する。画像変換部203から画像補正部214に入力される画像データの画素数は、画像レイアウト部212で決定したレイアウトのサイズに合わせて変更可能である。
アルバム作成アプリケーションは、画像処理装置100にインストールされると、画像処理装置100上で動作するOS(オペレーティングシステム)のトップ画面(デスクトップ)上に起動アイコンが表示される。ユーザがディスプレイ105に表示されているデスクトップ105上の起動アイコンをポインティングデバイス107でダブルクリックすると、HDD104に保存されているアルバム作成アプリケーションのプログラムがROM102にロードされる。ROM102のプログラムがCPU101によりRAM103に読み出されて実行されると、アルバム作成アプリケーションが起動する。
図3は、アルバム作成アプリケーションが提供する表示画面301の一例を示す図である。表示画面301は、ディスプレイ105に表示される。ユーザは表示画面301を介して後述するアルバムの作成条件を設定し、アルバム作成条件指定部201は、ユーザからの設定内容を取得する。
表示画面301上のパスボックス302は、アルバム作成の対象となる画像データ群のHDD104中の保存場所(パス)を表示する。フォルダ選択ボタン303は、ユーザからのポインティングデバイス107でのクリック操作により、アルバム作成の対象とする画像データ群を含むフォルダをツリー構成でユーザ選択可能に表示する。ユーザにより選択された画像データ群を含むフォルダパスが、パスボックス302に表示される。
主人公指定アイコン304は、ユーザが主人公を指定するためのアイコンであり、人物の顔画像がアイコンとして表示される。主人公指定アイコン304には、複数の異なる顔画像のアイコンが並んで表示され、ユーザがポインティングデバイス107によりクリックして選択可能である。見開き数ボックス305は、ユーザからのアルバムの見開き数の設定を受け付ける。ユーザは、キーボード106を介して見開き数ボックス305に直接数字を入力するか、ポインティングデバイス107を用いてリストから見開き数ボックス305に数字を入力する。
テンプレート指定アイコン306は、テンプレートのテイスト(ポップ調やシック調等)別にイラスト画像を表示する。テンプレート指定アイコン306には、複数のテンプレートアイコンが並んで表示され、ユーザがポインティングデバイス107によりクリックして選択可能である。チェックボックス307は、ユーザからの画像補正のON/OFFの指定を受け付ける。チェックが入った状態は画像補正ONが指定された状態であり、チェックが入っていない状態は画像補正OFFが指定された状態である。
ユーザによりOKボタン308が押下されると、アルバム作成条件指定部201は、表示画面301上で設定されている内容を取得する。アルバム作成条件指定部201は、取得した設定内容を、アルバム作成アプリケーションの自動レイアウト処理部216に出力する。その際、パスボックス302に入力されているパスは、画像取得部202に伝えられる。主人公指定アイコン304で選択されている主人公の個人IDは、主人公情報入力部206に伝えられる。見開き数ボックス305に入力されている見開き数は、見開き数入力部208に伝えられる。テンプレート指定アイコン306で選択されているテンプレート情報は、テンプレート入力部211に伝えられる。画像補正チェックボックス307の画像補正のON/OFF指定は、画像補正条件入力部213に伝えられる。表示画面301上のリセットボタン309は、表示画面301上の各設定情報をリセットするためのボタンである。
図4は、アルバム作成アプリケーションの自動レイアウト処理部216の処理を示すフローチャートである。図4に示すフローチャートは、例えば、CPU101がHDD104に記憶されたプログラムをROM102やRAM103に読み出して実行することにより実現される。図4を参照しながら、自動レイアウト処理を説明する。
S401では、画像変換部203は、解析画像データを生成する。画像形成変換部203は、アルバム作成条件指定部201で指定されたHDD104の画像データ群の各画像データを所望の画素数と色情報の解析画像データに変換する。本実施形態では、短辺420画素とsRGBの色情報の解析画像データに変換する。
S402では、画像解析部204は、画像特徴量を解析し、取得する。画像解析部204は、HDD104から取得した各画像データに付随する、例えばExif情報から撮影日時を取得する。また、画像解析部204は、S401で生成された解析画像データから特徴量を取得する。特徴量としては、例えば、ピントである。エッジの検出方法として一般的にソーベルフィルタが知られている。ソーベルフィルタでエッジ検出を行い、エッジの始点と終点の輝度差を、始点と終点の距離で割れば、エッジの傾きが算出される。画像中のエッジの平均傾きを算出した結果から、平均傾きが大きい画像は、平均傾きが小さい画像よりもピントが合っているとみなすことができる。そして、傾きに対して異なる値の複数の閾値を設定すれば、どの閾値以上かを判定することにより、ピント量の評価値を出力可能である。本実施形態では、異なる2つの閾値を予め設定しておき、○△×の3段階により、ピント量を判定する。例えば、アルバムに採用したいピントの傾きを○と判定し、許容可能なピントの傾きを△と判定し、許容不可能な傾きを×と判定し、各閾値を予め設定しておく。閾値の設定は、例えば、アルバム作成アプリケーションの作成元等により提供されても良いし、ユーザインタフェース上で設定可能としても良い。
S403では、画像解析部204は、S401で生成された解析画像データに対して、顔検出を実行する。ここで、顔検出の処理には、公知の方法を用いることができ、例えば、複数用意した弱識別器から強識別器を作成するAdaboostが用いられる。本実施形態では、Adaboostにより作成した強識別器により人物(オブジェクト)の顔画像が検出される。画像解析部204は、顔画像を抽出するとともに、検出した顔画像の位置の左上座標値と右下座標値を取得する。この2種の座標を持つことにより、画像解析部204は、顔画像の位置と顔画像のサイズを取得可能である。ここで、顔に限らず、犬や猫等の動物、花、食べ物、建物、置物等のオブジェクトを顔の代わりの検出対象としてAdaboostにより強識別器を作成しても良い。これにより、画像解析部204は、顔画像以外のオブジェクトを検出することができる。
S404では、画像解析部204は、S403で検出した顔画像と、顔辞書データベースに個人ID毎に保存されている代表顔画像との類似性を比較することにより、個人認識を行う。画像解析部204は、類似性が閾値以上で類似性が最も高いIDを、検出した顔画像のIDとする。尚、類似性が閾値未満の場合、画像解析部204は、抽出した顔画像を新規の顔として新規の個人IDとして顔辞書データベースに登録する。
画像解析部204は、S402〜S404で取得した画像解析情報を、図5に示すように各画像を識別するID毎に区別して、ROM103等の記憶領域に記憶する。例えば、図5に示すように、S402で取得された撮影日時情報とピント判別結果、S403で検出された顔画像の数と位置情報とがテーブル形式で記憶される。尚、顔画像の位置情報は、S404で取得された個人ID毎に区別して記憶される。
S405では、アルバム作成条件指定部201で指定されたHDD104の画像データ群の全画像データに対してS401〜S404の処理が終了したか否かが判定される。ここで、終了していないと判定された場合、S401からの処理を繰り返す。終了していると判定された場合、処理はS406に進む。
S406では、画像分類部205は、シーン分割を実行する。画像分類部205は、S402で取得済みの撮影日時情報から算出した画像と画像の時間差に基づいて、画像データ群を複数のシーンに分割する。本実施形態では、例えば、画像データ間に撮影していない日が存在する場合、その部分を基準として分割が行われる。分割は、他の基準により行われても良い。例えば、撮影日が連続する場合にも分割が行われる場合、時間差が16時間以上空いていれば、その部分を基準として分割が行われる。また、16時間未満の場合は、連続する各日の最初の撮影から最後の撮影までの時間差が4時間未満であれば、分割が行われる。4時間以上の場合は、連続する各日の撮影枚数が50枚未満なら分割が行われ、50枚以上なら分割は行われない。図6(A)は、上記のシーン分割方法で画像データ群がシーン分割された結果の一例を示す図である。
S407では、画像分類部206は、シーン分類を実行する。本実施形態では、画像分類部206は、例えば、シーン分割された分割分の画像データを、旅行、日常、セレモニーのいずれかのシーンの種類に分類する。ここで、図4の自動レイアウト処理部が開始される前に、予め、ユーザは、旅行、日常、セレモニーのシーンであると判断した複数の画像データをそれぞれ集めて指定している。
ここで、予め行われるユーザによる指定について説明する。
例えば、アルバム作成条件指定部201は、不図示のユーザインタフェース画面上で、ユーザが旅行シーンであると判断した複数の画像データの指定を受け付ける。そして、画像解析部204は、それらの画像データについて、特徴量を取得する。ここで、取得される特徴量は、例えば、撮影期間、撮影枚数、撮影人数である。撮影期間は、複数の画像データの最初の撮影から最後の撮影までの時間差である。撮影枚数は、複数の画像データの撮影枚数である。撮影人数は、撮影された顔の数である。その結果、ユーザが旅行シーンであると判断した複数の画像データから成る1画像データ群について、撮影期間、撮影枚数、撮影人数の特徴量が取得される。
そして、画像解析部204は、上記のような撮影期間、撮影枚数、撮影人数の特徴量の取得を、ユーザがさらに指定した他の画像データ群についても行う。そして、画像解析部204は、複数の画像データ群から取得された特徴量に基づいて、撮影期間の平均値と標準偏差、撮影枚数の平均値と標準偏差、撮影人数の平均値と標準偏差を求める。図7は、上記の求められた、シーンの複数種類(旅行、日常、セレモニー)のそれぞれに対応する各平均値と標準偏差を示しており、画像解析部204は、これらの値をROM102等の記憶領域に予め記憶しておく。または、アルバム作成アプリケーションのプログラムに予め組み込まれるようにしても良い。図7に示した各平均値と標準偏差が、シーンの複数種類のそれぞれに対応する画像を選択する際の選択基準(画像の評価基準)に反映される。詳細は後述する。
再び、図4の処理を説明する。アルバム作成アプリケーションが起動された後、ユーザがパスボックス302で指定した画像データ群がS406でシーン分割された各分割分に対して、画像分類部206は、撮影期間、撮影枚数、撮影人数の各特徴量の得点を算出する。画像分類部206は、各分割分の撮影期間、撮影枚数、撮影人数の得点、及びそれらの平均得点を、図7に示すシーン毎の平均値と標準偏差を用いて式(1)及び(2)より算出する。
得点 = 50−|10×(平均値−特徴量)/標準偏差| ・・・(1)
平均得点 = (撮影期間の得点+撮影枚数の得点+撮影人数の得点)/特徴量項目数・・・(2)
算出の結果、各分割分の画像データに対して、旅行、日常、セレモニーのシーン毎の平均得点が算出される。そして、画像分類部206は、各分割分の画像データを、上記のうち最高得点に対応するシーンに分類する。図7に示したシーンの複数種類のそれぞれに対応する各平均値と標準偏差が、シーンの複数種類のそれぞれに対応する画像を選択する際の選択基準(画像の評価基準である(式(1))に反映される。そのため、シーンの種類に対して適切な選択基準により画像を選択することができる。
ここで、同点のシーンとなった場合には、予め定められたシーンの優先順位に従って分類する。例えば、本実施形態では、日常>セレモニー>旅行の優先順位が定められており、日常シーンの優先度が最も高い。例えば、図6(A)のシーン分割された後の画像データ群5は、撮影期間が36時間、撮影枚数が300枚、撮影人数が1.7人であった。上記の式(1)及び(2)により算出された旅行シーンの平均得点は45.32、日常シーンの平均得点は18.38、セレモニーシーンの平均得点は−29.92となる。従って、画像データ群5は、旅行シーンに分類される。画像分類部206は、分類されたシーンに対して、識別可能なようにシーンIDを付与して管理する。
S408では、S406で分割された全分割分に対してS407のシーン分類が終了したか否かが判定される。ここで、終了していないと判定された場合、S407からの処理を繰り返す。終了していると判定された場合、処理はS409に進む。
S409では、画像得点化部207は、主人公設定を実行する。主人公設定は、ユーザが指定した画像データ群に対して実行され、自動と手動の2種類の設定方法のいずれかにより行われる。画像得点化部207は、S404で実行された個人認識結果と、S406で実行されたシーン分割の結果から、画像データ群に登場する各個人IDの回数、各シーンに登場する各個人ID回数、各個人IDが登場するシーン回数等を取得可能である。画像得点化部207は、それらの情報から、ユーザ指定によらず自動で主人公を設定する。本実施形態では、画像得点化部207は、シーンが複数ある場合、複数のシーンでの登場回数が多い個人IDを主人公IDと設定し、単一のシーンのみである場合、単一シーンにおいて登場回数が多い個人IDを主人公IDと設定する。
また、ユーザが主人公設定アイコン304を指定している場合、主人公情報入力部206は、その指定されている個人IDを画像得点部207に伝える。ユーザにより個人IDが指定されている場合、画像得点化部207は、上記の自動で設定された主人公IDによらず、ユーザにより指定された個人IDを主人公IDとして設定する。この設定を手動設定と呼ぶ。
S410では、画像得点化部207は、得点化(画像の評価)を実行する。得点化とは、画像データ毎に後述の観点で評価した得点を付与する(スコアリング)ことであり、後述の、レイアウトに用いられるレイアウト対象の画像データの選択時に参照される。図10は、画像データのレイアウトに使うテンプレート群を示す図である。テンプレート1001は1枚のテンプレートであり、スロット1002はメインスロットを示し、スロット1003と1004はサブスロットを示す。メインスロット1002は、テンプレート1001内でメインとなるスロット(画像をレイアウトする枠)であり、サブスロット1003と1004よりもサイズが大きい。メインスロットに対しては、そのページに割り当てられた画像データ中で最も優れていると判断された画像データがメイン画像として選択される。ページに割り当てられた画像データが全て同じシーンに分類されている場合、メインスロットに対して選択される画像データは、シーンの画像特徴を最も備える画像データであると言える。画像得点化部207は、各画像データに対して、メインスロット用の得点とサブスロット用の得点の両方を付与する。なお、本実施形態ではテンプレートにメインスロットとサブスロットの2種類の基準を用意しているが、スロットの種類の個数は限定されない。例えば、メインスロット、サブスロットに加えて背景用スロットがあっても良い。その場合でもメインスロットとなるテンプレート内のサイズが大きいスロットにはシーンの画像特徴を最も備えた画像データが選択される。
図8(A)は、得点化軸の概念を示す図である。図8(A)は、S407のシーン分類により分類される旅行シーン、日常シーン、セレモニーシーンについて示している。一般的に、旅行シーン、日常シーン、セレモニーシーンではそれぞれ好ましいと考えられる写真の観点は異なる。旅行シーンにおける最も好まれる構図とは、例えば、旅先での象徴的な景色と旅行の主役となる人物が一緒に写っている写真である。また、セレモニーシーンでは、例えば、新郎新婦が2人で寄り添う構図の写真(2人の距離が近い写真)が好まれる。
また、各シーンにおいて好ましいと考えられる写真は1種類であるとは限らない。旅行シーンは上述の人物及び風景写真以外にも、顔がアップや横顔である写真、旅行に同伴した人物や出会った人との記念写真や、旅先での食べ物や建物、風景の写真なども好ましいと考えられる場合がある。
このように、シーンごとに好ましい写真の条件は異なり、またシーン内においても好ましい写真の条件は1つ以上か複数存在する。本実施形態では、画像データについてメインスロット用の得点とサブスロット用の得点との2パターンの得点を算出するために、図8(A)に示すように、各シーン内において好ましい写真の条件を2つ設定する。
図4の自動レイアウト処理部が開始される前に、予め、ユーザは、図8(A)に示す各シーンのメインスロット向きとサブスロット向きの特徴に適合すると判断した複数の画像データを集めて指定している。
ここで、予め行われるユーザによる指定について説明する。
例えば、アルバム作成条件指定部201は、不図示のユーザインタフェース画面上でユーザが旅行シーンのメインスロット向き(又は、サブスロット向き)であると判断した複数の画像データの指定を受け付ける。画像解析部204は、指定された各画像データの顔の数、顔の位置、顔のサイズの特徴量を取得する。その結果、ユーザが例えば旅行シーンのメインスロット向き(又は、サブスロット向き)であると判断した複数の画像データそれぞれについて、顔数、顔の位置、顔サイズの特徴量が取得される。そして、画像解析部204は、顔数の平均値と標準偏差、顔の位置の平均値と標準偏差、顔サイズの平均値と標準偏差を求める。画像解析部204は、各シーン各スロット種類(メインスロットとサブスロット)について、上記のように、各特徴量の統計値として平均値と標準偏差を求める。画像解析部204は、これらの値をROM102等の記憶領域に予め記憶しておく。または、アルバム作成アプリケーションのプログラムに予め組み込まれるようにしても良い。
画像得点化部207は、評価対象である各画像データがどのシーンに属すかについて、S407のシーン分類の結果から取得可能である。画像得点化部207は、注目画像データのシーンに対応する予め求めておいた上記の平均値と標準偏差、および注目画像データの主人公IDの顔数、顔位置、顔サイズの各特徴量を用いて、式(3)及び(4)により、評価対象の画像の平均得点を算出する。
得点 = 50−|10×(平均値−特徴量)/標準偏差| ・・・(3)
平均得点 = (顔数の得点+顔位置の得点+顔サイズの得点)/特徴量項目数 ・・・(4)
画像の評価基準である式(3)では、図7に示したシーンの複数種類のそれぞれに対応する各平均値と標準偏差に従って、各画像に対応するシーンの種類に対して求められた平均値、標準偏差が適用される。そのため、シーンの種類に対して適切な選択基準(画像の評価基準)により画像を選択することができる。
画像得点化部207は、上記の得点化を、メインスロット用とサブスロット用の両方について実行する。ここで、アルバムに用いる画像はピントが合っている方が好ましいので、図5に示すピントの特徴量が○である画像IDの画像データに対しては所定の得点を加算するようにしても良い。図8(B)は、上記の得点化による得点結果の一例を示しており、各画像IDに対して、メインスロットとサブスロットについて得点化されている。
つまり、本実施形態では、各シーンについてメインスロットとサブスロットに適する条件が図8(A)に示すように定められており、予め、ユーザは、それらに適するであろうと判断した画像データを指定している。画像解析部204は、そのユーザから指定された画像データについて、顔数、顔位置、顔サイズの特徴量を取得し、特徴量ごとに平均値と標準偏差を求めておく。そして、アルバム作成アプリケーションの起動後、図4の自動レイアウト処理が開始されると、自動レイアウト処理対象の各画像データ(シーン分類済)が、どの程度、メインスロット向きである等のユーザ判断基準に近いかを示す得点化(類似度)が行われる。例えば、図8(B)では、画像ID1は、メインスロット用として20点が付与され、画像ID2は、メインスロット用として45点が付与されている。これは、つまり、メインスロット用としては、画像ID2の方がユーザの判断基準により近いということを表している。
画像得点部207の構成について説明する。図11は、画像得点部207の構成を示す図である。画像群取得部1101は、ユーザから入力された画像データ群を取得する。画像群取得部1101は、画像データ群取得時に、S406でシーン分割されたシーン分割情報も取得する。
色解析情報取得部1102は、S402で取得された画像特徴量を取得する。また、色解析情報取得部1102は、画像の撮影日時情報、画像の色合いやエッジ、ピント量などの解析情報も取得する。人物関連解析情報取得部1103は、S403での顔検出およびS404での個人認識の処理結果を取得する。また、人物関連解析情報取得部1103は、S409での主人公設定の情報も取得する。
画像解析情報格納部1104は、色解析情報取得部1102および人物関連解析情報取得部1103で取得した各種画像解析情報を包括して管理する。また、画像解析情報格納部1104は、色解析情報取得部1102および人物関連解析情報取得部1103から算出・推量可能な副次的な特徴も管理する。例えば、画像解析情報格納部1104は、S403で得られる各顔の位置だけでなく、そこから推量可能な各顔同士の距離も管理する。画像解析情報格納部1104で管理される画像解析情報は、これに限定されない。例えば、色解析情報取得部1102および人物関連解析情報取得部1103で取得した情報だけでない副次的情報が管理されても良い。また、画像解析情報格納部1104は、色解析情報取得部1102または人物関連解析情報1103の一方のみを使用する場合もある。
シーン格納部1105は、撮影シーンの各種類と、各撮影シーンであると判断するためのシーン分類方法が格納されている。本実施形態では、旅行シーン、日常シーン、セレモニーシーンの3種類と、各シーンを判別するためのシーン分類方法が格納される。例えば、シーン格納部1105は、図7や図8(A)に示す情報を格納する。
シーン判定部1106は、画像解析情報格納部1104で管理される画像解析情報から、画像の撮影シーンを判定する。シーン判定部1106は、S407でのシーン分類に相当する処理結果を取得する。本実施形態では、各画像データは、画像解析情報に基づいて、旅行シーン、日常シーン、セレモニーシーンに分類される。シーン判定部1106でのシーン分類処理によって、各画像データの撮影シーンが決定する。
パラメータ設定部1107では、決定した撮影シーンに基づいて得点化に用いるパラメータを設定する。本実施形態では、パラメータは、例えば、所定のシーンにおける顔数/顔の位置/顔サイズそれぞれについての平均値および標準偏差である。パラメータは予め決定されたパラメータが使用されても良いし、ユーザの経験則によりまたはシステム実行時にユーザにより設定されても良い。
得点化部1108、1109、1110は、パラメータ設定部1107からそれぞれ別々のパラメータが与えられる。各得点化部は、パラメータ設定部1107から設定されたパラメータと、画像解析情報格納部1104で取得される画像解析情報とから、画像データの得点化を行う。本実施形態においては、得点化部1108、1109、1110で取得される得点のいずれかが、メインスロット1002についての得点、サブスロット1003および1004の得点に対応する。得点化部の個数は限定されない。例えば、アルバム作成に要求される得点化軸が3つ以上であれば、3つ以上の得点化部により得点化を実行する。また、3つ未満の得点化軸で十分である場合は、3つ未満の得点化部により得点化を実行する。
以上が、画像得点化部207の説明である。この処理構成で、各画像データの得点を算出することで、画像データの撮影シーンに応じた得点化軸で得点化を実行することができる。撮影シーン間で得点化軸およびパラメータの決め方が一律とならないので、撮影シーンやスロットの種類ごとに最適な構図や人数構成の画像データを取得することができる。
図12は、画像得点化部207における、シーン分類後の得点化処理を示すフローチャートである。
S1201では、画像解析情報格納部1104は、色解析情報取得部1102及び人物関連解析情報取得部1103から画像解析情報を取得して設定する。S1202では、シーン判定部1106は、シーン格納部1105で用意されていたシーン分類方法に基づいて分類された画像の撮影シーンを設定する。
S1203では、設定された画像の撮影シーンに基づいて、撮影シーンにおける複数の得点化軸を取得するためのループ処理が実行される。本実施形態では、得点化軸とは、例えば、メインスロットやサブスロットについての得点化である。S1204では、パラメータ設定部1107は、設定された画像の撮影シーンにおける、各得点化軸において要求されるパラメータを設定する。S1205では、得点化部1108、1109、1110は、設定されたパラメータに従って得点化を行う。本実施形態では、得点化は、上述の式(3)や(4)により算出される。
S1204で設定されるn個のパラメータには、判定閾値および判定重み情報が関連付けられている。本実施形態では、n個のパラメータとは、例えば、上述のメインスロットについての顔数/顔の位置/顔サイズである。判定閾値及び判定重み情報は、各得点化軸e(i,j)における各パラメータに対応したn個分が確保される。ここで、iは、S1202で設定された画像の撮影シーンのIDに対応する。また、jは、撮影シーンにおける複数の得点化軸に対応する。
判定閾値と判定重み情報について説明する。S1201において取得した画像解析情報と判定閾値Th(n,e(i,j))とを比較する。画像解析情報の値が判定閾値Th(n,e(i,j))を上回っていれば、判定重み情報の値W(n,e(i,j))を式(4)の該当パラメータ(例えば、顔数の得点)に反映する。式(4)の各パラメータに判定重み情報が反映された値が最終的な得点となる。
このように、式(3)や(4)により算出されるばかりでなく、各得点軸における最終的な得点に、各パラメータが持つ判定重み情報の値が反映されるようにしても良い。上記のような判定閾値および判定重み情報により、得点化軸によっては重みが0であるパラメータ(使用しないパラメータ、例えば顔のサイズを使用しない)や、どの撮影シーンや得点化軸であっても共通で使用するパラメータなどを柔軟に設定することができる。
本実施形態では、図8(B)に示すようなメインスロットについての得点、サブスロットについての得点が、各画像データに対して付与される。各得点化軸における得点化により、ユーザ所望の条件に合致した画像データが、他の画像データとどれほどの優劣を持っているかが定量的に判定可能となる。また、異なる得点化軸間(例えば、メインスロットとサブスロット間)であっても優劣の評価が行えるように、得点の正規化を行うようにしても良い。
再び、図4を参照する。
S411では、画像得点部207は、ユーザ指定の画像データ群の全て画像データに対してS410の画像得点化が終了したか否かを判定する。終了していないと判定された場合、S410からの処理を繰り返す。終了していると判定された場合、S412に進む。
S412では、見開き割当部209は、S406でのシーン分割の分割数が見開き数入力部208から入力されるアルバムの見開き数と同じであるか否かを判定する。同じでないと判定された場合、S413に進む。同じであると判定された場合、S416に進む。例えば、図6(A)に示すようにシーン分割数が8であり、見開き数入力部208の入力数が8である場合、S416に進む。
S413では、見開き割当部209は、S406でのシーン分割の分割数が見開き数入力部208から入力される見開き数より少ないか否かを判定する。少なくない(多い)と判定された場合、S415に進む。少ないと判定された場合、S414に進む。図6(A)に示すようにシーン分割数が8であり、見開き数入力部208の入力数が10である場合、S414に進む。
S414では、見開き割当部209は、サブシーン分割を実行する。サブシーン分割とは、シーン分割数<アルバムの見開き数の場合に、分割されたシーンを更に細分割することを表す。図6(A)のシーン分割数8に対して指定されたアルバムの見開き数が10の場合で説明する。図6(B)は、図6(A)をサブシーン分割した結果を示す。破線矢印の箇所で分割したことで、分割数を10にしている。
分割の基準について説明する。図6(A)の分割の中で、画像枚数が多い分割箇所が検索される。ここでは、分割数を8から10に2箇所増やすために、画像枚数が多い2箇所を決定する。図6(A)では、多い方から画像群5、次に、画像群1と画像群2である。画像群1と画像群2は同じ枚数だが、画像群2の方が最初の画像から最後の画像の時間差が大きいので、画像群2を分割対象とし、画像群5と画像群2をそれぞれ分割する。
まず、画像群2の分割を説明する。画像群2には画像枚数の山が2つあり、この2つは撮影日が違うので、その部分に対応する図6(B)の破線矢印の箇所で分割する。次に、画像群5の分割を説明する。画像群5には画像枚数の山が3つあり、3日連続である。撮影日が変わる箇所が2箇所あるが、分割後の枚数差が小さくなるように、図6(B)の破線矢印の箇所で分割する。以上のように、分割数を8から10にする。ここでは、撮影日の異なる箇所で分割したが、画像枚数が多い箇所が単一日である場合、単一日の中で時間差が最大の箇所で分割するようにしても良い。
S415では、見開き割当部209は、シーン統合を実行する。シーン統合とは、シーン分割数>アルバムの見開き数の場合、分割されたシーンを統合することを表す。図6(C)は、図6(A)をシーン統合した結果を示す。破線の箇所を統合したことで、分割数を6にしている。
統合の基準について説明する。図6(A)の分割の中で、画像枚数が少ない分割箇所が検索される。ここでは、分割数を8から6に2箇所減らすために、画像枚数が少ない2箇所を決定する。図6(A)では、少ない方から画像群8、画像群3、画像群7である。画像群3と画像群7は同じ枚数である。但し、画像群7に隣接する画像群8が統合対象であるので、画像群3を統合対象とする。結果、画像群8と画像群3それぞれの統合が行われる。
まず、画像群3の統合を説明する。画像群3の前後の画像群2と画像群4との時間差を比較すると、画像群4との時間差の方が小さい。従って、図6(C)の破線箇所に示すように、画像群3を画像群4に統合する。次に、画像群8の統合を説明する。画像群8は、後続の画像群がないので、図6(C)の破線箇所に示すように、前の画像群7と統合される。
S416では、見開き割当部209は、見開き割当を実行する。S412〜S415によって、シーン分割数と指定見開き数は同じとなっている。見開き割当部209は、撮影日時順に先頭の分割から見開きの先頭に順に割り当てる。
S417では、画像選択部210は、画像選択を実行する。以下、ある見開きに割り当てられた画像データ群の分割分から画像データを4枚選択する例を、図9を参照しながら説明する。
図9(A)に示すスタート〜エンドの区間は、見開きに割り当てられた分割分の、最初の画像データの撮影日時から最後の画像データの撮影日時までの時間差(分割撮影期間)を示している。図9(B)を参照しながら、1枚目を選択する方法を説明する。テンプレートには、1枚のメインスロット1002がある。従って、1枚目として、メインスロット用の画像データが選択される。メインスロットはテンプレート中で最も大きいスロットを示す。メインスロットには、見開きに割り当てられた分割分の複数の画像データが分類されたシーンに対して、シーンの画像特徴を最も備えた画像データが選択される。その時の選択基準として、図9(B)に示す分割分の撮影期間に対応する複数の画像データのうち、S410で付与されたメインスロット用の得点が最高点の画像データが選択される。2枚目以降としては、サブスロット用の画像データが選択される。
本実施形態では、分割分の撮影期間の一部に集中しないように、画像選択が行われる。以下、本実施形態における、分割分の撮影期間を細分化する方法について説明する。図9(C)に示すように、分割分の撮影期間を2分割する。次に、図9(D)に示すように、1枚目が選ばれていない実線の撮影期間から2枚目が選択される。図9(D)の実線の撮影期間に対応する複数の画像データのうち、サブスロット用の得点が最高点の画像データが選択される。
次に、図9(E)に示すように、図9(D)の各分割分の撮影期間を2分割する。そして、図9(F)に示すように、1枚目と2枚目が選ばれていない実線の撮影期間に対応する複数の画像データのうち、サブスロット用の得点が最高点の画像データが3枚目として選択される。
画像データの選択対象の撮影期間に画像データが存在せず、そのため選択できない場合について、4枚目の選択を例として説明する。図9(G)は、まだ画像データが選択されていない斜線の撮影期間から4枚目を選択しようとする場合、この斜線の撮影期間には画像データが存在しない例を示す。この場合、図9(H)に示すように、各分割分の撮影期間を2分割する。次に、図9(I)に示すように、1〜3枚目が選ばれていない実線の撮影期間に対応する複数の画像データのうち、サブスロット用の最高点の画像データが4枚目として選択される。
このようにメインスロットとサブスロットのように、異なる得点化軸によって得られた得点に基づいて画像データの選択を行うことで、レイアウトに選択される画像データにバリエーションを持たせることができる。つまり、異なる判断基準の画像データを選択することができるので、変化に富むアルバムを作成することができる。
再び、図4を参照する。S418では、画像レイアウト部212は、画像レイアウトの決定を行う。以下、テンプレート入力部211が、指定されたテンプレート情報に従って、ある見開きに対して図10の(a)〜(p)を入力する例を説明する。
ここでは、入力されたテンプレートのスロット数は一例として3と指定されている。選択されている画像データ3枚の画像の向きが縦方向か横方向かを撮影日時について並べると、図10(A)のようであるとする。ここでは、画像データ1005がメインスロット用であり、画像データ1006と1007がサブスロット用である。本実施形態では、テンプレートの左上に撮影日時のより古い画像データがレイアウトされ、右下に撮影日時のより新しい画像をレイアウトされる。図10(A)では、メインスロット用画像データ1005は撮影日時が一番新しいので、図10(m)〜(p)のテンプレートが候補となる。また、サブスロット用の古い方の画像データ1006が縦画像であり、新しい方の画像データ1007が横画像であるので、結果、図10(n)のテンプレートが、選択された3つの画像データに最も適したテンプレートとして決定され、レイアウトが決まる。
このとき、仮に、図10(n)のテンプレートに対して、スロット数や各スロットの縦横、位置も合致しており、メインスロットの大きさが図10(n)よりも大きい、図13に示すテンプレートが検索されたとする。つまり、選択された画像データ同士の撮影日時の順序や縦横位置に基づいて、なお、複数のテンプレート候補が存在した場合、本実施形態では、各画像データの得点差からテンプレートを選定する。例えば、メインスロットの画像データの得点が、複数のサブスロットの画像データの平均得点よりも所定の閾値を超えて大きい場合、メインスロットがより大きい図13のテンプレートが選択される。一方、閾値を超えていない場合、図10(n)のテンプレートが選択される。上記は、メインスロットについて他のテンプレートが検索された場合を説明したが、サブスロットについて同様に他のテンプレートが検索された場合、他のスロットの平均得点と比較するようにしても良い。S418では、どの画像をどのテンプレートのどのスロットにレイアウトするかが決定される。
S419では、画像補正部214は、画像補正を実行する。画像補正部214は、画像補正条件入力部213から画像補正ONが入力された場合、画像補正を実行する。画像補正として、例えば、覆い焼き補正、赤目補正、コントラスト補正が実行される。画像補正部214は、画像補正条件入力部213から画像補正OFFが入力された場合、画像補正を実行しない。画像補正は、例えば、短辺1200画素で、sRGBの色空間にサイズが変換された画像データに対しても実行可能である。
S420では、レイアウト情報出力部215は、レイアウト情報を作成する。画像レイアウト部212は、S418で決定されたテンプレートの各スロットに対して、S419の画像補正が実行された画像データをレイアウトする。このとき、画像レイアウト部212は、スロットのサイズ情報に合わせてレイアウトする画像データを変倍してレイアウトする。そして、レイアウト情報出力部215は、テンプレートに画像データをレイアウトしたビットマップデータを生成する。
S421では、S417〜S420の処理が全ての見開きに対して終了したか否かが判定される。終了していないと判定された場合、S417からの処理を繰り返す。終了していると判定された場合、図4の自動レイアウト処理は終了する。
以上のように、本実施形態によれば、画像解析情報に従って自動で分類された撮影シーンごとに、得点化の基準が変化する。そのため、シーンごとに異なる構図の画像データを選択することができる。また、様々な観点についてシーンごとに好まれる構図を自動的に高得点にすることができ、アルバム作成において、様々な観点での画像選択を実現することができる。また、同一シーンでも複数の得点化軸を用いることで、レイアウト内が全て同一シーンの画像で構成されていても、様々な観点からの画像選択を実現することができる。
[第2の実施形態]
第2実施形態では、得点化時に得られた各得点化軸における得点を重み付けし、それらを統合した、複数の統合得点を算出する。以下、第1の実施形態と異なる点について説明する。
図14は、本実施形態における、統合得点を算出する画像得点化部207の構成を示す図である。図11と同じ符号が付与されているブロックは第1の実施形態での説明と同じであるので、その説明を省略する。
統合重み設定部1401は、各画像データに対してシーン判定部1106で得られたシーン分類結果に従って、得点化部1108、1109、1110の得点をどのような重み付けで統合するかを設定する。
統合得点取得部1402、統合得点取得部1403、統合得点取得部1404は、統合重み設定部1401からそれぞれ別々の統合時の重み付けが与えられる。各統合得点取得部は、得点化部1108、1109、1110で得られた各得点と、統合重み設定部1401で得られる各得点に対する統合時の重み付けを用いて、式(5)のように合算された統合得点を取得する。
D/E/F = αA+βB+γC ・・・(5)
ここで、Dは統合得点取得部1402で取得される得点であり、Eは統合得点取得部1403で取得される得点であり、Fは統合得点取得部1404で取得される得点である。α、β、およびγは、重み付けであり、統合重み設定部1401により設定される。または、不図示のユーザインタフェース画面上での設定値を、アルバム作成条件設定部201を介して取得するようにしても良い。また、A、B、Cは、得点化部1108、1109、1110で得られる各得点に対応する。
本実施形態では、得点化部1108における得点は全て、人物関連解析情報取得部1103で得られる人物関連解析情報に基づいて算出された得点である。例えば、得点化部1108での得点化に使用されるパラメータは、メインスロットについて、顔検出結果の顔の個数や顔の向き、顔の位置などの顔に関する付帯情報である。
また、得点化部1109における得点は全て、色解析情報取得部1102で得られる色解析情報に基づいて算出された得点である。例えば、得点化部1109での得点化に使用されるパラメータは、メインスロットについて、画像の輝度成分、彩度成分、ピント情報などの画像の各画素から得られる付帯情報である。
また、得点化部1110における得点は全て、画像解析情報格納部1104で得られる全ての画像解析情報に基づいて算出された得点である。例えば、得点化部1110での得点化に使用されるパラメータは、メインスロットについて、得点化部1108、1109で使用されるパラメータから得られるパラメータであり、人物間の位置関係情報など画像解析情報から得られる副次的な情報も含まれる。本実施形態では上記のような割り当てで3つの統合得点化軸を定義しているが、これに限定されない。
本実施形態では、統合得点取得部1402、1403、1404で取得できる得点のいずれかが、メインスロット1002の得点、サブスロット1003および1004の得点に対応する。得点化部および統合得点取得部の個数は3つに限定されない。例えば、アルバム作成に要求される得点化軸または統合得点化軸が3つ以上であれば3つ以上の得点化軸または統合得点化軸で得点化を実行する。また、3つ未満の得点化軸または統合得点化軸で十分である場合は、3つ未満の得点化軸または統合得点化軸で得点化を実行する。
S417で画像選択が実行される際に、メインスロット、サブスロットに入れる画像データを、統合重み設定部1401により制御することができる。例えば、統合得点取得部1402の統合得点Dがメインスロットの画像データを選択する際に考慮する得点であり、セレモニーシーンでは、人物が写っている写真をメインスロットに選択させたいとする。その場合、統合重み設定部1401は、得点化部1108の得点に関する重み(式(5)におけるαに対応)をβ及びγより強めた式(5)の条件を、統合得点取得部1402に設定する。
また、旅行シーンでは、人物が写っていない風景写真もメインスロットに選択させたいとする。その場合、統合重み設定部1401は、得点化部1109の得点に関する重み(式(5)におけるβに対応)をα及びγより強めた式(5)の条件を、統合得点取得部1402に設定する。
上記の他、サブスロットに人物が写っている写真、写っていない写真をどの程度の割合で選択させるかについて、統合重み設定部1401は、得点化部1108および1109の得点に関する重みを撮影シーン間で変更することで調整することができる。ここでの重み調整が、結果的にレイアウト上に選択される写真の人物写真および非人物写真の比率に影響する。
図15は、本実施形態における得点化処理を示すフローチャートである。
S1201では、画像解析情報格納部1104は、色解析情報取得部1102及び人物関連解析情報取得部1103から画像解析情報を取得して設定する。S1202では、シーン判定部1106は、シーン格納部1105で用意されていたシーン分類方法に基づいて分類された画像の撮影シーンを設定する。
S1203では、設定された画像の撮影シーンに基づいて、撮影シーンにおける複数の得点化軸を取得するためのループ処理が実行される。本実施形態では、ここでの得点化軸とは、例えば、人物関連解析情報に基づく得点化である。S1204では、パラメータ設定部1107は、設定された画像の撮影シーンにおける、各得点化軸において要求されるパラメータを設定する。S1205では、得点化部1108、1109、1110は、設定されたパラメータに従って得点化を行う。得点化は、上述の式(3)や(4)により算出される。
S1501では、S1205で得られた各得点軸に関して複数の統合得点を算出するためのループ処理が実行される。本実施形態では、ここでの得点化軸とは、例えば、メインスロットやサブスロットについての得点化である。S1502では、統合重み設定部1401は、各統合得点を算出する際に、S1205で得られた各得点に対してどの程度の重み付けにより統合を行うかを設定する。S1503では、統合得点取得部1402、1403、1404は、S1502で設定された重み付けに従って、各画像データについて、得点化部1108、1109、1110での得点を重み付けて統合する。
第2の実施形態によると、シーンに合わせた複数の得点化軸(得点化部A〜C)で得点化を行うだけでなく、各得点をそれぞれ重み付けて加算した統合得点を算出する。そして、統合得点をアルバムレイアウトでの画像選択に使用することで、第1実施形態のようにメインスロット1枚、サブスロット2枚といった構成においても、以下のような効果が得られる。
・複数のサブスロットに対して、異なる構図の画像を選択することができる。
・複数のサブスロットに関する画像データの人物画像・非人物画像の比率をシーンごとに調整することができる。
また、以上の効果はサブスロットだけでなく、メインスロットにも適用可能である。仮にメインスロットが複数枚選ばれる条件であった場合、上記のサブスロットと同様の効果が得られる。
[第3の実施形態]
第3実施形態では、得点化時に得られた各得点化軸における得点に対して乱数による加点を行う。以下、第1及び第2の実施形態と異なる点について説明する。
図16は、本実施形態における、乱数加点を算出する画像得点化部207の構成を示す図である。図11と同じ符号が付与されているブロックは第1実施形態での説明と同じであるので、その説明を省略する。
乱数設定部1601は、各画像データに対してシーン判定部1106で得られたシーン分類結果に従って、得点化部1108、1109、1110の得点に対して加点する乱数量を設定する。
乱数加点結果取得部1602、1603、1604は、乱数設定部1601からそれぞれ別々の乱数加点が与えられる。なお、本実施形態では、上記のような割り当てで3つの乱数加点結果の得点を定義しているが、これに限定されない。本実施形態では、上記のような乱数加点を行うことで、同一得点軸(例えばサブスロット間)の分布中で所定の閾値範囲内で近いと判定される得点同士の画像データについても、バリエーションを与えることができる。
図17は、本実施形態における得点化処理を示すフローチャートである。図12と同じ符号が付与されているステップは第1の実施形態での説明と同じであるので、その説明を省略する。
S1701では、S1205で得られた各得点軸に関して複数の乱数加点結果を算出するためのループ処理を実行する。S1702では、乱数設定部1601は、S1205で得られた各得点に関して加点する量を決定する。また、S1702では、S1205で得られた得点に所定の閾値を設けて、閾値を超える得点に対してのみ乱数を加える設定をしても良い。そのような構成により、所定以上の得点の画像データが選択される確率を高くすることができる。S1703では、乱数加点結果取得部1602、1603、1604は、S1702で設定された乱数調整に従って、S1205で得られた各得点に関して乱数加点を行う。
第3の実施形態によると、各画像データに対して、シーンに合わせた複数の得点化軸により得点化を行うだけでなく、乱数による加点を行う。乱数込みの得点をアルバムレイアウトでの画像選択に使用することで、選択される画像の構図によりバリエーションを与えることが可能になる。
図16では、本実施形態での乱数設定部1601が、第1の実施形態の得点化部1108〜1110での各得点に対して行われるように示されている。しかしながら、第2の実施形態の統合得点取得部1402〜1404での各得点に対して行われても良い。
以上の各実施形態においては、アルバム作成アプリケーションを想定した例により説明したが、画像データ群における撮影シーンから適切な画像を選択・表示するための画像評価処理に適用されても良い。
また、図1は、据え置き型のパーソナルコンピュータやゲーム機等を想定したハードウェア図となっているが、これに限定されない。例えば、持ち運び可能なスマートデバイス上において、同様の構成を実現しても良い。また、図1は、ローカル環境を想定したハードウェア図となっているが、これに限定されない。例えば、サーバ内に保存されている画像を利用もしくはサーバに画像をアップロードすることにより、各実施形態と同様の構成を実現しても良い。
[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 CPU: 102 RAM: 103 RAM: 104 HDD

Claims (15)

  1. 画像をレイアウトする画像処理装置であって、
    レイアウト対象の候補である複数の画像のそれぞれについて特徴量を解析する解析手段と、
    前記解析手段により解析された前記複数の画像の特徴量に基づいて、前記複数の画像が分類されるシーンの種類を決定する決定手段と、
    前記決定手段により決定されたシーンの種類に対応する評価基準に従って、画像の評価を行う評価手段と、
    前記評価手段による前記複数の画像それぞれに対する評価に基づいて、当該複数の画像からレイアウトする画像を選択する選択手段と、
    を備えることを特徴とする画像処理装置。
  2. 複数種類のシーンのそれぞれにおいて、メインスロット用、もしくは、メインスロット用およびサブスロット用それぞれについて、シーンの画像特徴を示す前記評価基準を取得する取得手段、をさらに備え、
    前記評価手段は、前記取得手段により取得された前記評価基準を用いることによって前記評価を行う、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記評価手段は、前記取得手段により取得された前記評価基準と、前記解析手段により解析された前記特徴量との類似度に基づいて前記評価を行う、
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記取得手段は、複数のパラメータそれぞれについて、前記評価基準としての第1の特徴量を取得し、
    前記解析手段は、前記複数のパラメータそれぞれについて、第2の特徴量を取得し、
    前記評価手段は、前記複数のパラメータそれぞれについて、前記第1の特徴量と前記第2の特徴量との類似度を評価する、
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記評価手段により前記複数のパラメータそれぞれについて行われた評価に対応する各得点に重み付けを設定する重み付け設定手段、をさらに備え、
    前記評価手段は、前記重み付け設定手段により各得点に設定された前記重み付けに従って当該各得点を合算し、
    前記選択手段は、当該合算された得点に基づいて、前記複数の画像からレイアウトする画像を選択する、
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記複数のパラメータは、人物画像に関連するパラメータを含むことを特徴とする請求項4又は5に記載の画像処理装置。
  7. 前記人物画像に関連するパラメータは、顔の数、顔の位置、顔のサイズのうち、少なくともいずれかを含むことを特徴とする請求項6に記載の画像処理装置。
  8. 前記複数のパラメータは、画像データに関連するパラメータを含むことを特徴とする請求項4乃至7のいずれか1項に記載の画像処理装置。
  9. 前記画像データに関連するパラメータは、輝度、彩度、ピント情報のうち、少なくともいずれかを含むことを特徴とする請求項8に記載の画像処理装置。
  10. 前記評価手段による評価に対応する得点に乱数を反映する乱数設定手段、をさらに備え、
    前記選択手段は、前記乱数設定手段により前記乱数が反映された得点に基づいて、前記複数の画像からレイアウトする画像を選択する、
    ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記選択手段は、前記評価手段による評価に対応する得点の高い画像から、レイアウトする画像を選択することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記選択手段により選択された画像をレイアウトするレイアウト手段、をさらに備えることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記選択手段は、分類されたシーンの画像特徴を最も有すると判断された画像を、レイアウトされるメイン画像として選択し、
    前記レイアウト手段は、当該選択された前記メイン画像を、他の画像より大きくレイアウトする、
    ことを特徴とする請求項12に記載の画像処理装置。
  14. 画像をレイアウトする画像処理装置において実行される画像処理方法であって、
    レイアウト対象の候補である複数の画像のそれぞれについて特徴量を解析する解析工程と、
    前記解析工程において解析された前記複数の画像の特徴量に基づいて、前記複数の画像が分類されるシーンの種類を決定する決定工程と、
    前記決定工程において決定されたシーンの種類に対応する評価基準に従って、画像の評価を行う評価工程と、
    前記評価工程における前記複数の画像それぞれに対する評価に基づいて、当該複数の画像からレイアウトする画像を選択する選択工程と、
    を有することを特徴とする画像処理方法。
  15. 請求項1乃至13のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2015255240A 2015-08-07 2015-12-25 画像処理装置、画像処理方法およびプログラム Active JP6525862B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/219,369 US10290135B2 (en) 2015-08-07 2016-07-26 Image processing apparatus, image processing method, and storage medium storing a program that select images based on evaluations and lay out a main image on a main slot and a sub image on a sub slot in a template
EP16001638.2A EP3128461B1 (en) 2015-08-07 2016-07-26 Image processing apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015157513 2015-08-07
JP2015157513 2015-08-07

Publications (2)

Publication Number Publication Date
JP2017037617A true JP2017037617A (ja) 2017-02-16
JP6525862B2 JP6525862B2 (ja) 2019-06-05

Family

ID=58049480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015255240A Active JP6525862B2 (ja) 2015-08-07 2015-12-25 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10290135B2 (ja)
JP (1) JP6525862B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109582299A (zh) * 2018-11-27 2019-04-05 西北工业大学 一种串并行嵌套子任务流程图的自动布局算法

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6942464B2 (ja) 2016-12-09 2021-09-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6902860B2 (ja) 2016-12-09 2021-07-14 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10692259B2 (en) * 2016-12-15 2020-06-23 Adobe Inc. Automatic creation of media collages
JP6902886B2 (ja) 2017-03-14 2021-07-14 キヤノン株式会社 画像処理装置、方法およびプログラム
JP6885896B2 (ja) * 2017-04-10 2021-06-16 富士フイルム株式会社 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
US10686952B2 (en) 2017-11-22 2020-06-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and display apparatus with generation of preview image data for preview image of color metallic image
JP6938422B2 (ja) 2018-04-23 2021-09-22 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7224774B2 (ja) 2018-04-23 2023-02-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7341646B2 (ja) 2018-09-27 2023-09-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11361487B2 (en) 2019-02-28 2022-06-14 Canon Kabushiki Kaisha Apparatus, method and storage medium
JP7350495B2 (ja) 2019-02-28 2023-09-26 キヤノン株式会社 装置、方法、及びプログラム
JP7341677B2 (ja) * 2019-02-28 2023-09-11 キヤノン株式会社 装置、方法、及びプログラム
JP7341676B2 (ja) 2019-02-28 2023-09-11 キヤノン株式会社 装置、方法、及びプログラム
JP7250567B2 (ja) 2019-02-28 2023-04-03 キヤノン株式会社 装置、方法、及びプログラム
JP7286392B2 (ja) * 2019-04-17 2023-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7286393B2 (ja) 2019-04-17 2023-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7414409B2 (ja) 2019-06-07 2024-01-16 キヤノン株式会社 学習方法
JP7418976B2 (ja) 2019-06-07 2024-01-22 キヤノン株式会社 学習方法
JP7370759B2 (ja) 2019-08-08 2023-10-30 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN111857478B (zh) * 2020-07-17 2022-02-11 北京百度网讯科技有限公司 一种图像布局方法、装置、电子设备及存储介质
JP2022086521A (ja) * 2020-11-30 2022-06-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2022123209A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2022123213A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123210A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
CN113538368B (zh) * 2021-07-14 2024-07-16 Oppo广东移动通信有限公司 图像选择方法、图像选择装置、存储介质与电子设备
JP2023021794A (ja) 2021-08-02 2023-02-14 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2023067166A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法
JP2023067164A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293986A (ja) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd アルバム作成装置、アルバム作成方法、及びプログラム
JP2008529150A (ja) * 2005-01-28 2008-07-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ダイナミックフォトコラージュ
JP2011186715A (ja) * 2010-03-08 2011-09-22 Nk Works Kk 写真画像評価方法、及び写真画像評価装置
JP2015065497A (ja) * 2013-09-24 2015-04-09 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2505889B2 (ja) 1989-08-31 1996-06-12 キヤノン株式会社 画像処理装置
US6546131B1 (en) 1990-12-19 2003-04-08 Canon Kabushiki Kaisha Image processing method and apparatus for achieving tone reproduction suited to the image
US6671405B1 (en) * 1999-12-14 2003-12-30 Eastman Kodak Company Method for automatic assessment of emphasis and appeal in consumer images
US7035467B2 (en) * 2002-01-09 2006-04-25 Eastman Kodak Company Method and system for processing images for themed imaging services
JP2006094124A (ja) * 2004-09-24 2006-04-06 Fuji Photo Film Co Ltd 画像保管装置およびその制御方法
JP4680161B2 (ja) 2006-09-28 2011-05-11 富士フイルム株式会社 画像評価装置および方法並びにプログラム
JP2012222161A (ja) 2011-04-08 2012-11-12 Elpida Memory Inc 半導体装置
US20140016147A1 (en) * 2012-07-13 2014-01-16 Linea Photosharing Llc Mosaic generating platform methods, apparatuses and media
JP5956860B2 (ja) 2012-07-09 2016-07-27 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
JP5993642B2 (ja) 2012-07-09 2016-09-14 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP6039942B2 (ja) 2012-07-09 2016-12-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP6012310B2 (ja) 2012-07-09 2016-10-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6417154B2 (ja) 2014-08-27 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008529150A (ja) * 2005-01-28 2008-07-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ダイナミックフォトコラージュ
JP2006293986A (ja) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd アルバム作成装置、アルバム作成方法、及びプログラム
JP2011186715A (ja) * 2010-03-08 2011-09-22 Nk Works Kk 写真画像評価方法、及び写真画像評価装置
JP2015065497A (ja) * 2013-09-24 2015-04-09 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109582299A (zh) * 2018-11-27 2019-04-05 西北工业大学 一种串并行嵌套子任务流程图的自动布局算法
CN109582299B (zh) * 2018-11-27 2021-12-10 西北工业大学 一种串并行嵌套子任务流程图的自动布局方法

Also Published As

Publication number Publication date
US10290135B2 (en) 2019-05-14
US20170039746A1 (en) 2017-02-09
JP6525862B2 (ja) 2019-06-05

Similar Documents

Publication Publication Date Title
JP6525862B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6902860B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6938422B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6711937B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6902886B2 (ja) 画像処理装置、方法およびプログラム
JP6494504B2 (ja) 情報処理装置、制御方法およびプログラム
JP7250567B2 (ja) 装置、方法、及びプログラム
JP6532398B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6723937B2 (ja) プログラム、画像処理装置、および画像処理方法
JP6719206B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6862164B2 (ja) プログラム、画像処理装置、および画像処理方法
US11627227B2 (en) Image processing apparatus, image processing method, and storage medium
JP7336211B2 (ja) 画像処理装置、制御方法、及びプログラム
JP7336209B2 (ja) 画像処理装置、制御方法、及びプログラム
JP6606374B2 (ja) 画像処理装置および方法およびプログラム
JP7027101B2 (ja) 情報処理装置、制御方法、及びプログラム
EP3128461B1 (en) Image processing apparatus, image processing method, and program
EP3131035A1 (en) Image processing apparatus, image processing method, and program
JP2021144618A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6700806B2 (ja) プログラム、情報処理装置および制御方法
JP7263054B2 (ja) 装置、方法、及びプログラム
JP7336212B2 (ja) 画像処理装置、制御方法、及びプログラム
JP7336210B2 (ja) 画像処理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151