JP2018097492A - 画像処理装置、システム、方法、及びプログラム - Google Patents

画像処理装置、システム、方法、及びプログラム Download PDF

Info

Publication number
JP2018097492A
JP2018097492A JP2016239782A JP2016239782A JP2018097492A JP 2018097492 A JP2018097492 A JP 2018097492A JP 2016239782 A JP2016239782 A JP 2016239782A JP 2016239782 A JP2016239782 A JP 2016239782A JP 2018097492 A JP2018097492 A JP 2018097492A
Authority
JP
Japan
Prior art keywords
image
subject
processing apparatus
score
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016239782A
Other languages
English (en)
Other versions
JP2018097492A5 (ja
JP6942464B2 (ja
Inventor
井口 良介
Ryosuke Iguchi
良介 井口
堀 信二郎
Shinjiro Hori
信二郎 堀
寛康 國枝
Hiroyasu Kunieda
寛康 國枝
正明 大林
Masaaki Obayashi
正明 大林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016239782A priority Critical patent/JP6942464B2/ja
Priority to US15/828,698 priority patent/US10740641B2/en
Publication of JP2018097492A publication Critical patent/JP2018097492A/ja
Publication of JP2018097492A5 publication Critical patent/JP2018097492A5/ja
Application granted granted Critical
Publication of JP6942464B2 publication Critical patent/JP6942464B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Abstract

【課題】複数の画像の中から多様性のある画像を自動で選択すること。【解決手段】1つ以上の装置は、複数の画像において、第1の被写体と、第1の被写体と関連する第2の被写体とを認識し、第1の被写体と第2の被写体との認識の結果に基づいて、複数の画像のそれぞれについての得点を算出し、複数の画像のそれぞれについての得点に基づいて、第1の被写体に関する画像を複数の画像の中から選択する。【選択図】 図4

Description

本発明は、複数の画像の中から所定の基準に照らして1つ以上の画像を選択する技術に関する。
近年、大量画像データの有効活用を促す自動レイアウト機能を持ったアルバム作成サービスが提供され始めている。自動レイアウトでは、例えば、アルバム掲載用の画像の自動選択、アルバムに使用されるテンプレートの自動決定、テンプレートへの画像の自動割り当て等の、アルバムの作成のための処理の一部又は全部が自動で行われる。自動レイアウト機能によれば、ユーザは、迅速にアルバムを製作することができ、場合によっては、好みのアルバムを作成する際の作成指針として、自動製作されたアルバムを活用することもできる。
画像の自動選択では、ユーザが被写体を指定して、その被写体が写っている画像が選択されうる。特許文献1には、使用画像の選択条件をユーザが設定し、それに応じて複数の画像の中から、所定の用途に使用する画像を自動的に選択する技術が記載されている。特許文献1に記載された技術によれば、例えば、特定の被写体が含まれている画像を優先して選択することや、人物画像と判定された画像を使用画像として優先的に選択することができる。
特開2007−058795号公報
特許文献1には、画像中にユーザが指定した被写体が含まれているか否かが判定されることが記載されているが、その被写体がどのような状態で写っているかについては考慮されていない。その結果、例えば、ユーザがペットの犬を指定した場合に、真正面を向いた犬の画像のみが選択され、アルバムとして自動選択される画像が単調で味気ないものになってしまいうる。その結果、選択画像に変化のないアルバムとなってしまい、ユーザの好みのアルバムを作成できないおそれがあった。
本発明は上記課題に鑑みなされたものであり、複数の画像の中から多様性のある画像を自動で選択する技術を提供することを目的とする。
本発明の一態様に係る画像処理装置は、複数の画像において、第1の被写体と、前記第1の被写体と関連する第2の被写体とを認識する認識手段と、前記第1の被写体と前記第2の被写体との前記認識の結果に基づいて、前記複数の画像のそれぞれについての得点を算出する算出手段と、前記複数の画像のそれぞれについての前記得点に基づいて、前記第1の被写体に関する画像を当該複数の画像の中から選択する選択手段と、を有する。
本発明によれば、複数の画像の中から多様性のある画像を自動で選択することが可能となる。
画像処理装置のハードウェアの構成例を示すブロック図である。 アルバム作成アプリケーションの機能構成例を示すソフトウェアブロック図である。 アルバム作成アプリケーションが提供する表示画面を示す図である。 自動レイアウト処理を示すフローチャートである。 画像解析情報を示す図である。 画像データ群の分割の結果を示す図である。 シーンごとに特定された統計情報を示す図である。 得点化軸の概念を示す図である。 画像データの選択を説明するための図である。 画像データのレイアウトに用いられるテンプレート群を示す図である。 画像得点部の詳細な機能構成例を説明する図である。 画像の得点化処理の流れの例を示す図である。 画像データのレイアウトに用いられる別のテンプレートの例を示す図である。 画像をトリミングして配置する場合の例を説明する図である。 メイン被写体とサブ被写体との関係について説明する図である。 ペット優先モードが選択された場合の得点化処理の例を示す図である。 ペット優先モードが選択された場合の得点化処理の例を示す図である。 ペット優先モードが選択された場合の得点化処理の例を示す図である。
以下、本発明に係る実施形態について図面を用いて詳細に説明する。
本実施形態では、画像処理装置上で、アルバム作成アプリケーション(アプリ)を動作させ、自動レイアウトを生成するまでの手順について説明する。なお、以下の説明において、「画像」とは、特に断りが無い限り、静止画、動画、及び動画中のフレーム画像を含む。また、ここでの画像は、ネットワーク上のサービスや、ネットワーク上のストレージ等、ネットワークに保持され、ネットワーク経由で取得可能な、静止画、動画、及び動画中のフレーム画像をも含みうる。
(装置構成)
図1は、本実施形態に係る画像処理装置100のハードウェアの構成を示すブロック図である。なお、画像処理装置としては、例えば、パーソナルコンピュータ(PC)、スマートフォン等が挙げられ、本実施形態ではPCとする。CPU(中央演算装置/プロセッサ)101は、画像処理装置100を統括的に制御し、例えば、ROM102に記憶されたプログラムをRAM103に読み出して実行することにより、本実施形態の動作を実現する。なお、CPUは、任意のプロセッサで置き換えられうる。図1では、1つのCPUが示されているが、複数のプロセッサが含まれてもよい。ROM102は、汎用的なROM(読み出し専用メモリ)であり、例えば、CPU101により実行されるプログラムが記憶されている。RAM103は、汎用的なRAM(ランダムアクセスメモリ)であり、例えば、CPU101によるプログラムの実行時に、各種情報を一時的に記憶するためのワーキングメモリとして用いられる。HDD(ハードディスクドライブ)104は、静止画ファイルや動画ファイル、画像解析などの処理結果を保持するデータベースや、アルバム作成アプリケーションにより用いられるテンプレートなどを記憶するための記憶媒体(記憶部)である。
ディスプレイ105は、本実施形態のユーザインタフェース(UI)や画像のレイアウトの結果をユーザに表示する。キーボード106及びポインティングデバイス107は、ユーザからの指示操作を受け付ける。キーボード106は、例えば、ユーザが、ディスプレイ105に表示されたUI上に作成したいアルバムの見開き数を入力する際に用いられる。ポインティングデバイス107は、座標指示デバイスであり、例えば、ユーザが、ディスプレイ105に表示されたUI上のボタンをクリックする際に用いられる。なお、ディスプレイ105が、タッチセンサ機能を有し、ユーザからの指示操作の受け付けがディスプレイ105によって行われてもよい。
データ通信部108は、有線や無線等のネットワークを介した、又は画像処理装置に直接接続された、外部の装置との通信を行う。データ通信部108は、例えば、自動レイアウト機能によりレイアウトされたデータを画像処理装置100と通信可能なプリンタやサーバに送信する。また、データ通信部108は、画像処理装置100と通信可能なサーバやSNSなどのネットワーク上のストレージから静止画や動画を受信することもできる。データバス109は、上述の各部とCPU101とを接続する。
本実施形態のアルバム作成アプリケーションは、例えば、HDD104に保存され、ユーザがディスプレイ105に表示されているアプリケーションのアイコンをポインティングデバイス107によりダブルクリックしたことに応じて、起動される。
なお、図1では、据え置き型のパーソナルコンピュータやゲーム機等を想定したハードウェア構成例が示されているが、これに限られない。例えば、画像処理装置100は、持ち運び可能なスマートデバイスであってもよく、このような装置においても、以下の機能及び処理を実現することができる。また、図1は、ローカル環境の画像処理装置100を想定したハードウェア構成例を示しているが、ネットワーク上の1つ以上のサーバ等の装置を含んだシステムが以下の機能及び処理を実現してもよい。この場合、サーバ等の装置は、例えば図1の構成を有し、以下の機能及び処理の一部又は全部を実行しうる。サーバ等の装置によって以下の機能及び処理が実現される場合は、サーバ内に保存されている画像が利用されてもよいし、ユーザが例えばローカル端末からサーバへアップロードした画像が利用されてもよい。
図2は、アルバム作成アプリケーションの機能構成を示すソフトウェアブロック図である。図2は、特に、自動レイアウト機能を実行する自動レイアウト処理部217に関するソフトウェアブロック図を示している。自動レイアウト機能により、撮影された静止画や動画をその内容や属性に基づいて分類又は選択して画像をレイアウトし、ディスプレイ105に表示されるアルバム画像が生成される。なお、CPU101がHDD104に保存されているアルバム作成アプリケーションを実行することにより、CPU101が図2に示す各ブロックとして機能する。
条件指定部201は、例えばポインティングデバイス107による後述のユーザのUI操作等の入力に応じたアルバム作成条件を、自動レイアウト処理部217に出力する。ここで、指定される条件は、例えば、対象の画像や主人公のID、アルバムの見開き数、テンプレート情報、画像補正のON/OFF条件、動画使用のON/OFF条件等を含みうる。画像の指定は、例えば撮影日時など、個別の画像データの付随情報や属性情報によってもよいし、デバイスやディレクトリ(フォルダ)の指定など、画像データを含むファイルシステムの構造に基づいてもよい。なお、「見開き」とは、例えば、表示における1つの表示用ウィンドウに、又は、印刷における、異なるシートに印刷された、互いに隣接する1対のページに、それぞれ相当する。なお、本実施形態に係る条件指定部201は、例えば、アルバムで採用される画像の被写体を、人物優先とするかペット優先とするかの指定をも行いうる。
画像取得部202は、条件指定部201から指定された静止画や動画の画像データ群を、HDD104から(場合によってはデータ通信部108を介してネットワーク上のサーバやSNSから)、取得する。なお、静止画像や動画像は、例えば、デジタルカメラやスマートデバイス等の撮像デバイスが撮像によって取得したものである。画像処理装置は、その内部に撮像デバイスを有してもよいし、外部の撮像デバイスから撮像結果を取得するのであってもよい。なお、撮像デバイスが外部装置である場合は、画像データは、例えばデータ通信部108を介して、HDD104に取り込まれ、又は自動レイアウト処理部217に供給されうる。優先モード選択部203は、条件指定部201からの指定に応じて、作成するアルバムにおいて、人物画像を優先的に選択させるか、ペット画像を優先的に選択させるかを指定する情報を、画像解析部205へ入力する。
画像変換部204は、以降の処理に用いる画像データを所望の画素数や色情報に変換する。本実施形態では、画像変換部204は、画像データを、短辺420画素の画素数とsRGBの色情報の解析画像データ(以下では「解析画像」と呼ぶ。)へ変換するものとする。画像解析部205は、解析画像から、後述の、特徴量の取得、顔検出、表情認識、個人認識の各処理を実行する。また、画像解析部205は、HDD104から又はデータ通信部108を介してネットワークから取得した画像データに付随したデータの取得、例えばExif情報からの撮影日時の情報の取得も実行する。
画像分類部206は、画像データ群に対して撮影日時情報や撮影枚数、検出した顔情報等を用いて、後述のシーン分割やシーン分類を実行する。ここでのシーンは、例えば、旅行や日常、結婚式等の撮影シーンである。1つのシーンに対応する画像データは、例えば、1つの撮影対象について一時期の撮影機会に撮影された画像の集まりとして捉えられる。主人公情報入力部207は、条件指定部201から指示された主人公のID(識別情報)を画像得点部208に入力する。画像得点部208は、各画像データに対してレイアウトに適した画像が高得点になるような得点付けを行う。画像得点部208は、例えば後述するように、画像解析部205からの情報と、画像分類部206からの情報を用いて得点付けを行う。また、画像得点部208は、主人公情報入力部207から入力された主人公IDが含まれる画像データについて、より高い得点を付与するように構成されうる。さらに、画像得点部208は、条件指定部201において指定された優先モードに基づいて人物以外のオブジェクトの認識が行われた場合は、そのオブジェクトが含まれる画像データについて、より高い得点を付与するように構成されうる。なお、画像得点部208は、画像解析部205からの情報と、画像分類部206からの情報以外の情報を、付加的に、又は代替的に用いて、得点付けを行ってもよい。
見開き数入力部209は、条件指定部201から指定されたアルバムの見開き数を見開き割当部210に入力する。アルバムの見開き数は、複数の画像が配置される複数のテンプレートの数に相当する。見開き割当部210は、見開き数入力部209から入力された見開き数に基づいて、画像データ群を分割(グルーピング)してアルバムの各見開きに割り当てる。見開き割当部210は、入力された見開き数に応じて画像データ群を分割し、各見開きに画像データ群の一部(分割分)を割り当てる。画像選択部211は、見開き割当部210で各見開きに割り当てられた画像データ群の一部から、画像得点部208で付された得点に基づいて画像を選択する。
テンプレート入力部212は、条件指定部201から指定されたテンプレート情報に応じた複数のテンプレートを画像レイアウト部213に入力する。画像レイアウト部213は、画像選択部211で選択された画像データに適したテンプレートを、テンプレート入力部212から入力された複数のテンプレートから選択し、画像データのレイアウトを決定する。レイアウト情報出力部216は、画像レイアウト部213が決定した画像データのレイアウトに従って、ディスプレイ105に表示するためのレイアウト情報を出力する。レイアウト情報は、例えば、選択されたテンプレートに画像選択部211により選択された画像データをレイアウトしたビットマップデータである。
補正条件入力部214は、条件指定部201から指定された画像補正のON/OFF条件を画像補正部215に入力する。画像補正のON/OFFは、補正の種類ごとに指定されてもよいし、全ての種類についてまとめて指定されてもよい。補正は、例えば、輝度補正、赤目補正、コントラスト補正の少なくともいずれかを含みうる。画像補正部215は、画像補正条件がONの場合、画像データに対して補正を実行し、画像補正条件がOFFの場合、補正を実行しない。なお、画像補正部215は、補正のON/OFFに従って、画像変換部204から入力された画像データに対して補正を行う。画像変換部204から画像補正部215に入力される画像データの画素数は、画像レイアウト部213で決定されたレイアウトのサイズに合わせて変更可能である。
アルバム作成アプリケーションが画像処理装置100にインストールされると、画像処理装置100上で動作するOS(オペレーティングシステム)のトップ画面(デスクトップ)上に、その起動アイコンが表示される。ユーザがディスプレイ105に表示されている起動アイコンをポインティングデバイス107でダブルクリックすると、HDD104に保存されているアルバム作成アプリケーションのプログラムがRAM103にロードされる。RAM103のプログラムがCPU101により実行されると、アルバム作成アプリケーションが起動する。なお、画像処理装置100は、プログラムをROM102に記憶するように構成されてもよい。
(表示画面の例)
図3は、アルバム作成アプリケーションが提供する表示画面301の一例を示す図である。表示画面301は、ディスプレイ105に表示される。ユーザは表示画面301を介して後述するアルバムの作成条件を設定し、条件指定部201は、ユーザからの設定内容を取得する。
表示画面301上のパスボックス302は、アルバム作成の対象となる画像データ群のHDD104中の保存場所(パス)を表示する。フォルダ選択ボタン303は、ユーザからのポインティングデバイス107でのクリック操作により、アルバム作成の対象とする画像データ群を含むフォルダをツリー構成でユーザ選択可能に表示する。ユーザにより選択された画像データ群を含むフォルダパスが、パスボックス302に表示される。なお、ユーザは、キーボード106を介して、アルバム作成の対象となる画像データ群を含むフォルダへのフォルダパスを、パスボックス302に直接入力してもよい。
主人公指定アイコン304は、解析対象の画像(例えば写真)に写った人物から中心人物として特定されるべき主人公が特定されるアイコンであり、人物の顔画像がアイコンとして表示される。主人公指定アイコン304には、例えば顔データベースに登録された人物の顔画像のうち、ユーザによって手動選択された、又は後述の手順で自動設定された、人物の顔画像が表示される。主人公指定アイコン304には、複数の異なる顔画像のアイコンが並んで表示されてもよい。なお、顔画像のアイコンは、それぞれ、例えば事前に画像から検出され、それぞれ個人IDと関連付けられて、顔データベースに登録される。ユーザは、例えば、ポインティングデバイス107により主人公指定アイコン304をクリックすることにより、顔データベースに格納されている顔画像を表示させ、その表示された顔画像のうちの1つ以上を選択することにより、手動で主人公を選択しうる。優先モード選択ボタン309は、作成するアルバムにおいて、人物画像を優先的に選択させるのか、ペット画像を優先的に選択させるのかの、ユーザによる指定を受け付けるボタンである。
見開き数ボックス305は、ユーザからのアルバムの見開き数の設定を受け付ける。ユーザは、キーボード106を介して見開き数ボックス305に直接数字を入力するか、ポインティングデバイス107を用いてリストから見開き数ボックス305に数字を入力することができる。テンプレート指定アイコン306は、テンプレートのテイスト(ポップ調やシック調等)別にイラスト画像を表示する。テンプレート指定アイコン306には、複数のテンプレートアイコンが並んで表示され、ユーザがポインティングデバイス107によりクリックしていずれかのテンプレートを選択可能である。画像補正チェックボックス307は、ユーザからの画像補正のON/OFFの指定を受け付ける。チェックが入った状態は画像補正ONが指定された状態であり、チェックが入っていない状態は画像補正OFFが指定された状態である。図3の例では、1つ以上の種類の補正の全てについて、まとめてONまたはOFFが指定される。なお、1つ以上の種類の補正について、個別に又は一定の単位ごとにON又はOFFが指定されてもよい。
OKボタン308は、表示画面301上で指定されている状態を条件指定部201に伝えるためのボタンであり、ユーザによりOKボタン309が押下されると、条件指定部201は、表示画面301上で設定されている内容を取得する。条件指定部201は、取得した設定内容を、アルバム作成アプリケーションの自動レイアウト処理部217に出力する。その際、パスボックス302に入力されているパスは、画像取得部202に伝えられる。主人公指定アイコン304で選択されている主人公の個人IDは、主人公情報入力部207に伝えられる。見開き数ボックス305に入力されている見開き数は、見開き数入力部209に伝えられる。テンプレート指定アイコン306で選択されているテンプレート情報は、テンプレート入力部212に伝えられる。画像補正チェックボックス307の画像補正のON/OFF指定は、補正条件入力部214に伝えられる。また、有線モード選択ボタンでの優先モードの指定情報が、優先モード選択部203に伝えられる。
表示画面301上のリセットボタン309は、表示画面301上の各設定情報をリセットするためのボタンである。
(処理の流れ)
続いて、図4を用いて、アルバム作成アプリケーションの自動レイアウト処理部217において実行される処理の流れについて説明する。図4に示す処理は、例えば、CPU101がHDD104に格納されたプログラムをROM102やRAM103に読み出して実行することにより実現される。
まず、自動レイアウト処理部217は、ユーザからの優先モードの選択を受け付ける(S401)。すなわち、自動レイアウト処理部217は、作成するアルバムにおいて、人物画像を優先して選択する人物優先モードと、ペット画像を優先して選択するペット優先モードとのいずれのモードで動作するかの指定を受け付ける。
続いて、画像変換部204が、着目画像の解析画像を生成する(S402)。すなわち、画像変換部204は、条件指定部201で指定され、HDD104に記憶された画像群内の各画像を、所望の画素数と色情報とを有する画像に変換する。本実施形態では、着目画像は、短辺420画素の画素数とsRGBの色情報とを有する解析画像に変換される。
その後、画像解析部205が、例えばS402で生成された解析画像から、着目画像の画像特徴量を取得する(S403)。画像解析部205は、HDD104から取得された着目画像に付随する、例えばExif情報から撮影日時を取得する。また、画像解析部205は、着目画像が撮影された位置に関する位置情報を取得してもよい。さらに、画像解析部205は、着目画像が撮影された際に用いられた撮影デバイスに関する情報を取得してもよい。また、画像解析部205は、Exif情報や画像取得時に付した識別情報から、画像の画素数を取得する。画像解析部205は、着目画像を変換して得られた解析画像から特徴量を取得する。特徴量は、例えば、ピントでありうる。
例えば、エッジの検出方法として一般的に知られているソーベルフィルタにより、着目画像に関するエッジ検出が行われ、エッジの始点と終点の輝度差を、始点と終点の距離で割ることにより、エッジの傾き、すなわち輝度勾配が算出されうる。そして、対象画像中のエッジの平均傾きを算出した結果から、平均傾きが大きい画像は、平均傾きが小さい画像よりもピントが合っているとみなすことができる。したがって、この平均傾きの値を、特徴量として用いることができる。ここで、平均傾きに対して異なる複数の閾値を設定し、算出した平均傾きがどの閾値以上であるかを判定することにより、ピント量の評価値を出力することができる。本実施形態では、異なる2つの閾値(第1の閾値及び第2の閾値。なお、第1の閾値>第2の閾値とする。)を予め設定しておき、○△×の3段階により、ピント量を判定する。例えば、ピント量は、算出した平均傾きが第1の閾値以上の場合は良好(○)、第1の閾値より小さく第2の閾値以上の場合は許容可能(△)、第2の閾値より小さい場合は許容不能(×)と判定されうる。そして、アルバムに採用したいピントの傾きを○、許容可能なピントの傾きを△、許容不能な傾きを×とし、各閾値を予め設定しておく。閾値は、例えば、アルバム作成アプリケーションの作成元等により(例えば実験結果などの結果に応じた値として)提供されてもよいし、ユーザインタフェースを介して設定されてもよい。なお、○△×に対してそれぞれ異なる数値をピント量として設定してもよい。
S404では、画像解析部205は、S402で生成された解析画像に対して、顔検出を実行する。ここで、顔検出の処理には、公知の方法を用いることができ、例えば、複数用意した弱識別器から強識別器を作成するAdaboostを用いることができる。本実施形態では、Adaboostにより作成した強識別器により人物(オブジェクト)の顔の領域が検出対象画像から検出される。画像解析部205は、顔画像を抽出するとともに、検出した顔の領域の左上座標値と右下座標値とを取得する。この2種の座標を持つことにより、画像解析部205は、顔の領域の位置とサイズとを取得することができる。ここで、顔に限らず、犬や猫等の動物、花、食べ物、建物、置物等のオブジェクトを、顔の代わりの検出対象としてAdaboostによる強識別器を作成してもよい。これにより、画像解析部205は、顔画像以外のオブジェクトを検出することができる。
続いて、画像解析部205は、S404で検出した顔画像と、顔辞書データベースに個人IDごとに保存されている代表顔画像との類似性を比較することにより、個人認識を行う(S405)。画像解析部205は、類似性が閾値以上で類似性が最も高いIDを、検出した顔画像のIDとする。なお、顔辞書データベースに登録されている全ての画像に対する類似性が閾値未満の場合、画像解析部205は、抽出した顔画像を新規の顔として新規の個人IDとして顔辞書データベースに登録しうる。
画像解析部205は、図5に示すように、S403〜S405で取得した画像解析情報700を、各画像を識別するID501ごとに区別して、RAM103等の記憶領域に記憶する。例えば、図5に示すように、S403で取得された撮影日時情報502とピント判別結果503、S404で検出された顔(領域)の数504と位置情報505が、テーブル形式で記憶される。なお、顔画像の位置情報は、S405で取得された個人IDごとに区別して記憶される。
その後、自動レイアウト処理部217は、S401で選択された優先モードに基づいて、ペット優先モードが選択されているか否かを判定する(S406)。自動レイアウト処理部217は、人物優先モードが選択されている場合(S406でNO)には、処理をS408へ移し、ペット優先モードが選択されている場合(S406でYES)には、処理をS407へ進める。
S407では、画像解析部205が、S402で生成された解析画像に対して、人物以外のオブジェクトを認識する。例えば、画像解析部205は、犬や猫等のペット、それらの遊び道具(例えばボールやぬいぐるみ)、それらの屋外/屋内での位置を推定できる環境(例えば芝生や海、窓やクッション)等の、人物以外の被写体を認識する。ここでの認識方法についても公知のものが用いられうる。例えば、パターンマッチング方法や機械学習による方法、CNN(Convolutional Neural Network)等の、様々な技術の少なくともいずれかが用いられうる。CNNが用いられる例では、画像解析部205は、1000個ほどのオブジェクトを認識できるNeural Networkを用いて、画像中に存在するオブジェクトの反応値(得点)をそれぞれ算出する。画像解析部205は、例えば、S401でペット優先モードが選択されていれば、CNNの結果からメイン被写体の「犬」というオブジェクトの得点を取得し、それと同時に、犬に関連するボールや芝生等のサブ被写体となるオブジェクトの得点も取得する。また、例えばメイン被写体の「猫」というオブジェクトについては、その得点と共に、猫に関連する窓やクッション等のサブ被写体となるオブジェクトの得点をも取得する。なお、メイン被写体と関連しうるサブ被写体の候補は、事前設定されて管理されうる。そして、画像解析部205は、メイン被写体に関連付けられるサブ被写体の候補が画像内に存在している場合にはそれを認識して得点を付与しうる。画像解析部205は、これらの得点を、後述するS413の処理を実行する画像得点部208へと送出する。
S408では、条件指定部201で指定されたHDD104の画像データ群の全画像データに対してS402〜S407の処理が終了したか否かが判定される。ここで、終了していないと判定された場合(S408でNO)は、処理が行われていない画像データに対してS402からの処理が実行され、終了していると判定された場合(S408でYES)、処理はS409に進む。
S409では、画像分類部206が、シーン分割を実行する。画像分類部206は、S403で取得済みの撮影日時情報から算出した、画像と画像との間の時間差に基づいて、画像データ群を複数のシーンに分割する。本実施形態では、例えば、以下の基準に従ってシーン分割が行われる。
1.画像データ間に撮影していない日が存在する場合は分割する。
2.画像データ間で、撮影日が連続しているが、その時間差が16時間以上空いている場合は分割する。
3.画像データ間で、撮影日が連続しており、かつその時間差が16時間未満の場合は、連続する各日の最初の撮影から最後の撮影までの時間差が4時間未満であれば同じシーンとして分割する。
4.画像データ間で、撮影日が連続しており、その時間差が16時間未満であり、かつ連続する各日の最初の撮影から最後の撮影までの時間差が4時間以上である場合は、連続する各日の撮影枚数が50枚未満である場合には、同じシーンとして分割する。
画像分類部206は、例えば、画像データ群のうち、最も撮影日時が古い画像に最初に着目し、その次に古い画像との時間差を参照する。そして、画像分類部206は、着目画像を順次撮影日時が新しいものに置き換えながら同様の手法で時間差を参照して、上述の条件のいずれかに該当するか判定を行う。画像分類部206は、画像データ群の新しい方の画像から古い方の画像への順に上述の時間差の参照および分割判定を行ってもよい。なお、ここでの「分割」は、着目した2つの画像間を境界として、撮影日時の新しい方と古い方とに画像データ群を分割(グルーピング)することを指す。なお、分割は、他の基準により行われてもよい。画像分類部206は、例えば、撮影地が画像の付随情報に含まれている場合に、時間的には上記の分割の条件に合致しなくても、撮影地が所定距離以上離れていることを条件に、それぞれ異なる撮影地について画像データを分割してもよい。図6(A)は、上記のシーン分割方法で画像データ群がシーン分割された結果の一例を示す図である。図6(A)の例では、画像群が、8つのシーンに分割されている。
その後、画像分類部206が、シーン分類を実行する(S410)。本実施形態では、画像分類部206は、例えば、シーン分割された分割画像群の画像データを、旅行、日常、セレモニーのいずれかのシーンに分類する。本実施形態では、シーンの種類として、「旅行」、「日常」、「セレモニー」があるものとし、サブ画像群をこれらのシーンのいずれかに分類する例を説明する。なお、シーン分類得点化には、シーンの各種類に対応する特徴量の情報が格納されたシーン分類テーブルが利用される。
ここで、プログラムに予め格納される、シーン分類テーブルの作成方法について説明する。まず、「旅行」、「日常」、「セレモニー」のシーンに分類されると予め判定された複数の画像データ群がプログラムの設計者によって集められ、集められた画像データ群について、特徴量が取得される。ここで取得される特徴量の例は、例えば撮影期間、撮影枚数、撮影人数である。撮影期間は、各画像データ群において最初に生成された画像データと最後に生成された画像データとの撮影時間差である。撮影枚数は、各画像データ群の枚数である。撮影人数は、各画像データ群が表す各画像に含まれる顔の平均数である。その結果、例えば、旅行シーンであると予め判定された複数の画像データから成る1画像データ群について、撮影期間、撮影枚数、撮影人数の特徴量が取得される。なお、特徴量は撮影期間、撮影枚数、撮影人数に限定されず、他の特徴量が用いられても良いし、その中のいずれかのみが用いられてもよい。
そして、上記のような撮影期間、撮影枚数、撮影人数の特徴量の取得が、予め集められた他の画像データ群についても行われる。次に、シーン毎に集められた複数の画像データ群から取得された特徴量に基づいて、撮影期間の平均値と標準偏差、撮影枚数の平均値と標準偏差、1画像あたりの撮影人数の平均値と標準偏差とが求められる。このようにして求められた値と、シーンの各種類とが対応付けられることで、シーンの種類ごとの各平均値と標準偏差を示すシーン分類テーブル(図7)が作成される。図7は、特定された平均値と標準偏差を示すテーブル700の例である。アルバム作成アプリケーションのプログラムには、図7に示すようなテーブル700が予め組み込まれうる。テーブル700では、シーンID701に対応付けて、撮影期間702、撮影枚数703、及び撮影人数704について、それぞれの平均値と標準偏差とが登録される。
S410では、アルバム作成アプリケーションが起動された後、パスボックス302等で指定された画像データ群がS409でシーン分割された結果の各分割画像群に対して、撮影期間、撮影枚数、及び撮影人数の平均値が算出される。そして、画像分類部206は、各分割群についての撮影期間、撮影枚数、撮影人数の特徴量について、図7のシーンごとの平均値と標準偏差とを用いて以下の式(1)及び(2)により得点化を行う。
得点 = 50−|10×(平均値−特徴量)/標準偏差| ・・・(1)
平均得点 = (撮影期間の得点+撮影枚数の得点+撮影人数の得点)/特徴量項目数 ・・・(2)
ここで、式(1)は、撮影期間、撮影枚数、及び撮影人数のそれぞれについて計算され、式(2)は、式(1)の計算結果から計算される。なお、これらの計算は、シーンごとに行われ、1つの分割画像群について、全シーンに対応する平均得点が算出される。このとき、式(1)で用いられる平均値および標準偏差は、テーブル700に登録された値が用いられ、特徴量は、分割画像群ごとの撮影期間、撮影枚数、及び撮影人数のそれぞれの値が用いられる。また、特徴量項目数は本例では3となる。
以上の算出の結果、各分割画像群に対して、旅行、日常、セレモニーのシーンごとの平均得点が算出される。そして、画像分類部206は、各分割群の画像データを、上記のうち最高得点に対応するシーンに分類する。ここで、複数のシーンについて得点が同点となった場合には、予め定められたシーンの優先順位に従って分類する。例えば、本実施形態では、日常>セレモニー>旅行の優先順位が定められており、日常シーンの優先度が最も高いものとする。例えば、図6(A)のシーン分割された後の分割画像群5について、撮影期間が36時間、撮影枚数が300枚、撮影人数が1.7人であったとする。この場合、上記の式(1)及び(2)により算出された旅行シーンの平均得点は45.32、日常シーンの平均得点は18.38、セレモニーシーンの平均得点は−29.92となる。従って、分割画像群5は、旅行シーンに分類される。画像分類部206は、分類されたシーンに対して、識別可能なようにシーンIDを付与して管理する。
S411では、S409で分割された全分割画像群に対してS410のシーン分類が終了したか否かが判定される。ここで、終了していないと判定された場合(S411でNO)は、シーン分類が行われていない分割画像群に対してS409の処理を実行し、終了していると判定された場合(S411でYES)は、処理はS411に進む。
S412では、画像得点部208が主人公設定を実行する。主人公設定は、ユーザが指定した画像データ群に対して実行され、自動と手動の2種類の設定方法のいずれかにより行われる。画像得点部208は、S405で実行された個人認識結果と、S409で実行されたシーン分割の結果から、各個人IDが画像データ群に登場する回数、各個人IDが各シーンに登場する回数、各個人IDが登場するシーンの回数等を取得可能である。画像得点部208は、それらの情報から、ユーザ指定によらず自動で主人公を設定することができる。本実施形態では、画像得点部208は、1つのアルバムに対して複数のシーンがある場合、複数のシーンでの登場回数が多い個人IDを主人公IDと設定し、単一のシーンのみである場合、単一シーンにおいて登場回数が多い個人IDを主人公IDと設定する。また、ユーザが主人公指定アイコン304の指定を行っている場合、主人公情報入力部207は、その指定されている個人IDを画像得点部208に伝える。ユーザにより個人IDが指定されている場合、画像得点部208は、上記の自動で設定される主人公IDによらず、ユーザにより指定された個人IDを主人公IDとして設定する。この設定を手動設定と呼ぶ。
S413では、画像得点部208が得点化を実行する。得点化とは、画像データごとに後述の観点で評価した得点を付与する(スコアリングする)ことであり、後述の、レイアウトに用いられる画像データの選択時に参照される。図10は、画像データのレイアウトに使うテンプレート群を示す図である。テンプレート群に含まれている複数のテンプレートのそれぞれが、各見開きに対応している。テンプレート1001は1枚のテンプレートであり、スロット1002はメインスロットを示し、スロット1003と1004はサブスロットを示す。メインスロット1002は、テンプレート1001内でメインとなるスロット(画像をレイアウトする枠)であり、サブスロット1003と1004よりもサイズが大きい。画像得点部208は、各画像データに対して、メインスロット用の得点とサブスロット用の得点の両方を付与する。
図8(A)は、旅行、日常、セレモニーの各シーンによってアルバムに採用する画像の特徴をメインスロットとサブスロットとについて示した図である。図8(A)に示すように、旅行、日常、セレモニーの各シーンでは、それぞれメインスロット及びサブスロットのために選択されるのが適切と考えられる画像の観点が異なる。例えば、旅行シーンでは、旅先での象徴的な景色と旅行の主役となる人物が一緒に写っている画像が、セレモニーシーンでは、新郎新婦が2人で寄り添う構図の写真(2人の距離が近い写真)が、それぞれメインスロット用画像として適切でありうる。また、日常シーンでは、主人公のアップや横顔の画像がメインスロット用画像として適切でありうる。また、各シーンに対して適切な画像は1種類に限定されなくてもよい。例えば、旅行シーンでは、上述のような景色と人物とが一緒に写っている画像に加えて、顔がアップや横顔の画像、旅行に同伴した人物や出会った人との記念撮影で得られた画像や、旅先での食べ物や建物、風景の画像なども適切でありうる。このように、各シーンに対して、1つ以上の相異なる適切な画像の条件が存在する。なお、本実施形態では、各シーンにおいて、メインスロット用の得点とサブスロット用の得点の2パターンの得点を算出するための適切な画像の条件を、2つ設定する。
図8(A)に示す表において、各シーンのメインスロット向き画像の特徴とサブスロット向きの画像の特徴とのそれぞれについて、適合すると判定された複数の画像データが予め集められる。なお、集められた各画像データについて、その画像データに含まれる顔の数、顔の位置、顔のサイズの特徴量が、予め抽出される。そして、それらの特徴量の平均値と標準偏差とが、収集された画像データが対応する各シーンおよび各スロット種類(メインスロットとサブスロット)に対して算出され、アルバム作成アプリケーションのプログラムとともに記憶される。
画像得点部208は、各画像データがどのシーンに属すかについて、S410のシーン分類の結果から取得可能である。画像得点部208は、注目画像データのシーンに対応する、予め求めておいた上記の平均値と標準偏差、および注目画像データの主人公IDの顔数、顔位置、顔サイズの各特徴量を用いて、式(3)及び(4)により、平均得点を算出する。
得点 = 50−|10×(平均値−特徴量)/標準偏差| ・・・(3)
平均得点 = (顔数の得点+顔位置の得点+顔サイズの得点)/特徴量項目数 ・・・(4)
画像得点部208は、上記の得点化を、メインスロット用とサブスロット用の両方について実行する。ここで、アルバムに用いる画像はピントが合っている方が適切であるため、図5に示すピントの特徴量が○である画像IDの画像データに対しては所定の得点を加算するようにしてもよい。図8(B)は、ある1つのシーンに対する上記の得点化による得点結果の一例を示しており、各画像IDに対して、メインスロットとサブスロットについての得点化が行われている。すなわち、本実施形態では、各シーンについてメインスロットとサブスロットとにそれぞれ適する条件が図8(A)に示すように定められており、予め、それらに適するであろうと判断された画像データが指定される。そして、その指定された画像データについて、顔数、顔位置、顔サイズの特徴量が取得され、特徴量ごとに平均値と標準偏差とが求められる。
一方、画像得点部208は、S401においてペット優先モードが選択されている場合、S407で行われたオブジェクト認識の結果をS413において取得する。例えば、各画像について、S407において、「犬」というオブジェクトの得点が事前設定された所定値以上である場合に、その画像が犬の画像であると判定される。その場合、続いて、犬に関連するオブジェクト(ボール、芝生、犬ぞりなど)の得点が同様に事前設定された所定値以上である場合に、サブ被写体として犬の得点と組み合わせられうる。なお、S413の詳細については、後述の図12、図16〜図18を用いて説明する。
このような組み合わせによる得点は、例えば、メイン被写体である犬の得点に1より大きい係数を乗じ、それにサブ被写体となるオブジェクトの得点を加算することによる、加重加算を用いて算出されうる。このような組み合わせを行うことにより、犬のみが写っている画像よりも、犬と共にボール等の関連するオブジェクトが写っている画像の方が、さらに犬と共にボールと芝生等の複数のオブジェクトが写っている画像の方が、得点が高くなる。例えば、犬と共にボールが写っている画像は、犬がボールを追いかけている状態で撮影されたものである確率が高いと推定できる。したがって、このようなオブジェクトが多く映っている画像の得点を上げることで、犬がどのような状態で撮影されたかが分かる画像が、アルバムでのレイアウト対象として選択されやすくすることができる。
この処理フローを図16に示す。なお、図16〜図18は、ペット優先モードが選択された場合に実行される処理の流れの例を示す図であり、これらの処理は、人物優先モードが設定されている場合には実行されない。
まず、画像得点部208は、得点化対象となる画像を選択する。そして、選択された画像に対して以下の処理を実行する。画像得点部208は、処理対象の画像に対してS407で行われたオブジェクトの認識結果を取得する(S1601)。そして、画像得点部208は、S1601で認識されたペット(本実施形態では犬、猫)の得点を取得する(S1602)。なお、画像得点部208は、犬と猫の得点をそれぞれ別々に格納してもよいし、アルバムで犬と猫を区別しないのであれば、どちらか大きい方の値をペットの得点としてもよい。また、画像得点部208は、ペット以外のオブジェクト(被写体)の得点を取得する(S1603)。上記S407の説明で、CNNを用いて1000個ほどのオブジェクを認識すると説明したが、画像得点部208は、ペットを除く全てのオブジェクト(サブ被写体)の得点を取得することができる。画像得点部208は、取得されたペット以外の全てのサブ被写体に対して、ペットと関連するサブ被写体(前述したボール、芝生、クッションなど)であるかの判定を行う(S1604)。画像得点部208は、予め保持されているペットと関連するサブ被写体に関する情報に基づいてS1604の判定を実行する。S1604において、オブジェクトがペットと関連するサブ被写体と判定された場合(S1604でYES)は、処理はS1605へ進み、オブジェクトがそのようなサブ被写体と判定されなかった場合(S1604でNO)は、処理はS1606へと進む。S1605では、画像得点部208は、S1604でペットと関連があると判定されたサブ被写体の得点を、S1602で取得したペット得点に加算する。そして、S1606では、画像得点部208は、S1604の判定を行ったサブ被写体が最後のサブ被写体であるか否か、すなわち、S1604の判定がなされていないサブ被写体ががあるか否かを判定する(S1606)。画像得点部208は、最後のサブ被写体でないと判定した場合(S1606でNO)は、処理を再びS1604へ戻し、最後のサブ被写体であると判定した場合(S1606でYES)は、処理を終了する。
また、組み合わせによる得点の算出方法は、上述の加重加算による方法に限られない。例えば、サブ被写体に、組み合わせ条件を設けて得点を組み合わせることができる。例えば、犬ぞりは、主に雪が積もっている状況で使われるものであるため、1つの画像において芝生と共に写る確率が低いといえる。このため、例えば、犬ぞり及び芝生が排他的な関係にあることを事前設定しておき、これらのオブジェクトの両方が1つの画像において認識された場合は、それらのオブジェクトについての得点の高い方のみを、犬に関する得点に加算してもよい。また、例えば、犬はリード(紐や鎖)をつけることが多いが、猫はつけないことが多い。したがって、犬がメイン被写体の場合は、リードがオブジェクトとして認識されることで、散歩をしている状態で撮像されたと推定することができるが、猫がメイン被写体の場合にリードが認識された場合は、そのリードは誤判定である確率が高いといえる。このため、メイン被写体が猫である場合は、リードが認識されても得点として加算しないことにより、誤判定によって本来優先的に選択される必要のない画像が優先的に選択されてしまうことを防ぐことができる。なお、ここでの得点の加算には、加重加算が用いられてもよいし、そのような重み付けが用いられなくてもよい。
この処理フローを図17に示す。なお、図17は、図16の代わりに実行される。ここでは、図16と異なる点について詳細に説明する。画像得点部208は、ペットと関連すると判定した(S1604でYES)サブ被写体の得点を、ペットの得点に直ちに加算するのではなく、一旦格納しておく(S1701)。そして、画像得点部208は、S1701で一旦格納されたサブ被写体の得点のうち、加算すべきでない不要なサブ被写体の得点を削除する(S1702)。例えば、画像得点部208は、上述のように、例えば犬ぞりの得点と、犬ぞりと排他的な関係にある芝生の得点を比べる。そして、画像得点部208は、犬ぞりの得点の方が高ければ、S1702において芝生の得点を削除する。なお、画像得点部208は、S1702で芝生の得点を削除するのではなく、次のS1605で芝生の得点を加算しないようにしてもよい。
また、S403では、被写体のエッジ量が解析されうるが、このエッジ量を、犬等のメイン被写体や芝生等のサブ被写体の得点の組み合わせにおいて考慮してもよい。例えば、ある画像において、犬のエッジ量が高く(ぶれていない)、芝生のエッジ量が低い(ぶれている)場合、犬が芝生の上を走っている状態でその画像が撮像されたと推定できる。すなわち、このような画像は躍動感があるように見えると考えられる。したがって、このようなエッジ量から撮像時の状態を推定することができる画像には、得点を高めるように重み付け又は得点の加算を行ってもよい。これにより、アルバムのレイアウト対象として選択される画像に多様性を持たせることができる。
なお、メイン被写体とサブ被写体との位置関係から、画像が撮像された際の状態を推定することもできる。例えば、画像内において犬の口の近くにボールが存在する場合は、その画像が、犬がボールを咥えている状態で撮像された画像であると推定することができる。一方で、画像内において、犬とボールとの距離が離れている場合は、その画像が、犬がボールを追いかけている状態で撮像された画像であると推定することができる。このとき、例えば、アルバムを作成する際の重点特徴をユーザに入力させ、それに応じて得点の重み付けを行うことができる。例えば、自動レイアウト処理部217は、「愛らしい」「躍動感のある」等の特徴を選択肢として表示して、そのいずれかをユーザに選択させることができる。そして、例えば、「愛らしい」が選択された場合には、犬がボールを咥えている状態の画像の得点が高くなるように、「躍動感のある」が選択された場合には、犬がボールを追いかけている状態の画像の得点が高くなるように、得点が調整(重み付け)される。また、例えば、画像内において犬や猫の下にクッションが存在する場合は、その犬や猫がクッションで横になっている状態でその画像が撮像されたと推定することができる。一方、犬や猫とクッションとの距離が離れている場合は、クッションと犬や猫との間の関連性は薄いと判定されうる。このため、このような場合には、クッションに関する得点を加算しないことにより、関連性が薄いオブジェクトを含んだ画像について、不必要に高い得点が付与されることを防ぐことができる。なお、ここで取得される得点は、CNNから出力される得点若しくはそれに関する値、又は、Softmax関数のような正規化関数の出力値でありうる。
この処理フローを図18に示す。なお、図18は、図16及び図17の代わりに実行される。ここでは、図16と異なる点について詳細に説明する。画像得点部208は、画像中の認識されたペットの位置を検出する(S1801)。画像中の位置検出処理に関しては、公知技術が多く知られており、ここではそれらのうちのどれが用いられてもよく、特に限定しない。画像得点部208は、S1603の後、画像中で認識されたサブ被写体の位置を検出する(S1802)。S1801と同様に、位置検出処理はどのようなものが用いられてもよい。画像得点部208は、S1801とS1802で検出されたペットの位置とサブ被写体の位置の関係を算出する(S1803)。画像得点部208は、例えば、ペット及びサブ被写体の中心座標間の距離や、サブ被写体がボールである場合の犬の口の座標とボールの中心座標との距離など、被写体の特定位置の座標間の距離を用いて、この算出を行いうる。その後、画像得点部208は、ペットとサブ被写体との位置関係から、そのサブ被写体に関する重み付け係数を算出する(S1804)。なお、ペットとサブ被写体の位置関係とサブ被写体の重み付け係数の対応表が予め保持され、この対応表に基づいてS1804の算出が実行されてもよいし、所定の関数を用いてこの算出が行われてもよい。その後、画像得点部208は、この算出された重み付け係数を用いてサブ被写体に関する得点を、メイン被写体に関する得点に加重加算する(S1605)。
画像得点部208が、S413の処理を実行するとした場合の詳細な機能構成例について、図11を用いて説明する。なお、後述する機能部については、それぞれ「装置」と名付けているが、これらは、例えばCPU101が、HDD104等に記憶されたプログラムを実行することによって実現されてもよく、個別の回路等を有しなくてもよい。また、図11の各装置1101〜1111は、1つの装置内に含まれているモジュールと捉えることもできる。そのため各装置1101〜1111を、単に部と呼ぶこともある。
画像群取得装置1101は、ユーザから入力された画像群を取得する。なお、画像群取得装置1101は、画像群の取得時に、S409の画像分類部206でシーン分割されたシーン分割情報をも取得する。色解析情報取得装置1102は、S403での画像特徴量取得処理の処理結果を得る。また、色解析情報取得装置1102は、画像の撮影日時情報や、画像の色合いやエッジ、ピント量などの解析情報を取得する。人物関連解析情報取得装置1103は、S404での顔検出およびS405での個人認識の処理結果を取得する。また、人物関連解析情報取得装置1103は、S412での主人公設定の処理結果をも取得しうる。オブジェクト認識情報取得装置1104は、S407でのオブジェクト認識の処理結果を取得する。
画像解析情報管理装置1105は、色解析情報取得装置1102、人物関連解析情報取得装置1103、及びオブジェクト認識情報取得装置1104で取得された各種情報を包括的に管理する。画像における特徴量を含めた全情報を取得する。また、画像解析情報管理装置1105は、色解析情報取得装置1102及び人物関連解析情報取得装置1103から算出・推量できる副次的な特徴をも管理しうる。例えば、画像解析情報管理装置1105は、S404で得られる各顔の位置だけでなく、そこから推量できる各顔同士の距離を管理しうる。なお、画像解析情報管理装置1105で管理される情報はこれらに限定されない。例えば、画像解析情報管理装置1105は、色解析情報取得装置1102、人物関連解析情報取得装置1103、及びオブジェクト認識情報取得装置1104で取得された情報ではない情報や、その情報に基づく副次的情報を管理してもよい。また、画像解析情報管理装置1105は、色解析情報取得装置1102、人物関連解析情報取得装置1103、又はオブジェクト認識情報取得装置1104で取得された情報のうちの一部のみを管理してもよい。
シーン格納装置1106は、複数の撮影シーンのそれぞれについて、画像が、どの撮影シーンであるか否かの判断に用いるためのシーン分類情報が格納される。本実施形態では、旅行シーン、日常シーン、セレモニーシーンの3種類について、それらを判別するためのシーン分類情報が、シーン格納装置1106に格納される。シーン判定装置1107は、画像解析情報管理装置1105で管理されている画像解析情報と、シーン格納装置1106に格納されているシーン分類情報とに基づいて、画像の撮影シーンを判定する。これにより、シーン判定装置1107は、上述のS410でのシーン分類の処理結果を取得する。本実施形態では、各画像が、シーン判定装置1107によって、旅行シーン、日常シーン、セレモニーシーンのいずれかに分類される。パラメータ設定装置1108は、シーン判定装置1107でのシーン分類処理によって決定された各画像の撮影シーンに基づいて、得点化に用いるパラメータを設定する。パラメータは、例えば、事前の機械学習によって決定されたパラメータであってもよいし、技術者の経験則またはシステム実行時に例えばユーザによって手動で設定されたパラメータであってもよい。
得点化装置A1109、得点化装置B1110、及び得点化装置C1111には、パラメータ設定装置1108から、それぞれ個別に(場合によっては異なる)パラメータが与えられる。各得点化装置は、パラメータ設定装置1108から設定されたパラメータと、画像解析情報管理装置1105で取得された画像の解析情報に基づいて、その画像の得点化を行う。本実施形態では、得点化装置A1109〜得点化装置C1111で取得された得点のいずれかが、例えば、メインスロット1002の得点と、サブスロット1003の得点およびサブスロット1004の得点に対応する。得点化装置の個数は3つでなくてもよく、1つ若しくは2つ、又は4つ以上であってもよい。また、例えば、アルバム作成に要求される得点化軸の数は任意であり、必要に応じた数の得点化軸が設定されうる。
画像得点部208は、このような構成で各画像の得点を算出することにより、画像の撮影シーンに応じた得点化を行うことができる。このとき、画像得点部208は、撮影シーン間で得点化軸およびパラメータの決め方を一律としないことにより、撮影シーンごとに適切な構図や人数構成の画像を取得することができる。
続いて、図12を用いて、シーン分類後の得点化処理を説明する。まず、画像得点部208は、色解析情報取得装置1102、人物関連解析情報取得装置1103、およびオブジェクト認識情報取得装置1104の画像解析情報を管理する画像解析情報管理装置1105から画像解析情報を取得して、設定する(S1201)。また、画像得点部208は、シーン格納装置1106において用意されていたシーン分類方法に基づいて、シーン判定装置1107で分類された画像の撮影シーンを、各画像群に対して設定する(S1202)。本実施形態では、旅行シーン、日常シーン、セレモニーシーンのいずれかが設定される。そして、画像得点部208は、得点化軸を設定する(S1203)。すなわち、上記の図11の例によれば、画像得点部208は、得点化装置A1109〜得点化装置C1111のうち、どの得点化装置が得点化処理を実行すべきかを設定する。後述するS1206で、軸の数だけループを行うが、得点化軸を、最初のループでは得点化装置A1109に、次のループでは得点化装置B1110に、最後のループでは得点化装置C1111に、それぞれ設定する。ここで、S1202で設定された画像の撮影シーンIDをi(i>0)とし、得点化軸の番号をj(j>0)とすると、得点化軸はei,jと表すことができる。
次にS1204の処理が実行されるが、S1204では、人物優先モードが設定されている場合とペット優先モードが設定されている場合とで、異なる処理が実行される。まず、人物優先モードが設定されている場合の処理について説明する。S1204において、画像得点部208は、設定された画像の撮影シーンにおける、各得点化軸において要求されるパラメータを設定する。上述したように、パラメータ設定装置1108において撮影シーンに対応したパラメータが決定されるため、画像得点部208は、その決定されたパラメータをS1204において設定する。例えば、シーン分類が結婚式のシーンであって、得点化軸が得点化装置A1109の場合、結婚式画像でメインスロット1002の得点を算出するために機械学習されたパラメータが、ここで設定される。シーンや得点化軸が変わるごとに、それに応じたパラメータが設定される。続いてペット優先モードが設定された場合に実行されるS1204の処理について説明する。画像得点部208は、S1204において、図16〜図18の処理のいずれかで算出された得点を取得する。
次にS1205の処理が実行されるが、S1205においても、人物優先モードが設定されている場合とペット優先モードが設定されている場合とで、異なる処理が実行される。まず、人物優先モードが設定されている場合におけるS1205の処理について説明する。S1205において、画像得点部208は、設定されたパラメータに従って得点化を行う。得点化は、例えば以下のように行われる。各得点化軸ei,jに対応してS1204で設定されたn個のパラメータに、それぞれ閾値および重みの情報が関連付けられる。ここで、閾値及び重みは、各得点化軸ei,jにおける各パラメータに対応したn個分が確保され、それぞれ、Th(n,ei,j)及びW(n,ei,j)と表記されるものとする。まず、S1201において取得された画像の解析情報と判定閾値Th(n,ei,j)とが比較される。そして、解析情報から得られたパラメータ値が判定閾値Th(n,ei,j)を上回っている場合に、重みW(n,ei,j)を画像の各得点化軸における得点に加算する。各得点化軸での重みW(n,ei,j)を累積加算した値をSi,jとするときに、n個のパラメータに関しての総和であるSi,jが、最終的な得点となる。このように、各得点化軸における最終的な得点には、各パラメータが持つ重みWの累積加減算値を与える。なお、得点化軸によっては重みが0のパラメータ(使用されないパラメータ)が存在してもよく、一方で、どの撮影シーンや得点化軸であっても重視すべきパラメータは、共通で使用されうる。
次に、ペット優先モードが設定されている場合におけるS1205の処理について説明する。図16〜図18で、メイン被写体であるペットの得点と、サブ被写体であるオブジェクトの得点を加算して、ペット画像の得点を算出する方法について説明した。本実施形態では、この得点を得点化装置Aが用いる。ペットとサブ被写体の得点が加算された得点が得点化装置Aの得点、すなわちメインスロット1002に対応した得点となる。そのため、ペットとサブ被写体がより多く写っている画像ほど得点化装置Aの得点が高くなる。こうすることで、メインスロット1002の画像は、ペットとサブ被写体が写っている画像、つまりはペットの状態が推定できた画像が選択されやすくなる。
次に、得点化装置Bは、例えばペットのみの得点を使用する。こうすることで、サブスロット1003には、ペットの得点が高い画像、つまりペットがより大きく写っていたり正面を向いているような画像が選択されやすくなる。次に、得点化装置Cには、例えばサブ被写体のみの得点を使用する。つまり、ボールやクッションなどのオブジェクトの得点を得点化装置Cが使用する。こうすることで、ペットが普段遊ぶようなオブジェクトをサブスロット1004に設定でき、その結果アルバム内でペットに関連したオブジェクトの画像をワンカット挿入することができる。
また、得点化装置Bには、得点化装置Aと同じ得点を加算してもよい。こうすれば、後述するレイアウトにおいて、得点化装置Aの最高得点の画像がメインスロット1002に選択され、メインスロットに用いられた画像を除く得点化装置Bの最高得点の画像がサブスロット1003に選択される。すなわち、ペットとサブ被写体が写っていてペットの状態推定ができる画像のうち、最高得点の画像をメインスロット1002に、次点の画像をサブスロット1003にレイアウトすることができる。その時に、得点化装置Cには、ペットのみの得点を加算してもよい。このような得点化装置と算出方法の組み合わせにすることで、アルバムにレイアウトされる画像をすべてペット画像にすることができる。
最後に、S1206で得点化軸が最後か否かが判定され、処理が終了していない得点化軸が存在する(すなわち最後でない)場合(S1206でNO)には、処理はS1203へと戻る。一方、最後の得点軸に関して処理が終了した場合(S1206でYES)は、処理が終了する。以上の処理により、本実施形態の例によれば、得点化の対象画像に対してメインスロット1002に対応する得点、サブスロット1003に対応する得点、サブスロット1004に対応する得点が算出される。
本実施形態では、各画像801について、図8(B)のようなメインスロットの得点802及びサブスロットの得点803が取得されうる。各得点化軸における得点が算出されることにより、どの画像が、どの程度、メインスロットまたはサブスロット向きであるか等の、評価結果を得ることができる。なお、得点化軸ごとに異なる基準で評価がされているため、例えば満点が異なりうる。このため、これらの得点を比較するための得点の正規化が行われてもよい。
また、本実施形態では、人物優先モードまたはペット優先モードのいずれかが選択される場合について説明したが、それ以外に人物+ペット優先モードを設けてもよい。これは、人物とペットが一緒に写っている画像、例えば飼い主が犬を散歩させている画像や、飼い主が猫を抱いて撮った画像などを優先的にアルバムに採用するモードである。この場合、図12で説明した人物の得点と図16〜図18で説明したペット得点を、S413で合算すればよい。または、アプリ上で人物やペットのウェイトを指定できるUIを設けてもよい。例えば、人物を多くペットを少なくする設定にすれば、人物の得点に大きな重み付け係数をかけ、ペットの得点には小さな重み付け係数をかけて合算する。こうすることで、バランス調整を行いながら人物とペットが両方写った画像を優先させることができる。
図4に戻り、S414では、画像得点部208が、ユーザ指定の画像データ群の全ての画像データに対して、S413の処理が終了したか否かを判定する。終了していないと判定された場合(S414でNO)は、処理はS413へ戻り、S413の処理が繰り返され、終了していると判定された場合(S414でYES)、処理はS415に進む。
S415では、見開き割当部210が、S408でのシーン分割の分割数が見開き数入力部209から入力されるアルバムの見開き数と同じであるか否かを判定する。同じでないと判定された場合(S415でNO)は、処理はS416に進み、同じであると判定された場合(S415でYES)は、処理はS419に進む。例えば、図6(A)に示すようにシーン分割数が8であり、見開き数入力部209の入力数が8である場合、処理はS419に進む。
S416では、見開き割当部210は、S408でのシーン分割の分割数が見開き数入力部209から入力される見開き数(アルバムに使用されるテンプレート数)より少ないか否かを判定する。シーンの分割数の方が見開き数より多いと判定された場合(S416でNO)は、処理はS418に進み、シーンの分割数の方が見開き数より少ないと判定された場合(S416でYES)は、処理はS417に進む。図6(A)に示すようにシーン分割数が8であり、見開き数入力部209の入力数が10である場合、処理はS417に進む。
S417では、見開き割当部210は、サブシーン分割を実行する。サブシーン分割とは、シーン分割数<アルバムの見開き数の場合に、分割されたシーンを更に細分割することを表す。図6(A)のシーン分割数8に対して指定されたアルバムの見開き数が10の場合で説明する。図6(B)は、図6(A)をサブシーン分割した結果を示す。図6(B)は、図6(A)の状態に対して、太線矢印で示す2箇所でサブシーン分割を行ったことにより、分割数を10にしている。
分割の基準について説明する。図6(A)の分割の中で、画像枚数が多い分割箇所が検索される。ここでは、分割数を8から10に2箇所増やすために、画像枚数が多い2箇所の分割画像群が検索される。なお、画像数が同数の分割画像群については、画像間の撮影日時の差の最大値が大きい方の分割画像群が選択される。なお、それでも決定できない場合のために、例えば、より早い時間に対応する分割画像群を優先的に再分割するなど、選択基準をさらに定めておいてもよい。図6(A)では、多い方から分割画像群5、次に、分割画像群1と分割画像群2である。分割画像群1と分割画像群2は同じ枚数の画像を含むが、分割画像群2の方が最初の画像から最後の画像の時間差が大きいため、分割画像群2が再分割対象として選択され、分割画像群5と分割画像群2とが、それぞれ再分割される。
分割画像群2には、(例えば撮影日が異なる)画像枚数の山が2つあるため、その部分に対応する図6(B)の太線矢印の箇所で分割する。一方、分割画像群5には、(例えばそれぞれ撮影日が異なる)画像枚数の山が3つあり、この場合、例えば撮影日が変わるなどの分割候補となり得る箇所が2箇所ある。この場合、分割画像群5は、分割後の枚数差が小さくなるように、図6(B)の太線矢印の箇所で分割される。一般的には、シーンの再分割では、選択したシーンに撮影日の異なる画像が含まれている場合は、撮影日の相違するそれぞれの画像データ群を新たなシーンとするような分割が行われる。そして、撮影日が3日以上にわたる場合、各シーンに含まれる画像の数の差が最小になり、同一撮影日の画像が同一シーンに含まれるような再分割が行われる。以上のようにして、分割数を8から10へと増加させる。なお、ここでは、撮影日の異なる箇所で分割したが、画像枚数が多い箇所が単一日である場合、単一日の中で時間差が最大の箇所で分割するようにしてもよい。以上の手順によって、見開き数と画像群の数とを一致させる。なお、分割により生成された画像群については、改めて分類が行われてもよいし、分割前の画像群の分類が引き継がれてもよい。
S418では、画像群の数がアルバムの見開き数より多い場合に、見開き割当部210が画像群の統合を実行する。図6(C)は、図6(A)のように分割された画像群の統合が実行された結果を示す。破線の箇所において分割されていた画像群を統合したことにより、分割数が6となっている。
統合の基準について説明する。画像群の中で、画像枚数が少ない画像群が検索される。そして、画像枚数が同じ画像群については、それらの画像群のうち、隣接する画像群が統合対象として選択されていない画像群が、優先的に統合対象として特定される。図6(A)の例では、分割数を8から6に2箇所分だけ減らすために、画像枚数が少ない2箇所が特定される。図6(A)では、少ない方から分割画像群8、分割画像群3及び分割画像群7である。分割画像群3と分割画像群7は同じ枚数の画像を含んでいる。ただし、分割画像群7に隣接する分割画像群8が統合対象であるので、分割画像群3が統合対象として選択される。結果、分割画像群8と分割画像群3それぞれの統合が行われる。
分割画像群の統合の際には、まず、統合対象の分割画像群を、撮影日時が前の分割画像群に統合するか、撮影日時が後の分割画像群に統合するかが決定される。この決定では、例えば、統合対象の分割画像群と隣接する2つの分割画像群のうち、撮影日時の時間差が小さい方の分割画像群が統合の相手として特定される。図6(A)では、上述のように分割画像群3が統合対象として決定されているため、それに隣接する分割画像群2及び分割画像群4のいずれかが統合の相手とされる。ここで、図6(A)では、分割画像群3と、その前後の分割画像群2と分割画像群4とのそれぞれとの時間差を比較すると、分割画像群3と分割画像群4との時間差の方が、分割画像群3と分割画像群2との時間差より小さい。このため、分割画像群3は、分割画像群4と統合される。このようにして、図6(C)の破線で示される箇所で統合が行われる。一方、分割画像群8は、隣接する分割画像群が1つしかないため、図6(C)の破線で示される箇所で、その唯一の隣接分割画像群(分割画像群7)と統合される。なお、統合には、例えば、分割画像群に含まれる画像ファイルを示す情報を、統合後の分割画像群に応じて更新することが含まれる。
S419では、見開き割当部210が見開き割当を実行する。この時点で、S415〜S418によって、シーン分割数と指定見開き数とが一致している。このため、見開き割当部210は、撮影日時順に先頭の画像群から、見開きの先頭に順に割り当てる。
S420では、画像選択部211が1つ以上の画像選択を実行する。以下、ある見開きに割り当てられた分割画像群から画像データを4枚選択する例を、図9(A)〜図9(I)を参照しながら説明する。
図9(A)に示すスタート〜エンドの区間は、見開きに割り当てられた分割画像群の、最初の画像データの撮影日時から最後の画像データの撮影日時までの時間差(分割撮影期間)を示している。図9(B)を参照しながら、1枚目を選択する方法を説明する。テンプレートには、図10に示すように、1枚のメインスロット1002が含まれる。したがって、1枚目として、メインスロット用の画像データが選択される。図9(B)に示す画像群の撮影期間に対応する複数の画像データのうち、S413で付与されたメインスロット用の得点が最高点の画像データが選択される。この選択された画像データの撮影日時が、図9(B)において(1)として示されている。
2枚目以降は、サブスロット用の画像データが選択される。本実施形態では、選択される画像データの撮影日時が、分割画像群の撮影期間の一部に集中しないように、画像選択が行われる。以下、本実施形態における、分割画像群の撮影期間を細分化する方法について説明する。まず、図9(C)に示すように、画像群の撮影期間が2分割される。次に、図9(D)に示すように、1枚目が選ばれていない実線で示される撮影期間に対応する画像データから、2枚目の画像データが選択される。例えば、図9(D)の実線の撮影期間に対応する複数の画像データのうち、サブスロット用の得点が最高点の画像データが選択される。
次に、図9(E)に示すように、図9(D)において分割されていた2つの撮影期間をさらに2分割する。そして、図9(F)に示すように、1枚目及び2枚目が選ばれていない実線の撮影期間に対応する複数の画像データのうち、例えばサブスロット用の得点が最高点の画像データが3枚目として選択される。
画像データの選択対象の撮影期間に画像データが存在せず、そのため選択できない場合について、4枚目の選択を例として説明する。図9(G)は、まだ画像データが選択されていない斜線の撮影期間から4枚目を選択しようとしたが、この斜線の撮影期間に画像データが存在しなかった状態を示している。この場合、図9(H)に示すように、分割されている撮影期間のそれぞれがさらに2分割される。次に、図9(I)に示すように、1〜3枚目が選ばれていない実線の撮影期間に対応する複数の画像データのうち、例えばサブスロット用の最高点の画像データが4枚目として選択される。このようにして、メインスロットとサブスロットとに配置される画像について、撮影された時間を分散させることにより、アルバムのマンネリ化を解消することができる。
また、S413においてペットの状態が推定された結果に基づいて、選択される画像が多様性を有するようにするための制御が行われてもよい。例えば、犬が芝生で走っている相対的に得点の高い画像が10枚あり、犬が雪原で犬ぞりを引っ張っている相対的に得点の低い画像が10枚あるものとする。この場合、得点に基づいて5枚の画像を選択すると、その選択された5枚の画像の全てが、犬が芝生で走っている画像となってしまい、同じような画像が並んだ単調なアルバムになってしまいうる。このため、多様性に富んだ様々な状態の画像を選択するために、例えば各状態の上限枚数が設定されてもよい。すなわち、犬が芝生で走っている画像の上限枚数を3枚とすることにより、犬が芝生で走っている画像を3枚選択したことに応じて、4枚目以降、犬が雪原で犬ぞりを引っ張っている画像の中から2枚を選択する。こうして、同じような画像ばかりが選択されてしまうことを防ぐことができる。
図4に戻り、S421では、画像レイアウト部213は、画像レイアウトの決定を行う。画像レイアウト部213は、テンプレート入力部212が入力したテンプレート群を候補として、その中から、テンプレート内のメインスロットの位置が、着目シーンの選択されたメインスロット用画像の時系列的な位置に対応しているテンプレートを選択する。本実施形態では、テンプレートの左上に撮影日時のより古い画像データがレイアウトされ、右下に撮影日時のより新しい画像がレイアウトされるものとする。一方で、各スロットの位置と画像とを個別に対応付けるのは煩雑であるため、例えばテンプレートをメインスロットとサブスロットの位置に応じてグループ分けしておき、さらに画像の方向(縦長、横長)に応じてさらにグループ分けしておくことができる。そして、メインスロット用画像の時系列上の位置及び方向に応じてテンプレートが絞り込まれ、その絞り込んだテンプレートの中でサブスロットについても同様の絞り込みが行われる。このようにして、テンプレート入力部212は、テンプレートの候補を絞り込み、最終的に採用するテンプレートを決定することができる。
ここで、テンプレート入力部212が、指定のテンプレート情報にしたがって、ある見開きに対して図10の(1−1)〜(4−4)をテンプレートの候補として用いる場合の例について説明する。入力されたテンプレートのスロット数は、図10に示すように、3である。ここで、選択されている3枚の画像データ1005〜1007の画像の向きが縦方向か横方向かを撮影日時について並べると、図10の下部に示した図の通りであるものとする。そして、ここでは、画像データ1005がメインスロット用であり、画像データ1006と1007がサブスロット用であるものとする。ここで、メインスロット用画像1005は、図10に示すように、撮影日時が最も新しいため、右側にメインスロットが配置された図10の(3−1)〜(3−4)と(4−1)〜(4−4)のテンプレートが候補として絞り込まれる。このうち、メインスロット用の画像データ1005は縦長であるため、テンプレート(3−1)〜(3−4)が候補となる。そして、サブスロット用の古い方の画像1006が縦画像で、新しい方の画像1007が横画像であるため、テンプレート(3−2)が、選択された画像に最も適したテンプレートとして選択される。以上のようにして、S421では、S420で選択された画像を、どのテンプレートのどのスロットにレイアウトするかが決定される。
なお、図13のように、このとき、(3−2)のテンプレートに対して、スロット数や各スロットの縦横、位置も合致しており、さらに、メインスロットの大きさが(3−2)よりも大きいテンプレート(5−1)が存在しうる。このように、画像同士の撮影日時の順序や縦横位置に適合する複数のテンプレート候補が存在する場合は、各画像についてS413で決定された得点の差に基づいてテンプレートが選定されうる。例えば、メインスロット用画像の得点が、複数のサブスロットの平均得点に所定の閾値を加えた値よりも高い場合、メインスロットのサイズが大きいテンプレート(5−1)が選択され、それ以外の場合はテンプレート(3−2)が選択されうる。なお、例えばメインスロット用画像の得点が所定値より高い場合には(サブスロット用画像の得点によらず)テンプレート(5−1)が選択されてもよい。また、例えばサブスロット用画像の得点が所定値より高い場合には(メインスロット用画像の得点によらず)テンプレート(3−2)が選択されてもよい。また、メインスロット用画像とサブスロット用画像の両方がそれぞれの所定値より高い場合に、上述のように得点の差に基づいてテンプレートの選択が行われてもよい。このようにして、どの画像をどのテンプレートのどのスロットにレイアウトするかを識別できる情報が決定される。
また、S413においてペットの状態が推定された結果に基づいて、選択されるテンプレートや画像がレイアウトされるスロットが変更されてもよい。例えば、犬が走る画像の場合、一般に、画像の中で犬が横方向に移動することが多い。このため、犬が走っていると推定された画像については、その画像が縦画像であっても横方向にトリミングするなどの変形を施してからスロットにセットした方が、より被写体の動きに即したレイアウトとなりうる。このレイアウトの処理について図14(A)〜図14(D)を用いて説明する。図14(A)は縦画像であり、この画像において、オブジェクト認識によって、犬と芝生とが認識され、その結果、犬が走っている画像であると推定されたものとする。このとき、図14(A)の画像を縦画像のままアルバムにレイアウトするよりも、横画像にトリミングしてレイアウトした方が、その画像の上下にある余分な領域を削除することができ、スロット内で被写体を大きく見せることができる。このため、図14(A)の画像に対しては、横方向にトリミングして図14(B)のような画像が形成され、テンプレートの横方向のスロットにセットされうる。図14(C)に示すテンプレートは、縦方向と横方向のスロットが1つずつ配置されたテンプレートである。通常、縦画像はテンプレートの縦方向のスロットにレイアウトされるため、図14(A)の画像は(1)のスロットにレイアウトされるが、横方向にトリミングした図14(B)の画像が生成されることにより、(2)のスロットにレイアウトされることとなる。また、図14(D)に示すテンプレートが予め選択されていても、オブジェクト認識の結果、犬が走っている画像がレイアウト対象であると推定された場合には、図14(C)のような横方向のスロットがあるテンプレートが再選択されうる。そして、再選択されたテンプレートにおいて、例えば図14(C)の(2)のスロットに、犬が走っている画像がレイアウトされうる。
S422では、画像補正部215が画像補正を実行する。画像補正部215は、補正条件入力部214から画像補正ONが入力された場合に、自動で画像補正を実行する。画像補正として、例えば、輝度補正、赤目補正、コントラスト補正が実行される。画像補正部215は、補正条件入力部214から画像補正OFFが入力された場合には、画像補正を実行しない。画像補正は、例えば、短辺1200画素で、sRGBの色空間にサイズが変換された画像データに対して実行可能である。
S423では、レイアウト情報出力部216がレイアウト情報を作成する。画像レイアウト部213は、S421で決定されたテンプレートの各スロットに対して、(例えばS422の画像補正が実行された)画像データをレイアウトする。このとき、画像レイアウト部213は、スロットのサイズ情報に合わせてレイアウトする画像データを変倍してレイアウトする。そして、レイアウト情報出力部216は、テンプレートに画像データをレイアウトしたビットマップデータを生成する。
S424では、S420〜S423の処理が全ての見開きに対して終了したか否かが判定される。終了していないと判定された場合(S424でNO)はS420からの処理を繰り返し、終了していると判定された場合(S424でYES)は、図4の自動レイアウト処理は終了する。
なお、S407で認識されたペットとS403〜S405で検出された人物とを組み合わせて、ペットの状態推定が行われてもよい。ここでは、メイン被写体をペットとして、サブ被写体を検出された人物とする。
上述のように、S403〜S405において、画像解析部205が画像中の顔検出と個人認識とを行う。そして、画像得点部208は、その得点をS413において取得する。また、S401においてペットモードが選択された場合、S407で犬や猫のペット認識が行われ、画像得点部208は、S413でその得点を取得する。ここで、認識された個人が例えば2人(人物A、人物B)存在し、ペットとして犬が認識されたとする。このうち、犬が、人物Aよりも人物Bと共に写っている場合、人物Bが犬の飼い主であると判定される。このとき、飼い主と判定された人物については、S405で顔辞書データベースに登録された個人IDに、犬の飼い主であることを示す情報を追加しておく。そして、アルバムに採用する画像を選択する際に、メイン被写体である犬が、飼い主と判定された人物と共に写っている画像の得点が高くなるよう重み付けをすることにより、飼い主と写っているペットの画像がより多く選択されうる。
また、認識された犬の位置と人物の位置から、得点が重み付けされてもよい。例えば、画像中において犬の顔と人物の顔との距離が近い場合は、その画像が、犬が人物と戯れている状態で撮像された画像であると推定することができる。逆にこれらの顔の距離が画像中で離れて存在している場合は、その画像が、犬と人物とがかかわっていない状態で撮影された画像であると推定できる。図15(A)は、メイン被写体の犬と、サブ被写体の人物との距離が近い画像の例を示しており、この画像は、犬が人物と戯れている状態で撮影された画像であると推定される。図15(B)は、メイン被写体の犬と、サブ被写体の人物との距離が遠い画像の例を示しており、この画像は、犬と人物とが戯れていない(かかわっていない)状態で撮影された画像であると推定される。これに応じて、距離が近いほど重み付けを高くして得点が高くなるように、そして、距離が遠いほど重み付けを低くして得点が低くなるように、犬と人物の距離に応じて得点が重み付けされる。また、犬の顔の向きや人物の顔の向きが検出可能な場合、これらを用いて得点の重み付けが行われてもよい。すなわち、図15(A)のように、犬と人物とが向かい合っている画像は、犬と人物とが戯れている状態で撮影された画像であると推定され、図15(B)のように向かい合っていない画像は、犬と人物とが戯れていない状態で撮影された画像であると推定される。このような推定に基づいて得点の重み付けを行うことにより、犬が人物と戯れている画像がより多く選択されるようにすることができる。
一方で、人物のみならず、上述のボールなどのオブジェクトを、さらなるサブ被写体として用いてもよい。例えば、画像中で、メイン被写体である犬、及びサブ被写体である人物とボールが認識された場合、その画像が、人物がボールを投げて犬と遊んでいる等の状態で撮影された画像であると推定されうる。また、画像中で犬と人物との距離が離れている場合であっても、その犬と人物との間にリード(紐や鎖)が検出された場合、その画像は、人物が犬を散歩させている等の状態で撮影された画像であると推定されうる。したがって、画像において、人物と犬とを関連付けさせる所定のオブジェクトが検出されたことによって、その画像の得点が高くなるように重みづけが行われ、アルバムで用いられる画像として選択されやすくすることができる。
このように、S407で認識されたペットをメイン被写体として、S403〜S405で検出された人物をサブ被写体として、ペットの状態推定が行われうる。このとき、どの人物が検出されたか、ペットとの距離はどれくらい近いか、S407で認識されたオブジェクトとの組み合わせが可能であるか等の基準に基づいて、画像の得点化が行われる。これにより、より多彩なペットの状態推定を行うことができる。
なお、上述の説明では、犬や猫のペットをメイン被写体として説明したが、ペットに限らず、動物園にいる動物や水族館の魚などをメイン被写体としてもよい。例えば、メイン被写体としてパンダが選択された場合、サブ被写体として笹が予め設定され、それらが写っている画像が、パンダが笹を食べている状態で撮像された画像と推定されうる。そして、このような画像の得点を高くすることにより、その画像が、単にパンダだけが写っている画像よりもアルバムでの使用のために選択されやすくすることができる。なお、このために、優先モード選択ボタン310に、動物園や水族館のモードを追加してもよい。
また、動物ではなく、鉄道車両などの、動きがあるオブジェクトが、メイン被写体に設定されてもよい。このとき、例えば、サブ被写体として陸橋や渓谷や駅舎などを予め指定しておく。これにより、メイン被写体が単体で写っている画像よりも、サブ被写体を伴って写っている画像の得点を高くすることができ、上述の場合と同様に、多様性のある画像を含んだアルバムの作成が可能となる。
本手法によれば、各画像は画像解析情報に従って得点化される。その際、メイン被写体に関連したサブ被写体の得点を取得し、メイン被写体の状態が推定され、その状態に応じて、画像の得点を重み付け加算することにより、様々なシチュエーションでのメイン被写体の画像が選択されるようにすることができる。これにより、アルバム内での画像が多様性に富み、ユーザの興味を引き付けるアルバムを生成することが可能となる。
なお、上では、アルバム作成アプリケーションが用いられる場合の処理について説明したが、画像群における撮影シーンから適切な画像を選択/表示するための画像評価処理に、上述の処理を適用することができる。
<<その他の実施形態>>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100:画像処理装置、201:条件指定部、202:画像取得部、203:優先モード選択部、204:画像変換部、205:画像解析部、206:画像分類部、207:主人公情報入力部、208:画像得点部、209:見開き数入力部、210:見開き割当部、211:画像選択部、212:テンプレート入力部、213:画像レイアウト部、214:補正条件入力部、215:画像補正部、216:レイアウト情報出力部、217:自動レイアウト処理部

Claims (17)

  1. 複数の画像において、第1の被写体と、前記第1の被写体と関連する第2の被写体とを認識する認識手段と、
    前記第1の被写体と前記第2の被写体との前記認識の結果に基づいて、前記複数の画像のそれぞれについての得点を算出する算出手段と、
    前記複数の画像のそれぞれについての前記得点に基づいて、前記第1の被写体に関する画像を当該複数の画像の中から選択する選択手段と、
    を有することを特徴とする画像処理装置。
  2. 前記第1の被写体と前記第2の被写体との前記認識の結果に基づいて、前記第1の被写体がどのような状態で撮影されたかを推定する推定手段をさらに有し、
    前記算出手段は、前記推定手段による推定の結果に基づいて、前記複数の画像のそれぞれについての得点を算出する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記推定手段は、前記第1の被写体と前記第2の被写体との画像内での距離に基づいて、前記第1の被写体がどのような状態で撮影されたかを推定する、
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記推定手段は、前記第1の被写体と前記第2の被写体とのそれぞれにおいて検出されたエッジ量に基づいて、前記第1の被写体がどのような状態で撮影されたかを推定する、
    ことを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記推定手段は、前記第1の被写体と前記第2の被写体の向きに基づいて、前記第1の被写体がどのような状態で撮影されたかを推定する、
    ことを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
  6. 前記推定手段は、前記第1の被写体と前記第2の被写体との組み合わせに基づいて、前記第1の被写体がどのような状態で撮影されたかを推定する、
    ことを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
  7. 前記認識手段は、さらに、前記複数の画像のそれぞれについて、前記第1の被写体に関する第1の得点と前記第2の被写体に関する第2の得点とを取得し、
    前記算出手段は、前記第1の得点と前記第2の得点とを、前記第1の被写体がどのような状態で撮影されたかの推定に基づいた重みを用いて加重加算することにより、前記複数の画像のそれぞれについての前記得点を算出する、
    ことを特徴とする請求項2から6のいずれか1項に記載の画像処理装置。
  8. 前記算出手段は、選択されるべき画像の特徴のユーザによる選択に応じて、前記重みの値を調整する、
    ことを特徴とする請求項7に記載の画像処理装置。
  9. 前記選択手段は、複数の状態のうちの1つにおいて撮影された画像であって前記選択手段によって選択された画像の枚数が所定の上限に達した場合に、当該複数の状態のうちの別の1つにおいて撮影された画像を選択する、
    ことを特徴とする請求項2から8のいずれか1項に記載の画像処理装置。
  10. 前記推定手段が推定した結果に基づいて、前記選択手段が選択した画像を変形する手段をさらに有する、
    ことを特徴とする請求項2から9のいずれか1項に記載の画像処理装置。
  11. 前記選択手段が選択した画像をレイアウトして出力する出力手段をさらに有し、
    前記出力手段は、前記画像の変形に応じて前記レイアウトを変更する、
    ことを特徴とする請求項10に記載の画像処理装置。
  12. 前記選択手段が選択した画像をレイアウトして出力する出力手段をさらに有する、
    ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  13. 前記認識手段は、前記複数の画像のそれぞれに含まれる複数の被写体の中から、事前設定された候補に基づいて、前記第1の被写体に関連する1つ以上の前記第2の被写体を認識する、
    ことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
  14. 前記認識手段は、前記第1の被写体として、人物以外のオブジェクトが設定された場合に、当該第1の被写体に関連する前記第2の被写体の認識を行う、
    ことを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。
  15. 複数の画像において、第1の被写体と、前記第1の被写体と関連する第2の被写体とを認識する認識手段と、
    前記第1の被写体と前記第2の被写体との前記認識の結果に基づいて、前記複数の画像のそれぞれについての得点を算出する算出手段と、
    前記複数の画像のそれぞれについての前記得点に基づいて、前記第1の被写体に関する画像を当該複数の画像の中から選択する選択手段と、
    を含むことを特徴とするシステム。
  16. 認識手段が、複数の画像において、第1の被写体と、前記第1の被写体と関連する第2の被写体とを認識する認識工程と、
    算出手段が、前記第1の被写体と前記第2の被写体との前記認識の結果に基づいて、前記複数の画像のそれぞれについての得点を算出する算出工程と、
    選択手段が、前記複数の画像のそれぞれについての前記得点に基づいて、前記第1の被写体に関する画像を当該複数の画像の中から選択する選択工程と、
    を含むことを特徴とする方法。
  17. 1つ以上の装置に、
    複数の画像において、第1の被写体と、前記第1の被写体と関連する第2の被写体とを認識させ、
    前記第1の被写体と前記第2の被写体との前記認識の結果に基づいて、前記複数の画像のそれぞれについての得点を算出させ、
    前記複数の画像のそれぞれについての前記得点に基づいて、前記第1の被写体に関する画像を当該複数の画像の中から選択する選択工程と、
    を実行させるためのプログラム。
JP2016239782A 2016-12-09 2016-12-09 画像処理装置、画像処理方法、及びプログラム Active JP6942464B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016239782A JP6942464B2 (ja) 2016-12-09 2016-12-09 画像処理装置、画像処理方法、及びプログラム
US15/828,698 US10740641B2 (en) 2016-12-09 2017-12-01 Image processing apparatus and method with selection of image including first and second objects more preferentially than image including first but not second object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016239782A JP6942464B2 (ja) 2016-12-09 2016-12-09 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2018097492A true JP2018097492A (ja) 2018-06-21
JP2018097492A5 JP2018097492A5 (ja) 2020-01-23
JP6942464B2 JP6942464B2 (ja) 2021-09-29

Family

ID=62490151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016239782A Active JP6942464B2 (ja) 2016-12-09 2016-12-09 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10740641B2 (ja)
JP (1) JP6942464B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190207889A1 (en) * 2018-01-03 2019-07-04 International Business Machines Corporation Filtering graphic content in a message to determine whether to render the graphic content or a descriptive classification of the graphic content
JP7224774B2 (ja) 2018-04-23 2023-02-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7341677B2 (ja) * 2019-02-28 2023-09-11 キヤノン株式会社 装置、方法、及びプログラム
JP7350495B2 (ja) 2019-02-28 2023-09-26 キヤノン株式会社 装置、方法、及びプログラム
JP7341676B2 (ja) 2019-02-28 2023-09-11 キヤノン株式会社 装置、方法、及びプログラム
JP7286392B2 (ja) 2019-04-17 2023-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7286393B2 (ja) * 2019-04-17 2023-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN110197587A (zh) * 2019-05-31 2019-09-03 京东方科技集团股份有限公司 一种行车处理方法,以及车辆、服务器和行车系统
JP7414409B2 (ja) 2019-06-07 2024-01-16 キヤノン株式会社 学習方法
JP7418976B2 (ja) 2019-06-07 2024-01-22 キヤノン株式会社 学習方法
JP7370759B2 (ja) 2019-08-08 2023-10-30 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US11438466B2 (en) * 2019-12-19 2022-09-06 HCL Technologies Italy S.p.A. Generating an automatic virtual photo album
WO2022157886A1 (ja) * 2021-01-21 2022-07-28 日本電気株式会社 パラメータ最適化システム、パラメータ最適化方法、及びコンピュータプログラム
JP2022123209A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2022123213A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123210A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2023067164A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法
JP2023067166A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186714A (ja) * 2010-03-08 2011-09-22 Nk Works Kk アルバム作成方法、及びアルバム作成装置
JP2012032728A (ja) * 2010-08-03 2012-02-16 Olympus Imaging Corp 画像表示装置および画像表示方法
JP2014016785A (ja) * 2012-07-09 2014-01-30 Canon Inc 画像処理装置、画像処理方法、及びプログラム
JP2015172795A (ja) * 2014-03-11 2015-10-01 富士フイルム株式会社 画像処理装置、重要人物判定方法、画像レイアウト方法ならびにプログラムおよび記録媒体

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0560610B1 (en) * 1992-03-13 1998-12-09 Canon Kabushiki Kaisha Movement vector detecting apparatus
US5583763A (en) * 1993-09-09 1996-12-10 Mni Interactive Method and apparatus for recommending selections based on preferences in a multi-user system
US7006668B2 (en) 1999-12-28 2006-02-28 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP4095265B2 (ja) 2001-09-06 2008-06-04 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム
US8392834B2 (en) * 2003-04-09 2013-03-05 Hewlett-Packard Development Company, L.P. Systems and methods of authoring a multimedia file
US7697026B2 (en) * 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
JP2006293985A (ja) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd アルバム作成装置、アルバム作成方法、及びプログラム
JP2006293986A (ja) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd アルバム作成装置、アルバム作成方法、及びプログラム
JP2006295890A (ja) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd アルバム作成装置、アルバム作成方法、及びプログラム
US8073197B2 (en) * 2005-03-17 2011-12-06 British Telecommunications Public Limited Company Method of tracking objects in a video sequence
JP4678509B2 (ja) 2005-08-26 2011-04-27 富士フイルム株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP4640155B2 (ja) * 2005-12-15 2011-03-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2008051833A (ja) * 2006-08-22 2008-03-06 Fujitsu Hitachi Plasma Display Ltd 多階調表示装置
US8611673B2 (en) * 2006-09-14 2013-12-17 Parham Aarabi Method, system and computer program for interactive spatial link-based image searching, sorting and/or displaying
US7693629B2 (en) * 2006-11-14 2010-04-06 Denso Corporation Onboard fog determining apparatus
US8059915B2 (en) * 2006-11-20 2011-11-15 Videosurf, Inc. Apparatus for and method of robust motion estimation using line averages
US8385658B2 (en) * 2007-07-27 2013-02-26 Sportvision, Inc. Detecting an object in an image using multiple templates
JP5032911B2 (ja) 2007-07-31 2012-09-26 キヤノン株式会社 画像処理装置及び画像処理方法
JP5183568B2 (ja) 2009-05-21 2013-04-17 キヤノン株式会社 画像処理装置及び方法、及びプログラムを記録した記憶媒体
JP5641782B2 (ja) 2010-05-24 2014-12-17 キヤノン株式会社 画像処理装置及び画像処理方法
JP2012015889A (ja) * 2010-07-02 2012-01-19 Sony Corp 画像処理装置および画像処理方法
JP5776255B2 (ja) * 2011-03-25 2015-09-09 ソニー株式会社 端末装置、物体識別方法、プログラム及び物体識別システム
US20120294514A1 (en) * 2011-05-19 2012-11-22 Xerox Corporation Techniques to enable automated workflows for the creation of user-customized photobooks
US9946429B2 (en) * 2011-06-17 2018-04-17 Microsoft Technology Licensing, Llc Hierarchical, zoomable presentations of media sets
WO2013118218A1 (ja) * 2012-02-09 2013-08-15 パナソニック株式会社 画像認識装置、画像認識方法、プログラムおよび集積回路
US9311896B2 (en) * 2012-02-27 2016-04-12 Microsoft Technology Licensing, Llc Glyph rendering
JP6039942B2 (ja) 2012-07-09 2016-12-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP5956860B2 (ja) 2012-07-09 2016-07-27 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
JP6071288B2 (ja) * 2012-07-09 2017-02-01 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6012310B2 (ja) 2012-07-09 2016-10-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5993642B2 (ja) 2012-07-09 2016-09-14 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP6065913B2 (ja) * 2012-09-03 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP5719406B2 (ja) * 2012-09-14 2015-05-20 富士フイルム株式会社 合成画像作成システム、画像処理装置および画像処理方法
US9336457B2 (en) * 2012-12-06 2016-05-10 Siemens Medical Solutions Usa, Inc. Adaptive anatomical region prediction
US9088753B2 (en) 2013-01-11 2015-07-21 Canon Kabushiki Kaisha Image forming apparatus, luminance correction method, and storage medium storing program
US9116924B2 (en) * 2013-01-14 2015-08-25 Xerox Corporation System and method for image selection using multivariate time series analysis
US8902303B2 (en) * 2013-03-15 2014-12-02 Orcam Technologies Ltd. Apparatus connectable to glasses
JP2015005172A (ja) * 2013-06-21 2015-01-08 ソニー株式会社 情報処理装置、情報処理システム、及びプログラムを記憶した記憶媒体
US9646227B2 (en) * 2014-07-29 2017-05-09 Microsoft Technology Licensing, Llc Computerized machine learning of interesting video sections
JP6417154B2 (ja) 2014-08-27 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6386841B2 (ja) 2014-09-12 2018-09-05 キヤノン株式会社 画像処理装置、プログラム、画像処理システム、及び、画像処理方法
JP6322099B2 (ja) 2014-09-12 2018-05-09 キヤノン株式会社 画像処理装置、及び、画像処理方法
JP6397284B2 (ja) 2014-09-16 2018-09-26 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016063324A (ja) 2014-09-16 2016-04-25 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9407815B2 (en) * 2014-11-17 2016-08-02 International Business Machines Corporation Location aware photograph recommendation notification
DE112014007205B4 (de) * 2014-11-26 2020-12-17 Mitsubishi Electric Corporation Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
JP6447108B2 (ja) * 2014-12-24 2019-01-09 富士通株式会社 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム
US20180040120A1 (en) * 2014-12-29 2018-02-08 Flagship Biosciences, Inc. Methods for quantitative assessment of mononuclear cells in muscle tissue sections
JP6478840B2 (ja) 2015-07-01 2019-03-06 キヤノン株式会社 画像処理装置および画像処理方法
JP6525862B2 (ja) 2015-08-07 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6660119B2 (ja) 2015-08-07 2020-03-04 キヤノン株式会社 情報処理装置、情報処理方法、並びにプログラム
US20170286383A1 (en) * 2016-03-30 2017-10-05 Microsoft Technology Licensing, Llc Augmented imaging assistance for visual impairment
JP6666046B2 (ja) 2016-04-25 2020-03-13 キヤノン株式会社 画像処理装置および画像処理方法
EP3239929B1 (en) 2016-04-27 2019-06-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
US10013622B2 (en) * 2016-06-30 2018-07-03 International Business Machines Corporation Removing unwanted objects from a photograph

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186714A (ja) * 2010-03-08 2011-09-22 Nk Works Kk アルバム作成方法、及びアルバム作成装置
JP2012032728A (ja) * 2010-08-03 2012-02-16 Olympus Imaging Corp 画像表示装置および画像表示方法
JP2014016785A (ja) * 2012-07-09 2014-01-30 Canon Inc 画像処理装置、画像処理方法、及びプログラム
JP2015172795A (ja) * 2014-03-11 2015-10-01 富士フイルム株式会社 画像処理装置、重要人物判定方法、画像レイアウト方法ならびにプログラムおよび記録媒体

Also Published As

Publication number Publication date
US20180165538A1 (en) 2018-06-14
US10740641B2 (en) 2020-08-11
JP6942464B2 (ja) 2021-09-29

Similar Documents

Publication Publication Date Title
JP6942464B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6902860B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6723909B2 (ja) 画像処理方法、画像処理装置、及びプログラム
JP6525862B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7350495B2 (ja) 装置、方法、及びプログラム
JP6711937B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7286392B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7250567B2 (ja) 装置、方法、及びプログラム
JP6494504B2 (ja) 情報処理装置、制御方法およびプログラム
JP2019191832A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6862164B2 (ja) プログラム、画像処理装置、および画像処理方法
JP7076974B2 (ja) 画像処理装置、制御方法およびプログラム
JP7341676B2 (ja) 装置、方法、及びプログラム
JP6532398B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7286393B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017117404A (ja) 画像処理装置、画像処理方法、およびプログラム
CN108377351A (zh) 用于在模板上布局图像的图像处理装置和图像处理方法
JP7341677B2 (ja) 装置、方法、及びプログラム
JP2020140557A (ja) 画像処理装置、制御方法、及びプログラム
JP6606374B2 (ja) 画像処理装置および方法およびプログラム
JP2020140555A (ja) 画像処理装置、制御方法、及びプログラム
JP7027101B2 (ja) 情報処理装置、制御方法、及びプログラム
JP6761243B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6700806B2 (ja) プログラム、情報処理装置および制御方法
JP7263054B2 (ja) 装置、方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210908

R151 Written notification of patent or utility model registration

Ref document number: 6942464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151