JP7286392B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7286392B2
JP7286392B2 JP2019078783A JP2019078783A JP7286392B2 JP 7286392 B2 JP7286392 B2 JP 7286392B2 JP 2019078783 A JP2019078783 A JP 2019078783A JP 2019078783 A JP2019078783 A JP 2019078783A JP 7286392 B2 JP7286392 B2 JP 7286392B2
Authority
JP
Japan
Prior art keywords
image
images
user
page
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019078783A
Other languages
English (en)
Other versions
JP2020177419A (ja
Inventor
寛康 國枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019078783A priority Critical patent/JP7286392B2/ja
Priority to US16/851,131 priority patent/US11570312B2/en
Publication of JP2020177419A publication Critical patent/JP2020177419A/ja
Application granted granted Critical
Publication of JP7286392B2 publication Critical patent/JP7286392B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00185Image output
    • H04N1/00196Creation of a photo-montage, e.g. photoalbum
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Editing Of Facsimile Originals (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示の技術は、アルバムデータ作成を行う画像処理装置、画像処理方法、及びプログラムに関する。
デジタルカメラの普及に加え、近年ではスマートデバイスの普及及びスマートデバイスのカメラ性能向上により、ユーザの写真撮影枚数が急激に増加している。写真をまとめる方法として、写真をデジタル的に加工して配置するフォトブックが提案されている。デジタル的に加工するため、パソコンなどで編集することができる。
特許文献1では、画像の付帯情報に基づいてグルーピングし、重要度の高いグループのみ解析を行って画像評価し、評価値が一定以上の画像を使って電子アルバムを作成する方法が提案されている。
特開2015-114920号公報
しかしながら、特許文献1において画像をグループに分割して重要なグループのみ評価して高得点の画像を利用するだけでは、ページ追加時の次のような課題を解決できない。すなわち、システムが付帯情報および評価得点に基づき自動レイアウトした後に、自動レイアウト結果に対してユーザがページの追加を行う場合、ユーザが指定した画像枚数と、システムにより設定される追加ページに必要な画像枚数が必ずしも一致しない。その結果、ユーザが手作業でレイアウトの修正処理を行う必要があり、ユーザ負担が大きい。
本開示の技術は、作成されたアルバムデータにページを追加する場合、ユーザが指定した画像に応じて、追加するページに使用する画像の選択を行うことを目的する。
本開示の技術は、複数のページを含むアルバムデータに対して、ページの追加指示を受け付ける受付手段と、前記追加指示により追加されるページに配置される画像として、ユーザにより選択されたユーザ選択画像を取得する画像取得手段と、前記ユーザ選択画像の解析情報を取得する第1の解析情報取得手段と、前記ユーザ選択画像の解析情報に基づき、前記追加されるページに配置される前記ユーザ選択画像以外の画像を選択する選択手段と、を備えることを特徴とする。
本開示の技術によれば、作成されたアルバムデータにページを追加する場合、ユーザが指定した画像に応じて追加するページに使用する画像の選択を行うことができる。
本発明に係るアプリケーションを実行可能なハードウェアブロック図である。 本発明に係るアプリケーションのソフトウェアブロック図である。 本発明に係るアプリケーションが表示する表示画面の図である。 本発明に係る自動レイアウトの処理フロー図である。 本発明に係る画像解析情報を説明する図である。 本発明に係る画像群分割を説明する図である。 本発明に係るシーン分類を説明する図である。 本発明に係る画像得点を説明する図である。 本発明に係る画像選択を説明する図である。 本発明に係る画像レイアウトを説明する図である。 本発明に係る詳細な画像選択を説明する図である。 本発明に係る画像選択の詳細なフローを説明する図である。 本発明に係る詳細な画像選択を説明する図である。 本発明に係る画像選択の詳細なフローを説明する図である。 本発明に係る追加ページに使用する画像選択を説明する図である。 本発明に係る追加ページに使用する画像選択のフローを説明する図である。 本発明に係る追加ページの自動レイアウトを説明する図である。 本発明に係る追加ページの自動レイアウトのフローを説明する図である。 本発明に係る追加ページの自動レイアウトを説明する図である。 本発明に係る追加ページの自動レイアウトのフローを説明する図である。 本発明に係る追加ページの指定方法を説明する図である。 本発明に係る追加ページに使用する画像の指定方法を説明する図である。 本発明に係る追加ページに使用する画像の選択結果を説明する図である。 本発明に係る追加ページのレイアウト結果を説明する図である。
(実施形態1)
以下、本発明の実施形態について図面を用いて詳細に説明する。
本実施形態では、画像処理装置において、アルバムデータ作成のためのアプリケーション(以下、「アプリ」ともいう)を動作させ、自動でレイアウトを生成する方法を例に挙げて説明する。
図1は、本発明に係る画像処理装置のハードウェアの構成を説明するブロック図である。画像処理装置としては、例えば、PC、スマートフォン等が挙げられ、本実施形態ではPCとする。
図1において、画像処理装置100は、CPU101と、ROM102と、RAM103と、記憶装置104と、ディスプレイ105と、キーボード106と、マウス107と、データ通信装置108と、を備えている。これらは、データバス109により相互に接続されている。
CPU(中央演算装置/プロセッサ)101は、システム制御部であり、画像処理装置100全体を制御する。また、CPU101は、本実施形態で説明する画像処理方法をプログラムに従って実行する。なお、図中のCPUは1つとしたが、これに限定されず、複数備えていてもよい。
ROM102は、CPU101により実行されるプログラムが記憶されている。RAM103は、CPU101によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。記憶装置(SSDやHDDなど)104は、画像ファイルや画像解析などの処理結果を保持するデータベースなどを記憶するための記憶媒体である。本実施形態では、記憶装置104は、詳細は後述するアルバムデータ作成のためのアプリケーションプログラムを記憶する。
ディスプレイ105は、本実施形態のUI(ユーザインターフェイス)や画像のレイアウト結果をユーザに提示する装置である。ディスプレイ105は、タッチセンサー機能を備えても良い。キーボード106は、入力装置の1つであり、例えば、ディスプレイ105に表示されたUI上に任意の情報を入力するのに用いられる。本実施形態では、キーボード106を介してアルバムの見開き数を入力する。マウス107は、入力装置の1つであり、例えば、ディスプレイ105に表示されたUI上のボタンを選択したり、クリックしたりするのに用いられる。
データ通信装置108は、プリンタやサーバなどの外部装置と通信するための装置である。例えば、生成されたレイアウトのデータは、データ通信装置108を介してPCに接続されたプリンタやサーバに送信される。
データバス109は、上述した各部(102~108)とCPU101とを接続する。
図2は、本発明に係るアルバムデータ作成アプリケーションのソフトウェアの構成を説明するブロック図である。本実施形態では、記憶装置104に保存されたアルバムデータ作成アプリケーションは、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより起動することができる。アルバムデータ作成アプリケーションは様々な機能を持つが、本実施形態では、特に自動レイアウト処理部219により提供される自動レイアウト機能に関して説明する。
図2に示すように、アプリケーションは、アルバム作成条件設定部201と、自動レイアウト処理部219と、アルバム表示部220とを含む。自動レイアウト機能は、撮影された写真をその内容や属性に基づいて分類し、あるいは選択して写真をレイアウトし、ディスプレイ105に表示するアルバム画像を生成するための機能である。
アルバム作成条件設定部201は、マウス107などを用いたユーザによるUI操作に応じてアルバム作成条件を自動レイアウト処理部219に指定する。本実施形態では、アルバム作成条件として以下のものを設定可能とする。設定可能なアルバム作成条件は、主人公、見開き数、テンプレートの種類、アルバム作成のモード、画像補正をするか否か、アルバムの見開きあたりに配置する画像枚数を調整する見開き写真枚数、アルバムを作成する商材を指定する商材指定である。画像・動画の指定は、例えば撮影日時など個別の画像データの付随情報や属性情報による指定であってもよいし、デバイスやディレクトリの指定など、画像・動画データを含むファイルシステムの構造に基づく指定であってもよい。なお見開きとは、例えば表示においてはひとつの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。
動画取得部202は、アルバム作成条件設定部201により指定された動画群(動画データ群)を記憶装置104から取得する。ここでいう動画群とは、1つのアルバムデータ作成の際にそれらの動画から切り出された画像がレイアウトに利用される候補動画群を指す。取得された動画データは、解析できるようにOSに標準搭載されている動画のデコーダなどを使って圧縮された状態から展開しておく。
動画解析部203は、動画取得部202で取得された動画データを解析する。動画解析部203は、動画から連続するフレームを切り出し、注目するフレームとその前後のフレームとの差分量を算出する。差分量が多い場合は、注目するフレームとその前後のフレームとが類似していないので動き量が多いフレームと判断される。差分量が少ない場合は、それら一連のフレームが似ているので動き量が少ないフレームと判断される。動き量に関しては、前述したフレーム間の差分以外にも動画フォーマットで利用している動きベクトルを利用してもよい。
そして動画解析部203は、この判定された動き量から解析対象とするフレームを選定する。動き量の多さに基づいて、動いている区間と止まっている区間に分けることができる。動き量が多いと判定された区間は解析対象とするフレーム間隔を短くし、動き量が少ないと判定された区間は解析対象とするフレーム間隔を長くする。例えば、動き量が多い区間は5フレーム間隔で解析対象とし、動き量が少ない区間は区間の最初と最後及び中間のフレームを解析対象とする。
さらに動画解析部203は、解析対象となったフレームに解析処理を行う。解析する項目は、顔や動物などのレイアウトに利用するオブジェクト検出、オブジェクトのサイズ判定、顔に関しては笑顔判定、目瞑り判定、ブレボケ判定、画像全体の明るさ判定を行う。そして次のように各判定項目の結果に応じて得点を算出し、得点化する。
オブジェクト検出は検出されたオブジェクトがフレーム内に含まれる場合は高得点とする。オブジェクトのサイズ判定は検出されたオブジェクトのサイズが大きければ高得点とする。笑顔判定で笑顔と判定された顔の数、及び目瞑り判定で目瞑りしていないと判定された顔の数が多い方が高得点とする。ブレボケ判定では画像のエッジ量をラプラシアンフィルタにより算出してエッジ量が多いほどぼけていないので高得点とする。画像全体の明るさに関しては画像の平均輝度が所定値以上であれば高得点とする。
動画解析部203は、最終的にはこれら項目ごとの得点の総和となる総合得点を算出する。他にも、判定した動き量に応じてブレボケを判定する領域を変更してもよい。例えば、動画撮影時に動いている被写体を追尾した場合、被写体はくっきり写るが背景はぼけるため、画像全体としてはぼけてしまう。そのため、動き量が多い場合は顔などの被写体領域のみでボケ量を判定する方法も考えられる。
このように動画解析部203は、分割され、動いている/止まっている各区間から算出した総合得点が所定値以上のフレームをベストショットと判定する。
フレーム取得部204は、動画解析部203で解析された結果に基づいて、動画からベストショットと判定されたフレームを切り出して画像データとして記憶装置104に保存する。その際、切り出された画像データと関連付けて、動画解析部で判定された動き量、カメラワーク、得点を保存する。フレーム取得部204は、判定された得点からアルバムに利用する画像、アルバムデータ作成後にユーザが差し替え利用するための候補画像というように用途を画像データに関連付けて保存してもよい。
画像取得部205は、アルバム作成条件設定部201により指定された画像群(画像データ群)を記憶装置104から取得する。ここでいう画像群とは、1つのアルバムデータ作成の際にレイアウトされる候補画像群を指す。例えば、アルバム作成条件設定部201において撮影日としてXX年1月1日~XX年12月31日が指定された場合は、XX年1月1日~XX年12月31日に撮影された画像全てが指定された画像群に該当する。画像取得部205は、指定された画像群における各画像の幅及び高さ情報も取得する。
記憶装置104に保存されている画像としては、静止画像や、動画から切り出された切り出し画像を含む。静止画像や切り出し画像は、デジタルカメラやスマートデバイス等の撮像デバイスから取得したものである。撮像デバイスは、画像処理装置100が備えていてもよいし、外部装置が備えるものであってもよい。なお、撮像デバイスが外部装置である場合は、画像はデータ通信装置108を介して取得される。また、静止画像や切り出し画像は、データ通信装置108を介してネットワーク上のサーバやストレージなどから取得された画像であってもよい。ネットワーク上のサーバから取得された画像としては、ソーシャルネットワーキングサービスを介して提供される画像(以下、「SNS画像」という)が挙げられる。CPU101によって実行されるプログラムは、各画像に対して、画像に付随したデータを解析して保存元を判定する。SNS画像は、アプリケーションを介してSNSから画像を取得できるようにアプリケーション内で取得先を管理してもよい。なお、記憶装置104に保存される画像は、上述した画像に限定されるものではなく、他の種類の画像であってもよい。
画像変換部206は、記憶装置104に保存された画像データの画素数や色情報を変換する。本実施形態では、画像データを画素数が短辺420画素とし、色情報がsRGBの画像データに変換する。
画像解析部207は、画像データの解析処理をする。本実施形態では、画像変換部206で変換済みの画像データの解析処理をする。具体的には、画像データから特徴量を取得し、画像データにおけるオブジェクト判定、顔検出、検出した顔の表情認識、検出した顔の個人認識を実行する。さらに、記憶装置104から取得した画像に付随したデータ(例えば、Exif情報)から、撮影日時の取得を行う。これら得られた情報からなる解析情報は、画像データごとにバイナリファイルで保存してもよい。レイアウト処理を行う際に、この解析結果のバイナリファイルを利用することにより解析時間を短縮することができる。
画像分類部208は、取得した画像群、すなわち、アルバム作成条件設定部201により指定された画像群をサブ画像群(サブ画像データ群)に分割(画像群分割)する。画像群分割は、画像枚数情報、画像解析部207から取得した解析情報に含まれる撮影日時情報、及び検出した顔情報を使って実施する。シーンとは、旅行、日常、結婚式等の所定の撮影シーンのことである。シーンとは、例えば、1つの撮影対象について一時期の撮影機会に撮影された画像の集まりであるということもできる。
主人公情報入力部209は、アルバム作成条件設定部201から指定された主人公の顔辞書データベースに登録されている個人ID(識別情報)を画像得点部210に入力する。
画像得点部210は、各画像に対して得点付けをする。本実施形態では、レイアウトに適した画像が高得点になるように各画像に対して得点付けをする。レイアウトに適した画像が高得点になるように得点付けする際は、画像データの解析情報、画像分類結果、主人公情報、画像情報、アルバム作成条件を用いる。また、他の情報を付加的に或いは代替的に用いてもよい。算出した画像得点結果は画像ごとにバイナリファイルで保存してもよい。なお、画像得点部210は、後述するように動画から切り出された画像データに対しては動画解析部203での解析結果を加味して得点を付ける。
見開き数入力部211は、アルバム作成条件設定部201から指定されたアルバムの見開き数を見開き割当部212に入力する。
見開き割当部212は、画像群を分割して各見開きに割り当てる。ここでいう見開きとは、例えば、アルバムを作成した際の見開き2ページである。ここでは見開きで説明するが単一ページでもよい。見開き割当部212は、入力された見開き数に応じて画像群を分割して各見開きに画像群の一部を割り当てる。例えば、見開き数が5である場合、取得した画像群を5つに分割してサブ画像群を生成し、各見開きに1つのサブ画像群を割当てる。
画像選択部213は、見開き割当部212で各見開きに割り当てられたサブ画像群から画像得点部210で付けた得点に基づいて、高得点の画像から順に選択する。
テンプレート設定部214は、アルバム作成条件設定部201から指定されたテンプレート情報に応じた複数のテンプレートを記憶装置104から読み込み、画像レイアウト部215に入力する。
画像レイアウト部215は、画像の見開き又はページにおけるレイアウトを決定し、レイアウト情報を出力する。具体的には、テンプレート設定部214により入力された複数のテンプレートから画像選択部213で選択した画像に適したテンプレートを選択する。そして画像レイアウト部215は、ページ又は見開きごとに選択されたテンプレートにおける画像の配置位置を決定して各ページ又は見開きのレイアウト情報(アルバムデータとも呼ばれる)を作成する。
レイアウト情報出力部218は、画像レイアウト部215が作成したページ又は見開きを、決められた順番に並べたアルバム全体のレイアウト情報を出力する。レイアウト情報は、例えば、選択したテンプレートに選択した画像が配置されたビットマップデータである。
画像補正部217は、覆い焼き補正、赤目補正、コントラスト補正をする。画像補正条件入力部216は、アルバム作成条件設定部201から指定された画像補正のON/OFF条件を画像補正部217に入力する。画像補正のオンまたはオフは、補正の種類ごとに指定されてもよいし、全ての種類についてまとめて指定されてもよい。画像補正部217は、画像補正条件がONの場合は、画像に対してONとなっている補正を実施する。画像補正条件がOFFの場合は、OFFとなっている補正を実施しない。画像変換部206から画像補正部217に入力する画像の画素数は、画像レイアウト部215で決定したレイアウト画像のサイズに合わせて変えることができる。本実施形態では、レイアウト画像を生成した後に、各画像に画像補正を行うものとしたが、これに限定されず、見開き又はページにレイアウト(配置)する前に、各画像の補正を行うようにしてもよい。
アルバム表示部220は、レイアウト情報出力部219が出力したレイアウト情報に基づいて、作成したアルバムデータを使って表示制御を行う。その結果、アルバムデータの画像がディスプレイ105に表示される。
本実施形態に係るアルバムデータ作成アプリケーションは、画像処理装置100にインストールされ、ユーザ操作により起動されると、記憶装置104に保存されているアルバムデータ作成アプリケーションのプログラムがRAM103にロードされる。RAM103のプログラムがCPU101によって実行されて、アルバムデータ作成アプリケーションが起動する。
図3は、起動したアルバムデータ作成アプリケーションが提供する表示画面301であり、ディスプレイ105に表示される。ユーザは、表示画面301を介して、アルバムの作成条件を設定することができる。ユーザは、表示画面301上のUI画面を介して、後述するアルバムの作成条件を設定することができる。
表示画面301は、入力画像・動画群の指定部として、パスボックス302及びフォルダ選択ボタン303を有する。ユーザは、作成するアルバムに収録する候補となる画像・動画群を含むフォルダの保存場所(パス)をパスボックス302に入力するか、フォルダ選択ボタン303をマウス107でクリックして表示されるツリー構成からそのフォルダを選択することができる。ユーザがフォルダ選択ボタン303から画像・動画群を含むフォルダを選択すると、選択したフォルダパスがパスボックス302に表示されてもよい。
主人公指定部304には、人物の顔画像がアイコンとして複数表示され、ユーザがアイコンを選択することにより主人公を指定することができる。なお、主人公指定部304には、人物毎に顔画像が表示される。言い換えれば、主人公指定部304には、1人に対して1つの顔画像が表示され、それぞれの顔画像は個人IDと関連付けられている。
なお、この主人公指定部304は、解析対象の画像すなわち写真に写った人物から中心人物である主人公を特定するために用いられる。顔画像は、例えば予め画像から検出され、個人IDと関連付けて顔辞書データベースに登録されている。主人公指定部304に表示されるアイコンは、例えば顔辞書データベースに登録された人物の顔画像のうち、ユーザが選択した人物の顔画像や後述の方法で決めた人物の顔画像である。主人公指定部304には、異なる人物の顔画像のアイコンが複数並び、マウス107によってクリックして選択できる。主人公は図4の手順で自動設定することもできるが、主人公指定部304でユーザが手動設定することもできる。主人公指定部304に表示されたアイコンのうちユーザにより選択されたアイコンの人物が主人公として指定される。
見開き数ボックス305は、アルバムにおける見開き数を指定するボックスである。ユーザは、キーボード106を使って見開き数ボックス305に直接数字を入力したり、マウス107を使ってリストから見開き数ボックス305に数字を入力したりすることができる。
テンプレート指定部306は、テンプレートのテイスト(ポップ調やシック調等)が分かるイラスト画像がアイコンとして複数表示され、テンプレートを指定することができる。本実施形態では、テンプレートとは、画像を配置するための画像配置枠(スロット)を有する。テンプレート指定部306では、複数のテンプレートのアイコンが並び、マウス107によってクリックすることにより、テンプレートを選択することができる。
モード指定部307は、アルバムを作成する際に考慮するオブジェクトが分かるイラスト画像がアイコンとして複数表示され、オブジェクトを指定することができる。本実施形態では、「人」、「動物」、「料理」の3つをオブジェクト例として説明する。これ以外のオブジェクトで、3つ以上のオブジェクトから選択してもよい。また、同時に複数のオブジェクトを指定することも可能だが、ここでは説明の簡略化のためにオブジェクトが1つ選択された場合について説明する。マウス107によってモード指定部307内のオブジェクト毎に設けられたアイコンをクリックすることにより、考慮するオブジェクトを指定することができる。
チェックボックス308は、画像補正のON/OFFを指定することができる。マウス107でチェックを入れると上述した画像補正がONとなり、チェックを入れないと画像補正がOFFとなる。本実施形態では、全ての画像補正が1つのボタンでON/OFFされるものとしたが、これに限定されず、画像補正の種類毎にチェックボックスを備えるようにしてもよい。
見開き写真枚数指定バー309は、作成するアルバムの各見開きに配置する画像枚数をスライダーバーで設定することができる。スライダーバーがユーザにより「多」側に設定されると、各見開きに配置する画像枚数を増やす。また、スライダーバーがユーザにより「少」側に設定されると、各見開きに配置する画像枚数を減らす。
商材指定部310は、作成するアルバムの商材を設定する。商材は、アルバムのサイズ、アルバムの用紙種類を設定することができる。個別に表紙種類や綴じ部の種類を設定してもよい。
OKボタン311は、表示画面301上で選択された条件をアルバム作成条件として決定するボタンである。ユーザがOKボタン311をマウス107でクリックして選択すると、アルバム作成条件が確定し、アルバム作成条件設定部201を介して、自動レイアウト処理部219にアルバム作成条件が伝えられる。具体的には、パスボックス302に入力されているパスは画像取得部205に伝えられる。主人公指定アイコン304で選択されている主人公の個人IDは主人公情報入力部209に伝えられる。見開き数ボックス305に入力されている見開き数は見開き数入力部211に伝えられる。テンプレート指定アイコン306で選択されているテンプレート情報はテンプレート設定部214に伝えられる。画像補正チェックボックスの画像補正のON/OFFは画像補正条件入力部216に伝えられる。
リセットボタン312は、表示画面上の各設定情報をリセットするためのボタンである。
図4は、本実施形態に係るアルバムデータ作成アプリケーションの自動レイアウトを実行する処理フロー図である。図4に示すフローチャートは、例えば、CPU101が記憶装置104に格納されたプログラムをROM102やRAM103に読み出して実行することにより実現される。図4を使って、自動レイアウトの処理フローを以下説明する。以下に示す通り、本実施形態では、アルバムを作成する際に、アルバムを作成するための画像群を撮影時間に応じてサブ画像群に分割し、分割した各サブ画像群(以下、「区間」ともいう)からページ又は見開きに配置する画像を選択する。
S401では、アルバム作成条件設定部201がアルバム作成条件を設定する。ここで、アルバムを作成する動画・画像群、主人公、見開き数、テンプレート、モード、画像補正に関して設定された情報が設定される。
S402では、動画取得部202が、指定されたフォルダから動画データを取得する。
S403では、動画解析部203が、取得した動画データの解析を行う。動画解析部203は、動き量、カメラワーク、ブレボケや表情などの結果を組み合わせた総合スコア値を算出する。更に、動画解析部203は、算出した総合スコア値に基づいて自動レイアウト候補用と、ユーザが編集作業時に差し替える編集候補用とに分けてもよい。例えば、算出した総合スコア値が所定の閾値以上であれば自動レイアウト候補用としてもよい。
S404では、フレーム取得部204が、解析した動画データから所定の閾値以上の総合スコア値を有するフレームを切り出して画像データとして記憶装置104に保存する。保存されたフレームに対応する解析結果(動き量、カメラワーク、総合スコア値)を関連付けて記憶装置104に保存されても良い。
S405では、アルバム作成条件設定部201で指定された記憶装置104の動画群の全動画に対して、S402からS404が終了したか否かを動画解析部203が判定する。終了していない場合(S405でNo)、S402に戻る。終了している場合(S405でYes)はS406に移行する。
S406では、画像取得部205が指定された画像群に含まれる画像を記憶装置104から読み込み、RAM103に展開する。
S407では、画像変換部206がRAM103に展開された画像データから解析画像データを生成する。画像変換部206は、アルバム作成条件設定部201で指定され、記憶装置104から取得した画像群の各画像を所望の画素数と色情報に変換する。なお、ここで変換後の画素数及び色情報は、予め決められており、プログラム又はプログラムが用いるパラメータファイルに保存されている。本実施形態では、入力された画像データを短辺420画素のサイズとsRGBの色空間とを持つ解析画像データに変換する。
S408では、画像解析部207が画像データに付随する情報および解析画像データの画質の特徴量を取得する。画像解析部207は、記憶装置104から取得した画像群に含まれる各画像データに付随する情報から撮影日時を取得する。本実施形態では、各画像データに付随するExif情報から撮影日時を取得する。また、画像解析部207は、S407で生成された解析画像データから画質の特徴量を取得する。画質の特徴量としては、例えば、ピントが挙げられる。エッジの検出方法として、公知のソーベルフィルタを用いることができる。ソーベルフィルタで画像のエッジを検出し、エッジの始点と終点の輝度差を、始点と終点の距離で割ることによりエッジの傾き、すなわち輝度勾配を算出する。画像中のエッジの平均傾きを算出して、平均傾きが大きい画像は、平均傾きが小さい画像よりもピントが合っていると判定することができる。本実施形態では、複数の傾き閾値を設定し、いずれの傾き閾値以上かを判別することでピント量が許容できるか判定する。本実施形態では、異なる2つの傾き閾値を設定し、○△×の3段階でピント量を判別する。画像中のエッジの平均傾きが第1の閾値以上であれば、ピントの傾きを○(好適)、第1の閾値よりも低い第2の閾値以上であれば、ピントの傾きを△(許容できる)、第2の閾値未満であればピントの傾きを×(許容できない)とする。
S409では、画像解析部207が各解析画像データにおいてオブジェクトの検出と認識とを実行する。S407で生成された解析画像データから顔を検出する。顔の検出は、公知の方法を用いることができる。公知の方法としては、例えば、複数用意した弱識別器から強識別器を作成するAdaboostが挙げられる。本実施形態では、画像解析部207が、Adaboostにより作成した強識別器により人物(オブジェクト)の顔を検出する。S409では、画像解析部207が、顔画像を検出(抽出)すると共に、画像における検出した顔画像の位置の左上座標値と右下座標値を取得する。なお、ここでいう「画像」とはS407で生成された解析画像データにより表される画像である。この2種の座標を特定することにより、人物の顔の位置と顔のサイズを特定することができる。更に、画像解析部207が、顔の検出と同様に、犬や猫等の動物と、料理をそれぞれ検出するAdaBoostも併せて実行することで、人物、動物、料理のオブジェクトを検出すると同時にオブジェクトが何であるかを分類し、認識することができる。なお、上記に限らず、花、建物、置物等であってもよい。ここでは、AdaBoostを用いたオブジェクト分類で説明したが、ディープニューラルネットワークによる画像認識を用いてもよい。画像解析部207は、このようにして認識した顔画像に個人IDを割り振って顔辞書データベースを作成する。
S410では、画像解析部207が個人認識をする。まず、S409で抽出した顔画像と、顔辞書データベースに個人ID毎に保存されている代表顔画像との類似性を比較する。そして、類似性が閾値以上であり且つ最も類似性が高い個人IDを、抽出した顔画像の個人IDに決定する。すなわち、画像解析部207は、類似性が閾値以上であり且つ最も類似性が高い個人IDに対応する人物を、抽出した顔画像の人物として特定する。なお、類似性が閾値未満の場合は、抽出した顔画像に新規の人物として新規の個人IDを割り振って、顔辞書データベースに登録する。
S408からS410までの画像解析情報取得ステップで取得した各解析画像データの画像解析情報は、図5に示すように、画像を識別するID毎に区別して記憶装置104に記憶する。画像解析部207は、S408で取得した撮影日時情報及びピント判別結果、S409で検出した顔の数と位置情報を各解析画像データの画像解析情報として保存する。なお、1つの解析画像データに基づく画像には、複数の顔画像が含まれる場合があるが、顔の位置情報は、S410で取得した個人ID毎に区別して記憶する。なお、画像データにおいて顔が検出されない場合は、S408で取得した撮影日時情報及びピント判別結果が保存される。また、画像解析部207は、画像内に含まれる主要オブジェクトをAdaboost実行時の信頼度が高いものから保存する。ここでは、オブジェクトが検出されなかった場合は、オブジェクトに関する情報は格納されない。顔以外のオブジェクトに関しても、同様に格納する。AdaBoostはパターンを判別する弱判別器を連続で接続し、1つの強判別器を形成する。そのため、信頼度はAdaboostで予め学習したパターンと一致する弱判別器が多いほど高くなる。ここでは、AdaBoostを例にオブジェクト判定を説明したが、DeepNeuralNetworkをはじめとするConvolutionalNeuralNetworkを用いた判別器であってもよい。
S411では、画像解析部207が、アルバム作成条件設定部201が指定された記憶装置104の画像群の全画像に対してS407からS410が終了したか否かを判定する。終了していない場合(S411でNo)、S406に戻る。終了している場合(S411でYes)はS412に移行する。
S412では、画像分類部208が解析画像群に対して画像群分割を行う。画像群分割とは、取得した解析画像群のうち撮影日時が近い画像同士をまとめてサブ画像群として、複数のサブ画像群に分割することを指す。具体的には、S408で取得済みの撮影日時情報に基づいて、解析画像間の時間差を頼りに解析画像群を複数のサブ画像群に分割する。分割の基準の例は以下のとおりである。解析画像群のうち、例えば最も撮影日時が古い(或いは新しい)画像データに最初に着目し、その次に古い(新しい)画像データとの時間差を参照する。これを、着目画像を順次撮影日時が新しい(或いは古い)ものに置き換えつつ以下のいずれの条件に該当するか判定を行う。なお以下の説明で分割するとは、2つの画像データ間を境に撮影日時の新しいサブ画像群と古いサブ画像群とに分割するという意味である。
まず、画像分類部208は、撮影日が連続していない場合、すなわち、画像間に撮影していない日が存在する場合は、そこで分割する。次に、画像分類部208は、撮影日が連続する場合について説明する。本実施形態では、画像と画像の撮影時間の差が16時間以上空いている場合はそこで分割する。画像と画像の撮影時間の差が16時間未満の場合は、連続する各日の最初の撮影から最後の撮影までの時間差が4時間未満なら撮影日ごとに分割する。本実施形態では、4時間以上の場合は、連続する各日の撮影枚数が50枚未満なら撮影日ごとに分割し、50枚以上であれば分割しないものとする。なお、分割の際の時間差の閾値や枚数の閾値は、これに限定されるものではない。図6(A)は、上述した画像群分割方法で分割した結果を示している。
S413では、画像分類部208がシーン分類を行う。本実施形態では、各サブ画像群を旅行、日常、セレモニーの3つのシーンに分類する場合を例に挙げて説明するが、分類するシーンはこれに限定されるものではない。
まず、旅行、日常、セレモニーのうちいずれのシーンに分類されるかを予め判定したサブ画像群を複数取得する。そして各シーンのサブ画像群について、撮影の特徴量を取得する。本実施形態で取得する特徴量は、例えば、撮影期間、撮影枚数、撮影人数である。撮影期間は、サブ画像群の最初の撮影から最後の撮影までの時間差である。撮影枚数は、サブ画像群に含まれる画像の数(写真の枚数)である。撮影人数は、顔が写っている画像における顔の数である。すなわち、1つの画像に含まれる顔の数である。そして、各シーンのサブ画像群に対して、撮影期間の平均値と標準偏差、撮影枚数の平均値と標準偏差、1画像あたりの人数の平均値と標準偏差を求める。なお、本実施形態では、1画像あたりの顔の数が、1画像あたりの人数とする。図7は、撮影期間(時間)、撮影枚数(枚)、撮影人数(人)各平均値と標準偏差の一例を示す。これらの求めた値は、アルバムデータ作成アプリケーションのプログラムに予め組み込んでおく。具体的には、設計段階において、予め集めたサンプル画像に対して、各画像のシーンを示す情報を教師データとして紐づける。そしてサンプル画像を入力データ、シーンを示す情報を教師データとして、ディープニューラルネットワークのアルゴリズムを用いて学習を行うことにより、学習済みモデルを生成するとよい。生成された学習済みモデルは、画像が入力された場合に、その画像のシーンを示す情報を出力するよう、パラメータが調整されている。なお、学習方法は、ディープニューラルネットワークに限らず、最近傍法、ナイーブベイズ法などを利用してよい。学習により生成された学習済みモデルは、プログラムに予め組み込んでおく、又はプログラムが参照可能な状態で格納しておくとよい。
アルバムデータ作成アプリケーションが起動された後、ユーザがパスボックス302で指定した画像群がS406で画像取得部205により取得され、S407で画像変換部206が取得した画像群を解析画像に変換する。その解析画像群は、S412で画像分類部208によりサブ画像群に分割される。そして画像分類部208は、各サブ画像群の撮影期間、撮影枚数、及び撮影人数のそれぞれの平均値である特徴量を算出する。そして、画像分類部208は、算出したサブ画像群の特徴量と、予め求めたシーン及び特徴量毎の平均値及び標準偏差とに基づいて、以下の式により各サブ画像群のシーン毎の得点を求める。
シーン及び特徴量毎の得点=50-|10×(シーン及び特徴量毎の平均値-サブ画像群の特徴量)/シーン及び特徴量毎の標準偏差| 式(1)
シーン毎の平均得点=(シーン毎の撮影期間の得点+シーン毎の撮影枚数の得点+シーン毎の撮影人数の得点)/特徴量項目数 式(2)
なお、式(2)の特徴量項目数はこの場合3である。これら式(1)及び式(2)により、着目サブ画像群の、各シーンについての得点が求められる。例えば、図7に記載の平均値と標準偏差および式(1)により、旅行シーンの撮影期間、撮影枚数、撮影人数それぞれの得点が求められる。すなわち、旅行シーンの撮影期間の得点は、50-|10×(33.221-サブ画像群の撮影期間)/4.778|となる。旅行シーンの撮影枚数の得点は、50-|10×(3.336-サブ画像群の撮影枚数)/4.671|となる。旅行シーンの撮影人数の得点は、50-|10×(4.634-サブ画像群の撮影人数)/1.532|となる。これら式(1)で求めた旅行シーンの特徴量毎の得点を式(2)により平均化して、旅行シーンに関する得点とする。同様に、日常、セレモニーという他のシーンについても得点が得られる。
以上により、S412で分割されたサブ画像群毎に、旅行、日常、セレモニーのシーン毎の平均得点が算出される。このようにして画像分類部208は、算出した各サブ画像群のシーン毎の平均得点のうち最高点のシーンにそのサブ画像群を分類する。2以上のシーンが同点の場合は、予め定めたシーンの優先順位に従ってシーンを分類する。例えば、本実施形態では、日常>セレモニー>旅行の順に優先することが予め決められており、日常の優先度を最も高くしている。なお、優先度の順番はこれに限定されるものではなく、また、ユーザが優先度の順番を設定できるようにしてもよい。
図6(a)のシーン分割された後のサブ画像群(5)は、撮影期間が36時間、撮影枚数が300枚、撮影人数が1.7人であった。旅行の平均得点は45.32、日常の平均得点は18.38、セレモニーの平均得点は-29.92となり、サブ画像群(5)のシーンは旅行に分類される。サブ画像群は、シーン識別ができるようにシーンIDを関連付けて管理する。
S414では、画像分類部208は、S412で分割された全サブ画像群に対してS413のシーン分類が終了したか否かを判定する。終了していない場合(S414でNo)、S413に戻る。終了している場合(S414でYes)、S415に移行する。
S415では、画像得点部210が主人公設定を行う。主人公設定は、ユーザが指定した画像群に対して実施され、自動と手動の2種類がある。自動で主人公を設定する場合、S410の個人認識の結果と、S412の画像群分割の結果に基づいて設定する。画像得点部210は、S410で取得した結果から、サブ画像群に登場する各個人IDの出現数、各シーンに登場する各個人IDの出現数、各個人IDが登場するシーンの出現数等を特定し、これらの情報から自動で主人公を設定する。本実施形態では、サブ画像群が複数シーンに分類されている場合は複数のシーンに登場する個人IDを主人公IDと設定し、全サブ画像群が単一シーンに分類されている場合は全サブ画像群での出現数が最も多い個人IDを主人公IDと設定する。主人公指定部304でユーザが特定のアイコンを指定している場合は、主人公情報入力部209を介して選択されたアイコンに対応する個人IDが画像得点部210に伝えられる。ユーザ指定の個人IDがある場合は、上述した自動設定の主人公IDは無視して、ユーザ指定の個人IDを主人公IDと設定する。このように、主人公指定部304でのユーザ指定に基づく設定を手動設定とする。
S416では、画像得点部210が得点化を行う。得点化とは、後述する画像選択時に参照する値であり、画像データ毎に後述する観点で評価した得点を付ける。更に、動画から切り出された画像データに対しては動画解析部203で解析された結果も加味して得点を付ける。ここで、図8及び図10を用いて、得点化方法について説明する。
図10は、3枚の画像を配置するためのテンプレート群を示している。図10の(1-1)に示すテンプレート1001は、1つのテンプレートであり、メインスロット1002と、サブスロット1003と、サブスロット1004を有する。メインスロット1002とは、テンプレート1001で主要なスロット(画像を配置する位置)であり、サブスロット1003、1004よりもサイズが大きい。すなわち、メインスロットとは、各テンプレートにおいて、最もサイズが大きいスロットである。また、サブスロットとは、各テンプレートにおいて、メインスロット以外のスロットである。本実施形態では、各画像データにメインスロット用の得点とサブスロット用の得点との両方が設定する。
次に、図8(a)に画像データの得点化の基準を示す。より具体的には、図8(a)は、旅行、日常、セレモニーのシーン毎に得点が高くなる画像の特徴をまとめた表である。なお、図8(a)に示すように、スロットの種類に応じて、得点が高くなる特徴が異なる。例えば、サブ画像群のシーン分類が旅行である場合、人物と風景が入った引きの画像は、メインスロットとしての得点が高くなり、顔のアップや横顔の画像は、サブスロットとしての得点が高くなる。一方、サブ画像群のシーン分類が日常である場合、顔のアップや横顔の画像は、メインスロットとしての得点が高くなり、人物と風景が入ったひいた画像は、サブスロットとしての得点が高くなる。また、サブ画像群のシーン分類がセレモニーである場合、2人の距離が近い画像は、メインスロットとしての得点が高くなり、大人数の画像は、サブスロットとしての得点が高くなる。このように、シーン及びスロットの種類に応じて、得点が高くなる特徴、言い換えれば、評価基準が異なる。本実施形態では、シーン及びスロットの種類に応じた得点が高くなる特徴又は評価基準は、アプリケーションにおいて予め設定しておき、プログラムに含むものとする。
なお、得点が高くなる特徴は、上述したものに限定されるものではない。図8(a)に示す各シーンのメインスロットとサブスロットとのそれぞれの評価基準に基づいて、各サブ画像群に含まれる各画像データに得点を付ける。
予め集めたサンプル画像群の各画像における顔の数、各画像における顔の位置、各画像における顔のサイズなどの各特徴量を取得する。そして、それら特徴量毎の平均値と標準偏差をシーン及びスロット種類(メインスロットとサブスロット)毎に求めて、アルバムデータ作成アプリケーションのプログラムに予め組み込んでおく。
ユーザが指定した画像群のシーン分類が終わると、画像群の各画像に対して、主人公IDの顔の数、顔の位置、顔サイズの各特徴量を算出する。また、S413のシーン分類の結果から各画像が属する(分類される)シーンを取得する。そして、注目画像における主人公IDの顔の数、顔の位置、顔サイズの各特徴量と、予め求めたシーン及びスロット種類毎の各特徴量の平均値及び標準偏差とに基づいて以下の式により注目画像のシーン及びスロット種類毎の得点を求める。下式において得点、平均値、標準偏差は、シーン分類、スロット種類及び特徴量ごとに求められる。
シーン及びスロット種類毎の各特徴量の得点=50-|10×(シーン及びスロット種類毎の各特徴量の平均値-注目画像の各特徴量)/シーン及びスロット種類毎の各特徴量の標準偏差| 式(3)
シーン及びスロット種類毎の平均得点=(シーン及びスロット種類毎の顔数の得点+シーン及びスロット種類毎の顔位置の得点+シーン及びスロット種類毎の顔サイズの得点)/特徴量項目数 式(4)
なお、式(4)の特徴量項目数はこの場合3である。このように各画像に対する得点として、メインスロットの得点とサブスロットの得点とを付ける。
更に、上記算出された得点に対して、アルバム作成条件設定部201で指定されたモードに基づいて、得点に加算する。モードで人物と設定された場合には、図5の画像解析情報に格納されたオブジェクト分類でTOP1からTOP3の中でカテゴリが人の画像が含まれていれば得点を加算する。オブジェクト分類結果の信頼度が高いほど加算する得点を高くする。他にも、加算する得点はオブジェクト分類結果の順位に応じて変更してもよい。ここでは説明のために、モードで人物が選択された場合を説明したが、モードに動物や料理などが設定された場合は同様の条件で得点を加算する。また、モードの選択する個数は1つだけでなく、2つ以上を選択できるようにしてもよい。その場合は、選択されたオブジェクトが含まれている分だけ得点を加算すればよい。
また、図5の画像解析情報に含まれるピントの特徴量が○である画像IDの画像の得点に対して、さらに得点を加算してもよい。これにより、ピントが合っている画像の得点を高くすることができる。
図8(b)は、各画像の得点結果の一例を示しており、各画像IDに対して、メインスロットとサブスロットの得点が付けられている。各画像に対して、メインスロット及びサブスロットの両得点が設定された後、図5の画像解析情報に含まれる画像の種類が動画の場合は、動画解析部203で解析され算出されたスコア値をメインスロット及びサブスロットの両得点に加算する。ここでは、動画解析部203で算出されたスコア値を利用する方法を記載したが、動き量の多さに応じて加算するスコア値を多くしてもよい。または、カメラワークでズームした後のフレームやパン又はチルトした後のフレームに所定のスコア値を加算してもよい。そうすることで、動画撮影時のユーザの意図を反映させることができる。
動画撮影時のスコア値を加算するだけでは、動画から切り出された画像が静止画よりも得点が高くなる場合がある。その場合は、動画解析部203で算出された各切り出し画像のスコア値の平均値を算出し、それを全静止画像のスコア値に加算する、もしくは切り出し画像のスコア値から減算してもよい。
S417では、画像得点部210がユーザ指定の画像群の全画像に対してS416の画像得点化が終了したか否かを判定する。終了していない場合(S417でNo)、S416に戻る。終了している場合(S417でYes)、S418に移行する。
S418では、見開き割当部212が、画像分類部208の画像群分割により得られたサブ画像群数が見開き数入力部211により入力される見開き数と同じか否かを判定する。同じでない場合(S418でNo)、S419に移行する。同じ場合(S418でYes)、S422に移行する。例えば、図6(a)のサブ画像群数が8であり、見開き数入力部211の入力数が8であればS418でYesとなり、S422に移行する。
S419では、見開き割当部212が画像分類部208の画像群分割により得られたサブ画像群数が見開き数入力部211により入力される見開き数より少ないか否かを判定する。サブ画像群数が見開き数以上の場合(S419でNo)、S421に移行する。サブ画像群数が見開き数未満の場合(S419でYes)はS420に移行する。例えば、図6(a)の分割されたサブ画像群数が8であり、見開き数入力部211の入力数が10であれば、サブ画像群数が見開き数以上のためS419でNoとなり、S421に移行する。
S420では、見開き割当部212がサブ画像群再分割を行う。サブ画像群再分割とは、サブ画像群数<見開き数の場合に、分割されたサブ画像群を更に細分割することを指す。
図6(a)の分割されたサブ画像群数8に対して指定見開き数が10である場合を例に挙げて説明する。図6(b)では、図6(a)のサブ画像群の一部をサブ画像群再分割してサブ画像群数を10とした結果である。図6(b)の破線矢印の箇所でサブ画像群をさらに分割したことで、サブ画像群数を10にしている。分割するサブ画像群の決定基準は、サブ画像群の画像枚数および撮影日時である。まず、図6(a)のサブ画像群の中で画像枚数が多いサブ画像群を特定する。ここでは、サブ画像群数を8から10に2つ増やしたいため、画像枚数が多い2つのサブ画像群を特定する。すなわち、再分割すべき数のサブ画像群を、最も多くの画像を含むサブ画像群から順に指定する。画像数が同数のサブ画像群については、画像間の撮影日時の差の最大値が大きい方のサブ画像群を選択する。それでも決定できない場合には、例えば時間的に早いサブ画像群を優先的に再分割するなど、適宜決めておけばよい。
画像枚数が多い方からサブ画像群(5)、次にサブ画像群(1)とサブ画像群(2)である。本実施形態では、サブ画像群に含まれる画像枚数が同じである場合は、サブ画像群に含まれる画像の間の時間差の最大値が大きい方のサブ画像群を分割する。サブ画像群(1)とサブ画像群(2)は、含まれる画像枚数が同じだが、サブ画像群(2)の方が含まれる画像の間の時間差の最大値が大きいため、サブ画像群(2)を分割対象とする。すなわち、図6(a)では、サブ画像群(5)とサブ画像群(2)をそれぞれさらに分割する。
まず、サブ画像群(2)の再分割方法について説明する。サブ画像群(2)には、画像枚数の山が2つあり、この2つの山の画像群は撮影日が違う。このような場合は、撮影日が変わる箇所(図6(b)のサブ画像群(2)とサブ画像群(3)との間の破線矢印の箇所)で分割する。
次に、サブ画像群(5)の再分割を説明する。サブ画像群(5)には画像枚数の山が3つあり、この3つの山の画像群は撮影日がそれぞれ違う。このような場合も、撮影日が変わる箇所で分割する。このとき、撮影日が変わる箇所が2箇所あるが、分割後の各画像群の枚数差が小さくなるように分割する。図6(b)では、サブ画像群(5)では、2日目と3日目の境目で分割した方が、1日目と2日目の境目で分割するよりも再分割後の各画像群の画像枚数差が小さくなるので、2日目と3日目の境目で分割する。すなわち、図6(b)のサブ画像群(6)とサブ画像群(7)との間の破線矢印の箇所で分割する。
以上により、サブ画像群数を8から10にする。ここでは撮影日の違う箇所で分割したが、画像枚数が多いサブ画像群が単一日で撮影されたものである場合は、単一日の中で時間差が最大の箇所で分割する。
S421では、見開き割当部212がサブ画像群を統合する。サブ画像群の統合とは、サブ画像群数が見開き数よりも多い場合、分割されたサブ画像群を統合する。具体的には、サブ画像群数と見開き数が一致するように、サブ画像群を統合する。
図6(a)のサブ画像群数8に対して指定見開き数が6である場合を例に挙げて説明する。図6(c)は、図6(a)をサブ画像群統合してサブ画像群数を6とした結果である。図6(c)の破線の箇所の両側のサブ画像群を統合、言い換えれば、破線の箇所での分割をしないことで、サブ画像群数を6にする。まず、図6(a)のサブ画像群の中で画像枚数が少ないサブ画像群を特定する。ここでは、分割数を8から6に2つ減らしたいため、画像枚数が少ない2つのサブ画像群を特定する。画像枚数が少ないサブ画像群は、少ない方からサブ画像群(8)、次にサブ画像群(3)とサブ画像群(7)である。したがって、まず、サブ画像群(8)を統合対象とする。サブ画像群(3)とサブ画像群(7)は、含まれる画像枚数は同じであるが、サブ画像群(7)に隣接するサブ画像群(8)が統合対象であるため、サブ画像群(3)を統合対象とする。
次に、統合対象のサブ画像群を、撮影日時が前のサブ画像群に統合するか、撮影日時が後のサブ画像群に統合するかを決定する。まず、サブ画像群(3)の統合を説明する。まず、サブ画像群(3)の前後のサブ画像群(2)とサブ画像群(4)との時間差を比較する。サブ画像群(3)の最後の画像とサブ画像群(4)の最初の画像との撮影時間の差は、サブ画像群(3)の最初の画像とサブ画像群(2)の最後の画像との撮影時間の差よりも小さい。したがって、サブ画像群(3)は、サブ画像群(4)に統合すると決定する。すなわち、図6(c)の破線の箇所を統合する。
次に、サブ画像群(8)の統合を説明する。サブ画像群(8)は、後のサブ画像群がない為、前のサブ画像群(7)と統合する。すなわち、図6(c)の破線箇所で統合する。なお、本実施形態では、撮影時間の差が小さいサブ画像群同士を統合することにしたが、これに限定されるものではない。例えば、統合対象のサブ画像群を撮影枚数が少ないサブ画像群に統合するようにしてもよい。
S422では、見開き割当部212が見開き割当を行う。S418~S421によって、サブ画像群の数と指定見開き数は同じになっている。本実施形態では、撮影日時が先頭のサブ画像群から見開きの先頭に割り当てる。すなわち、撮影日時順にサブ画像群をアルバムの各見開きのページに割当てる。これにより、撮影日時順にサブ画像群が並んだアルバムを作成することができる。なお、後述する通り、1つの見開きのページ内では、画像は撮影日時に並んでいなくてもよい。
S423では、画像選択部213が各サブ画像群から所定枚数の画像を選択する。図9を用いて、ある見開きに割り当てられたサブ画像群から画像を4枚選択する場合を例に挙げて説明する。なお、ここでは、見開きとは、開いたときに向かい合う2ページを指し、最初の見開き及び最後の見開きは、1ページとする。
図9(a)は、見開きに割り当てられたサブ画像群に含まれる最初の画像から最後の画像のまでの撮影日時の時間差、言い換えれば、サブ画像群の撮影期間を示す。図9(b)を使って、4枚選択する際の1枚目を選択する方法を説明する。図10に示すテンプレート1001には、1つのメインスロット1002がある。1枚目は、メインスロット用の画像を選択する。画像選択部213は、図9(b)に示すサブ画像群の撮影期間に撮影された全ての画像のうちS416で付けたメインスロット用の得点が最高点の画像を選択する。
そして、2枚目以降はサブスロット用の画像を選択する。本実施形態では、サブ画像群の撮影期間を細分化して画像を選択することにより、選択される画像がサブ画像群の撮影期間の一部に集中しないようにする。まず、画像選択部213は、図9(c)のようにサブ画像群の撮影期間を2分割して、2つの撮影時間区間とする。すなわち、サブ分割撮影期間を2等分して2つの撮影時間区間にする(グループ分けする)。次に、画像選択部213は、図9(d)のように1枚目が選ばれていない撮影時間区間(実線の区間)からサブスロット用の得点が最高点の画像を2枚目として選択する。次に、画像選択部213は、図9(e)のように、図9(d)の各撮影時間区間をそれぞれ2等分する。画像選択部213は、図9(f)の実線で示す撮影時間区間、すなわち、1枚目と2枚目の画像が選ばれていない2つの撮影時間区間に撮影された画像(2つの撮影時間区間に対応する画像)のうちサブスロット用の得点が最高点の画像を3枚目として選択する。
次に、画像を選択する撮影時間区間に画像が存在せず、画像選択できない例を4枚目の画像の選択を例に挙げて説明する。本実施形態では、サブ画像群から見開きに配置する画像を選択する際、画像の枚数に関わらず、時間に応じてサブ画像群の撮影時間期間を分割している。したがって、分割して得られた撮影時間区間に画像が存在しない場合がある。例えば、図9(g)のように、まだ画像が選ばれていない撮影時間区間(斜線の撮影時間区間)から4枚目を選択したいが、この斜線で示す撮影時間区間には画像が存在しないとする。この場合は、図9(h)のように、画像を選択済みの各撮影時間区間をそれぞれ2分割する。次に、画像選択部213は、図9(i)のように、1~3枚目が選ばれていない実線の撮影時間区間に撮影された画像のうちサブスロット用の最高点の画像を4枚目として選択する。
図11は、図2で示した画像選択部213をより詳細に説明する図である。画像選択部213は、ある見開きに割り当てられたサブ画像群から画像を選択する。
枚数設定部1101は、処理対象の見開きに割り当てられたサブ画像群から選択する総画像枚数を設定する。言い換えれば、各見開きに配置する画像の総数を設定する。
画像群取得部1102は、画像取得部205が取得した画像群及び画像分類部208が作成したシーンIDから見開きに割り当てられたサブ画像群を取得する。画像群取得部205は、画像群を取得する際には、各画像の撮影日時情報、画像種類、オブジェクト情報、メインスロット用得点、及びサブスロット用得点を取得する。画像種類は、本実施形態では静止画像、動画切り出し画像、SNS画像の3つに分類するものとしたが、これに限定されるものではない。上述した3つ以外の画像種類を区別するものとしてもよいし、デジタルカメラで撮影した静止画像と、スマートデバイスで撮影した静止画像などのように静止画像をさらに詳細に区別してもよい。
ループカウンタ1103は、サブ画像群から見開きに配置する画像を選択する処理を実行した回数を管理する。なお、この画像を選択する処理は、図9で説明した方法により実行される。管理された回数は、利用する得点軸の判定、及び処理対象の見開きに割り当てられたサブ画像群の撮影期間をいくつの撮影時間区間に分割するかを設定する際に利用する。
得点軸設定部1104は、ループカウンタ1103でカウントされた処理回数に応じて、利用する得点軸を設定する。「利用する得点軸を設定する」とは、「画像の評価基準を設定する」ことを指し、ここでは、S416で行う得点化において使用するメインスロット用得点軸(メインスロット用評価基準)及びサブスロット用得点軸(サブスロット用評価基準)を設定する。本実施形態では、これら複数の評価基準を切り替えることにより設定し、スロット種類毎に評価基準を設定する。ここでは、例えば、1回目はメインスロット用得点軸を設定して、メインスロット用画像を選択する処理を実行するように設定し、2回目以降はサブスロット用得点を設定して、サブスロット用画像を選択する処理を実行するように設定する。
本実施形態では、利用する得点軸として、メインスロット用得点軸、サブスロット用得点軸を例に挙げて説明したが、別の得点軸を用いてもよい。例えば、メインスロット用得点軸、サブスロット用得点軸に加えて、さらに、人物関連度用得点軸を用いるようにしてもよい。なお、人物関連度は、例えば、人物の出現数や一緒に写った回数に基づいて得点化することができる。具体的には、出現数が多い人物は、評価を行ったサブ画像群との関連度が高いと判定することができ、一緒に写った回数が多い人物同士は互いの関連度が高いと判定することができる。また、各得点軸を切り替えて得点化を行うようにしたが、メインスロット用得点軸、サブスロット用得点軸、人物関連度用得点軸などを組み合わせた統合得点軸を用いてもよい。このとき、統合得点を算出する際の各得点軸の重みを変更してもよい。また、処理する回数によって利用する得点軸をランダムに変更してもよいし、予め用意したテーブルを参照して得点軸を切り替えるようにしてもよい。
分割部1105は、画像解析部207で取得した撮影日時情報に基づき、サブ画像群の撮影期間を所定の区間数に分割する。まず、画像群取得部1102により取得されたサブ画像群に含まれる画像の撮影時間から、処理対象の見開きに割り当てられたサブ画像群の撮影開始時間と撮影終了時間を特定し、サブ画像群の撮影期間を算出する。すなわち、サブ画像群に含まれる画像のうち最も早く撮影された画像の撮影時間および最も遅く撮影された画像の撮影時間を特定し、撮影期間を算出する。
次に、ループカウンタ1103でカウントされた処理回数に基づいて、算出された撮影期間を均等に分割して撮影時間区間とする。撮影時間区間の分割数は、カウントに基づいた2のべき乗で設定する。本実施形態では、カウントに基づいた2のべき乗で撮影期間を均等に分割する方法を説明したが、これに限定されず、撮影期間をカウント数で均等に分割してもよい。また、分割部1105は、分割された各撮影時間区間の開始時刻および終了撮影時刻を出力する。
画像種類設定部1106は、ループカウンタ1103でカウントされた処理回数に応じて、画像選択で選択される画像の種類を設定する。本実施形態では、処理回数が1回目はSNS画像から選択し、2回目は動画切り出し画像から選択し、3回目以降は静止画から選択するように設定する。
区間情報設定部1107は、画像群取得部1102で取得したサブ画像群に含まれる画像を、分割部1105で分割された撮影時間区間ごとにグループ分けして、画像の撮影情報、各画像の得点等の各撮影時間区間の情報を格納する。
モード設定部1108は、アルバム作成条件設定部201で指定されたモードが設定され、設定されたモードに対応するオブジェクトが配置されるように以降の処理を行う。
画像選択部1109は、各撮影時間区間からモードに対応するオブジェクトを含む得点の高い画像を1枚選択する。この画像選択部1109による画像の選択は、得点軸設定部1104で設定された得点軸と、モード設定部1108で設定されたモードと、区間情報設定部1107で設定された画像の得点とに基づいて行われる。図9を用いて説明した通り、画像が1枚もない撮影時間区間からは画像は選択しない。本実施形態では、各撮影時間区間から画像を1枚選択するものとしたが、各撮影時間区間から複数枚ずつ選択するようにしてもよい。設定されたモードに対応するオブジェクトが含まれる画像の判定には、本実施形態では図5に示す解析時の各画像のオブジェクト分類のTOP3までに設定されたモードに対応するオブジェクトが含まれているかを判定条件とするが、これに限定されない。
類似判定部1110は、撮影時間区間から画像を選択するごとに、選択された画像に対して、前に選択された画像との類似判定を行う。後述する類似判定の結果が判定閾値以上であれば、類似していると判定し、判定閾値未満であれば、類似していないと判定する。類似していないと判断された場合は、その区間から選択された画像を保持しておき、類似していると判断された場合は、その区間の選択画像を破棄する。
類似判定は、パターンマッチングによる判定、SHIFT法を用いた判定などを用いることができる。類似判定に用いる判定閾値は、比較する画像の撮影時間差に応じて変更する。例えば、類似判定結果が0~100のレンジで出力される場合に100に近いほど似ているとし、判定閾値以上であれば類似していると判定し、判定閾値未満であれば類似していないと判定する。連写などにより撮影時間差が短い場合(例えば15秒以内)は、判定閾値を低く設定する(例えば、60に設定する)。それ以外は判定閾値を80に設定するのが望ましい。判定閾値を低くすることにより、類似していると判断されやすくなり、少しの類似であっても類似画像と判断されるため、選択画像が破棄されて選択できる画像が無くなりやすくなる。本実施形態では、このように、撮影時間差に応じて判定基準を変更する。
統合部1111は、類似判定部1110で非類似と判定された各区間で選択された画像から、最終的に残す画像を選別する。複数区間から画像が選択された場合にいずれの区間の画像を選別するかを判断する。画像を判断する際には、画像選択部1109で判定したのと同じ得点を用い、得点の高い画像を選択する。本実施形態では、得点の高い画像を選択するものとしたが、これに限定されるものではない。例えば、画像が選択された区間のうち、隣接する区間から画像が選択されていない区間から選択するようにしてもよい。
画像管理部1112は、統合部1111で選択された画像を選択画像として追加し、枚数設定部1101で設定された必要枚数を超えていないかを判定する。必要枚数に到達した場合は画像選択処理を終了する。必要枚数に達成していない場合は、ループカウンタ1103をカウントアップし、上述した画像選択処理を再度実行する。
ここでは説明のために、メイン画像とサブ画像で同じオブジェクトを含む画像を選択する例で説明したが、メイン画像とサブ画像で異なるオブジェクトを選択することもできる。例えば、ループカウントが1の時はメイン画像が選択されるため、ループカウントが1の時とそれ以外の時で選択するオブジェクトを切り替えることにより、メイン画像とサブ画像で異なるオブジェクトが選択できる。
図12は、図11に示す構成で行うサブ画像群からテンプレートのスロットに配置する画像を選択する処理フロー図である。処理対象の見開きに割り当てられたサブ画像群から画像を選択する詳細フローを説明する。
S1201では、枚数設定部1101が、処理対象の見開きに割り当てられたサブ画像群から選択する総画像枚数を設定する。
S1202では、画像群取得部1102が、画像取得部205が取得した画像群の画像データから、処理対象の見開きに割り当てられたサブ画像群に対応する画像データを取得する。
S1203では、モード設定部1108がモードを設定する。
S1204では、ループカウンタ1103が、サブ画像群ごとに画像を選択する処理を実行した回数をカウントする。なお、初期値は1である。
S1205では、得点軸設定部1104が、利用する得点軸を設定する。本実施形態では、ループカウンタ1103で管理される画像選択処理回数に応じて、利用する得点軸を設定する。
S1206では、画像種類設定部1106が、選択する画像種類を設定する。ループカウントが1の場合、すなわち、処理回数が1回目の場合、本実施形態ではSNS画像を選択するように設定する。ループカウントが2の場合、すなわち処理回数が2回目の場合、動画切り出し画像を選択するように設定する。ループカウントが3以上の場合、すなわち処理回数が3回目以上の場合、静止画を選択するように設定する。
S1207では、分割部1105が、処理対象の見開きに割り当てられたサブ画像群の開始および終了撮影時間からサブ画像群の撮影期間を割り出し、ループカウンタ1103でカウントされた処理回数に基づいてサブ画像群の撮影時間区間を均等に分割する。なお、処理回数が1回目の場合は、この段階ではまだ画像が1枚も選択されていないため、分割しない。処理回数が2回目の場合、画像が1枚選択されており、サブ画像群の撮影期間の撮影時間区間は1つなので、撮影期間全体を均等に二分割して2つの撮影時間区間を作成する。処理回数が3回目の場合、画像が2枚選択されており、2つの撮影時間区間が存在するので、2つの撮影時間区間をそれぞれ二分割して4つの撮影時間区間を作成する。
S1208では、区間情報設定部1107が、取得したサブ画像群の画像データを、分割された撮影時間区間ごとにグループ分けして、撮影時間区間毎に各画像の撮影情報、各画像の得点を取得する。
S1209では、分割部1105により分割された着目撮影時間区間の画像が選択済みか否かを判定する。着目撮影時間区間が選択済みの撮影時間区間であれば、S1214へ進む。未選択の撮影時間区間であれば、S1210に進む。なお、1回目のループでは、撮影時間区間が分割されていないため、着目撮影時間区間は1つである。
S1210では、未選択の撮影時間区間であった着目撮影時間区間内に設定されたモードのオブジェクトが含まれるか否かを判定する。指定オブジェクトを含む画像が1枚もない場合、S1214へ進む。指定オブジェクトを含む場合は、S1211に進む。
S1211では、画像選択部1109が、着目撮影時間区間内の画像から指定オブジェクトを含む画像を1枚選択する。なお、着目撮影時間区間内に指定オブジェクトを含む複数の画像が存在する場合は、最も点数が高い1枚の画像が選択される。
S1212では、類似判定部1110が、着目撮影時間区間で選択された画像に対して、前に選択された他の撮影時間区間で選択された画像との類似判定を行う。類似する画像が他の撮影時間区間にないと判定された場合は、着目撮影時間区間で選定された画像をそのまま保持し、S1214へ進む。類似する画像が他の撮影時間区間にあると判定された場合は、S1213に移行して着目撮影時間区間で選択された画像を解除し、S1214へ進む。
S1214では、画像の選択を行う処理がS1207で分割した全撮影時間区間に対して実行されたかを判定し、全撮影時間区間に対して実行された場合は、S1215へ進む。S1205で分割した全撮影時間区間に対して実行されていない場合は、S1208へ戻り、画像未選択の撮影時間区間に対して画像選択を実施する。
S1215では、統合部1111が、類似判定部1110で非類似と判定された各撮影時間区の画像から、最も得点の高い最終的に残す画像を選択する。すなわち、S1209~S1214で2以上の画像が残った場合、残す画像を選択する。
S1216では、画像管理部1112が、S1215で選択された画像を選択画像に対して追加し、総選択枚数を管理する。
S1217では、画像管理部1112により管理されている総選択枚数が、枚数設定部1101で設定された必要枚数と一致しているかを判定する。必要枚数と総選択枚数が一致した場合は画像選択処理を終了する。総選択枚数が必要枚数未満の場合は、S1218に進む。
S1218では、指定されたモードのオブジェクトを含む画像をサブ画像群から全て選択したか否かを判定する。指定されたモードのオブジェクトを含む画像が全て選択されておらず、まだサブ画像群に存在する場合は、総選択枚数が必要枚数に達するまでS1204へ戻って画像選択処理を続行する。S1204へ戻った際、ループカウンタ1103により管理されているカウンタを1アップする。その結果、連動している分割部1105により前回よりも2倍多い撮影時間区間の分割が設定される。撮影時間区間がより細かく分割され、画像が未選択の撮影時間区間において画像を選択するので、それまでに選択されなかった画像が選択される。S1218で指定されたモードのオブジェクトを含む画像をサブ画像群から全て選択した場合は、S1219に進む。
S1219では、サブ画像群の画像のうち、未選択の全画像を判定しても指定モードの画像がなかった場合に、指定モードを変更する。変更の方法は予め定めた優先順位に従って指定モード以外の最も優先順位の高いモードに変更してもよいし、サブ画像群内に含まれるオブジェクトに基づいてモードを変更してもよい。S1203に戻り、変更したモードにモードを再設定し、必要枚数を取得できるまで処理を繰り返す。
図4に戻って、S424では、テンプレート設定部214が記憶装置104からレイアウトに利用する複数のテンプレートを設定する。設定されるテンプレートはアルバム作成条件設定部201で指定されたデザインのものが設定される。
S425では、画像レイアウト部215が処理対象の見開きの画像レイアウトを決定する。テンプレート設定部214により設定された複数のテンプレートの中から、選択された画像を配置するのに適したテンプレートを決定する。テンプレート決定の方法について、図13に示すテンプレート決定を行うソフトウェアの構成を説明するブロック図を用いて説明する。
選択画像情報取得部1301は、画像選択部213で選択された画像の選択画像数と選択された各画像に関する画像情報を取得する。取得する画像情報は、画像の幅と高さ、撮影日時情報、画像得点部210により算出された得点である。
テンプレート選択部(スロット数)1302は、選択画像枚数と一致するスロット数を持つテンプレート候補をテンプレート設定部214で設定された中から選択する。
選択画像ソート部1303は、選択画像を撮影日時順にソートする。
テンプレート選択部(メイン画像位置)1304は、テンプレート選択部1302で選択されたテンプレートの内、メイン画像を配置するメインスロットの配置順が、撮影日時順に並べたときのメイン画像の配置順と一致するテンプレート候補を選択する。次に、メイン画像とメインスロットとのアスペクト比が一致しているテンプレート候補を選択する。本実施形態では、テンプレートの左上に撮影日時のより古い画像、右下に撮影日時のより新しい画像を配置するものとする。
テンプレート選択部(サブ画像位置)1305は、テンプレート選択部(メイン画像位置)1304で選択されたテンプレートの内から画像選択部213で選択された画像に適したテンプレートを選択する。テンプレート選択部(サブ画像位置)1305は、サブ画像を配置するサブスロットが撮影日時順に並べたサブ画像の順と一致し、サブ画像とサブスロットとのアスペクト比が一致しているテンプレートを選択する。
図14は、テンプレート決定の処理フロー図である。
S1401は、選択画像情報取得部1301が選択された画像の選択画像数と選択された各画像の画像情報を取得する。ここでは、選択画像数は3である。
S1402は、テンプレート選択部1302(スロット数)が選択画像数とスロット数が一致するテンプレート候補を選択する。ここではスロット数が3のテンプレートが選択される。ここでは、図10(a)に示すテンプレート(1-1)~(4-4)が選択された場合を例に挙げて説明する。
S1403は、選択画像ソート部1303で選択画像が撮影時間順に並べられる。選択画像を撮影日時の順に並べると図10(b)であったとする。ここでは、画像1005がメインスロット用として選択されたメイン画像であり、画像1006と画像1007がサブスロット用として選択されたサブ画像とする。
S1404は、テンプレート選択部(メイン画像位置)1304で撮影順に並べた際にメイン画像の配置順と、メインスロットの配置順が一致し、メイン画像とメインスロットとのアスペクト比が一致するテンプレート候補が選択される。画像1005は、撮影日時が一番新しく且つメインスロット用のメイン画像であるため、図10(a)に示すテンプレート(3-1)~(3-4)のテンプレートが候補となる。
S1405は、テンプレート選択部(サブ画像位置)1305でサブ画像とサブスロットとの位置およびアスペクト比が一致するテンプレートを選択する。図10(b)に示す例では、サブスロット用の古い方の画像1006、すなわち、左上に配置したい画像が縦画像で、新しい方の画像1007が横画像である。したがって、テンプレート(3-2)が、選択された画像に最も適したテンプレートとして選択される。
このようにS425では、使用するテンプレートと、テンプレートのいずれのスロットにいずれの画像を配置するかについての情報が決定する。
S426では、画像補正部217が画像補正を行う。画像補正部217に入力された画像補正条件がONの場合は、画像補正を実施する。本実施形態では、画像補正として、覆い焼き補正、赤目補正、コントラスト補正を自動で実施する。画像補正部217に入力された画像補正条件がOFFの場合は、画像補正を実施しない。画像補正された画像は、短辺の画素数が1200画素に、色空間がsRGBに変換される。
S427では、レイアウト情報出力部218がレイアウト情報を作成する。S425で決まった通りに各画像をテンプレートに配置する。このとき、テンプレートが有する各スロットのサイズ情報に合わせて使用する画像を変倍して配置する。なお、ここで用いる画像は、S426で生成した補正画像であり、S408~S418で用いた解析画像に基づき補正された画像である。そして、レイアウト情報出力部218は、レイアウト情報としてテンプレートに画像を配置したビットマップデータを生成する。
S428では、S423~S427が全ての見開きに対して終了したか否かを判定する。終了していない場合(S428でNo)はS423に戻る。終了している場合(S428でYes)は自動レイアウト処理を終了する。
このように上記フローでアルバムを作成して、その結果をユーザにプレビューする。ユーザはプレビューされる完成したアルバムを確認し、必要に応じて編集作業を行う。
ここから、完成したアルバムに対して、ユーザからの見開き又はページの追加指示に従って見開き又はページを追加し、追加見開き又は追加ページに対して自動レイアウトを行う方法に関して説明する。
図15は、追加見開きに使用する画像の自動選択を実施するソフトウェアの構成を説明するブロック図である。
見開き追加位置設定部1501は、自動レイアウト結果に対してユーザ入力に基づき見開きを追加する位置を決定する。ユーザから見開き追加位置の指定を受け付ける受付手段に関しては、図21を用いて説明する。
図21は、ユーザが自動レイアウト結果に対して見開き追加位置を指定するためのUI例を示す図である。ウィンドウ2101は、自動レイアウトした結果をプレビューする表示ウィンドウである。表示ウィンドウ下部に配置されたスライダーバーを移動させることにより、全てのレイアウト結果を確認することができる。見開き2102は、自動レイアウトにより作成された各見開きのレイアウト結果を示している。ユーザは、ポインタ2103で、自動レイアウト結果に対して見開きを追加する位置を指定することができる。マウス107を使ってポインタ2103を移動させ、ユーザが見開きを追加したい位置に移動させると、「見開き追加」のポップアップが表示される。ポップアップが表示された位置でクリックすることにより、見開きを追加する位置を確定することができる。図21では、ページ2とページ3の間に見開きの追加が指示される状況を示している。
追加画像設定部1502は、アルバムにおける未使用画像群をユーザに提示して、提示した画像群から追加見開きに使用する画像をユーザに選択させる。ユーザによる画像の指定に関しては、図22を用いて説明する。
図22は、追加見開きに使用する画像を選択するためのUI例を示す図である。ウィンドウ2201は、指定可能な画像を一覧表示する表示ウィンドウである。画像2202は、指定可能な画像である。ここでは、自動レイアウトで未選択の画像を表示する。ユーザは、ポインタ2203で、追加見開きに使用する画像を指定することができる。図22の例では、画像7上にポインタ2203が移動して選択されている状況を示している。追加見開きに使用する画像は複数枚選んでもよい。ボタン2204は、指定する画像の選択が完了したことを確定させるボタンである。ボタン2204を押下すると、選択中の画像が追加見開きに使用する画像として確定される。
ここでは説明の便宜上、追加見開きに使用する画像を、アルバム作成条件設定部201で指定されたディレクトリ内に含まれる画像群から選択する前提で説明したが、ユーザが別ディレクトリ内に含まれる画像群を指定できるようにしてもよい。
説明を図15に戻す。ユーザ選択画像解析部1503は、追加画像設定部1502でユーザにより選択された画像を解析する。ここでは、追加画像設定部1502で画像が1枚指定された場合について説明する。ユーザ選択画像解析部1503は、指定された画像に対して画像解析部207と同様の画像解析を実施する。自動レイアウト時に解析されている場合、解析結果が保存されているため、それを利用することでユーザ選択画像解析部1503での処理を省いてもよく、それにより処理を高速化できる。アルバム作成条件設定部201で指定した画像とは別ディレクトリ内に含まれる画像を指定した場合は、解析結果がないため、ユーザ選択画像解析部1503で解析処理を実施する。この解析結果は、上述したように、画像データにおけるオブジェクト判定、顔検出、検出した顔の表情認識、検出した顔の個人認識の結果、および撮影日時情報などである。ここでは撮影日時情報を解析結果の一例として説明する。
画像選択条件設定部1504は、追加画像設定部1502で指定された画像以外に、追加見開きに使用する画像候補を自動で選択する条件を設定する。ここでは説明のために、追加画像設定部1502で指定された画像の撮影日時から、画像分類部208で分割されたサブ画像群のうち、追加画像設定部1502で指定された画像と同じシーンに分類されていることを画像選択条件(範囲)に設定する。ここでは上述したように追加画像設定部1502で指定された画像は、アルバム作成条件設定部201で指定されたディレクトリ内に含まれる画像群から選択されていることを前提としている。そしてアルバム作成条件設定部201で指定されたディレクトリ内に含まれる画像群はすでに撮影日時に基づいてサブ画像群に分割され、シーン分類されている。そのため、指定された画像がどのサブ画像群の、どのシーンに属しているかを撮影日時に基づき特定することができる。
追加画像設定部1502で指定された画像に撮影日時情報がない場合には、見開き追加位置設定部1501で指定された見開き追加位置を挟む前後の見開きから、画像選択条件(範囲)を設定してもよい。例えば、追加見開きの前の見開き内で使用されている画像の撮影日時が一番遅いものを開始撮影日時とする。また、追加見開きの後の見開き内で使用されている画像の撮影日時が一番早いものを終了撮影日時とする。この開始日時から終了日時を画像選択条件として設定する。
アルバム作成条件設定部201で指定した画像とは別ディレクトリ内に含まれる画像を指定した場合は、別ディレクトリ内の全画像を画像選択の範囲に設定してもよい。また、別ディレクトリ内の画像を画像分類部208と同様に解析して画像群分割してシーン分類し、追加画像設定部1502で指定された画像と同じシーンに分類された画像のみを画像選択の範囲に設定してもよい。
画像解析部1505は、追加画像設定部1502で指定された画像を除く、画像選択条件設定部1504で設定された画像選択条件を満たす画像を取得し、画像解析部207と同様の解析処理を行う。予め画像解析が実施されており解析結果が保存されている場合は、それを利用してもよい。結果が保存されていない場合は解析処理を実施する。
画像得点部1506は、画像解析結果に基づいて、画像解析部1505が取得した画像の得点化を行う。画像を得点化する際には、画像得点部210と同様の処理を行う。予め画像得点が算出されており結果が保存されている場合は、それを利用してもよい。画像得点が保存されていない場合は、解析結果に基づいて画像得点を算出する。
画像選択枚数設定部1507は、追加見開きに配置する画像枚数と、追加見開きに配置する画像枚数から追加画像設定部1502で指定された画像枚数を引いた画像枚数である自動選択画像枚数とを設定する。ここでは自動レイアウト時に各見開きで使用されている画像枚数から、一見開きあたりの平均画像枚数を算出し、平均画像枚数を追加見開きに配置する画像枚数に設定する。また、平均画像枚数から追加画像設定部1502で指定された画像枚数を引いた画像枚数を画像選択条件に基づき取得された画像の中から使用する自動選択画像枚数に設定する。
ここでは、平均画像枚数からユーザ選択画像枚数を差し引いた枚数を自動選択画像枚数と設定したが、配置する画像の最小値と最大値を設定してもよい。例えば、追加見開きに配置する画像枚数として、アルバム内の見開き中の最小画像枚数を探索して最小値に設定し、同様にアルバム内の見開き中の最大画像枚数を探索して最大値に設定してもよい。アルバム内の採用数でなく、固定値で追加見開きに配置する画像枚数の最小値及び最大値を設定してもよい。また、保持しているテンプレートに配置できる画像枚数に応じて最小値と最大値を設定してもよい。また、画像選択条件設定部1504で設定された範囲に含まれる未使用画像枚数に応じて、自動選択画像枚数を設定してもよい。例えば、平均画像枚数もしくは上記最小値よりも未使用画像枚数が下回った場合は、未使用画像枚数を自動選択画像枚数に設定してもよい。
画像自動選択部1508は、追加画像設定部1502でユーザが指定した画像に加え、そのユーザ選択画像以外の、画像選択条件に基づき取得された画像の中から追加見開きに配置する画像を選択する。画像選択条件設定部1504で設定された範囲に含まれる未使用画像群に対してユーザが指定した画像に対する類似画像判定を行い、類似していない画像から画像選択枚数設定部1507で設定された自動選択画像枚数分を得点の高い画像から順に選択する。画像選択条件設定部1504で設定された範囲に含まれる未使用画像枚数が少ない場合には、未使用画像枚数に応じて、類似画像判定時に設定する閾値を変更してもよい。例えば、選択時には撮影日時情報を利用して画像選択部213と同様の処理で選択してもよい。
選択画像表示部1509は、画像自動選択部1508で選択された画像をディスプレイ105に表示する。画像自動選択部1508で自動選択された画像と追加画像設定部1502でユーザが指定した画像が、追加見開きに配置する画像として表示される。
以上が、図15のユーザが追加した見開きに対して自動レイアウトを実施するソフトウェアの構成を説明するブロック図に関する説明である。
図23は、図15を用いて説明した追加見開きを配置する際に使用する画像の自動選択した結果を説明するための図である。
図23(a)は、見開きを追加する前の自動レイアウト後の見開きを示している。見開き内の矩形は配置された画像を示している。ここでは説明のために、アスペクト比が全て同じ画像と仮定する。各画像内に記載しているEventは画像のイベントを示している。Eventの下に記載されている数値は撮影日時順を模式的に表したIDである。見開きNと見開きN+1の間には未使用のEvent2、3、4の画像があるとする。ここで、イベントとは、例えば各画像の内容や特徴に応じて分類される種類、或いは項目などである。
図23(a)において、見開き追加位置設定部1501により、N見開きとN+1見開きの間にユーザが追加見開きを指定したとする。更に、追加画像設定部1502により、ユーザが追加見開き内に使用する画像を指定したとする。
選択画像表示部1509には、図23(b)のように、ユーザ選択画像を含む自動選択画像の一覧が表示される。ここではユーザに指定された画像には、図23(b)の「ユーザ選択画像」に示すように、Event3のID2が指定されている。ユーザ選択画像が決まると、画像選択条件設定部1504は、ユーザ選択画像に基づいて、選択する画像の条件を設定し、画像自動選択部1508により自動で画像が選択される。ここでは自動で選択された画像には、図23(b)の「自動選択画像」に示すように、ユーザ選択画像と同じEvent3から画像が選択されている。
図16は、追加見開きに使用する画像の自動選択を実施するためのフローチャートである。
S1601では、見開き追加位置設定部1501が、自動レイアウト結果のプレビューに対して、ユーザがポインタで指定した見開き追加位置を決定する。
S1602では、追加画像設定部1502が、ユーザにアルバムにおける未使用画像群を提示し、提示した画像群から追加する見開きに配置する画像をユーザに選択させる。
S1603では、ユーザ選択画像解析部1503が、追加画像設定部1502で選択された画像を解析する。ユーザ選択画像解析部1503は、画像解析部207と同様の解析処理を行う。
S1604では、画像選択条件設定部1504が、追加画像設定部1502で選択された画像の解析結果に基づき、追加画像設定部1502で選択された画像以外に、追加見開きに配置する画像候補を自動で選択する条件を設定する。ここで設定される条件としては、例えば追加画像設定部1502で選択された画像と同一シーンに分類されていることである。
S1605では、画像解析部1505が、画像選択条件設定部1504で設定された条件に該当する画像を順次解析する。画像解析部1505は、画像解析部207と同様の解析処理を行う。
S1606では、画像得点部1506が、画像解析部1505の画像解析結果に基づいて画像の得点化を行う。画像得点部1506は、画像得点部210と同様の得点化処理を行う。
S1607では、画像選択条件設定部1504で指定された条件に該当する画像が解析及び得点化されたか否かを判定する。指定された条件に該当する全画像の解析及び得点化が終了した場合は、S1608に処理を進める。解析及び得点化の終了していない画像が残っている場合は、S1605に戻り、解析及び得点化されていない画像に対して処理を継続する。
S1608では、画像選択枚数設定部1507が、追加見開きに配置する画像と、画像選択条件に基づき取得された画像の中から使用する画像枚数である自動選択画像枚数とを設定する。
S1609では、画像自動選択部1508が、追加画像設定部1502でユーザが指定した画像に加え、画像選択条件に基づき取得された画像の中から得点の高い順に追加見開きに配置する画像として選択する。
S1610では、選択画像表示部1509が、画像自動選択部1508で選択された追加見開きに利用する画像をディスプレイ105に表示する。複数見開きを追加する場合には、S1601からS1610の処理を追加する見開き数分繰り返すことにより、各追加見開きで使用する画像を選択することができる。
以上が、追加見開きを配置する際に使用する画像の自動選択を実施するための処理フローに関する説明である。本実施形態では、追加見開きに使用する画像の一部を指定すると、ユーザが指定した画像に基づき、追加見開きに必要な他の画像を自動で選択することができる。
(第2の実施形態)
第2の実施形態は、追加見開きに対して自動レイアウトを行う方法に関して記載する。
図17は、追加見開きに対して画像を自動選択し、その画像を利用して自動レイアウトを実施ソフトウェアの構成を説明するブロック図である。図15と同じ符号の構成は、同じ構成を表しており同様の処理を実施するため、ここでは説明を割愛する。
自動レイアウト部1701は、追加画像設定部1502でユーザに指定された画像と画像自動選択部1508で自動選択された画像を、追加見開きに対して自動レイアウトを行う。ここでは説明のために、自動レイアウト処理は、図2記載の画像レイアウト部215で記載したレイアウト方法及び図13と図14で説明したテンプレート決定方法と同様の処理を行う。
ここでは、自動レイアウト時と同じレイアウト方法を行う場合で説明したが、他のレイアウト方法を用いてもよい。選択された画像に応じて、画像のアスペクト比、時系列、大スロットの位置などに基づいて、テンプレートを動的に生成してもよい。また、テンプレートは使用せず、選択された画像から見開き内における画像の配置位置及びサイズを設定してもよい。
レイアウト結果表示部1702は、自動レイアウト部1701で生成されたレイアウト結果を、ディスプレイ105に表示する。ディスプレイ105に表示する際には、生成された追加見開きのレイアウト結果だけでなく、既存の見開きも併せて表示してもよい。また、各見開きに配置された画像に対して、図2の画像補正部217を使って画像補正を実施した画像を表示してもよい。
以上が、追加見開きに対して画像を自動選択し、その画像を利用して自動レイアウトを実施するソフトウェアの構成を説明するブロック図に関する説明である。
図24は、追加見開きに対して画像を自動選択し、その画像を利用して自動レイアウトしたレイアウト結果を説明するための図である。
図24(a)は、見開きを追加する前の自動レイアウト後の見開きを示している。見開き内の矩形は配置された画像を示している。ここでは説明のために、アスペクト比が全て同じ画像と仮定する。実施形態1と同様に、各画像内に記載しているEventは画像のイベントを示し、Eventの下に記載されている数値は撮影日時順を模式的に表したIDである。見開きNと見開きN+1の間には未使用のEvent2、3、4があるとする。
図24(a)において、見開き追加位置設定部1501により、N見開きとN+1見開きの間にユーザが追加見開きを指定し、追加画像設定部1502により、Event3のID2の画像をユーザが指定したとする。ユーザが追加見開きに使用する画像を指定すると、画像選択条件設定部1504が、ユーザに指定された画像に基づいて追加見開きに使用する他の画像の条件を設定する。そして、画像自動選択部1508により、画像選択条件に従って追加見開きに必要な枚数の画像が自動で選択される。選択された画像は、自動レイアウト部1701により、追加見開きに自動レイアウトされる。図23(b)の中央の見開きは、追加見開きのレイアウト結果を示している。ユーザに選択された画像(Event3のID2)と、その他の7枚の自動選択で指定された画像が配置されている。
図18は、追加見開きに対して、ユーザが指定した画像に基づき、追加見開きに必要な他の画像を自動選択し、それらの画像を追加見開きに自動レイアウトを実施するためのフロー図である。図16と同じ符号のステップに関しては、同じ処理を実施するため、ここでは説明を割愛する。
S1801では、自動レイアウト部1701が、追加画像設定部1502でユーザに指定された画像と画像自動選択部1508で自動選択された画像とを追加見開きに対して自動レイアウトする。
複数の見開きを追加する場合には、S1601からS1801までの処理を追加する見開き数分だけ繰り返すことにより、自動レイアウトを行うことができる。
S1802では、レイアウト結果表示部1702が、自動レイアウト部1701で生成されたレイアウト結果を、ディスプレイ105に表示する。
以上が、追加見開きに対して自動レイアウトを行う処理フローを説明するためのフローに関する説明である。本実施形態では、見開きを追加する際にも、ユーザが指定した画像と、自動で選択した画像とを追加見開きに自動レイアウトすることができる。
(第3の実施形態)
第3の実施形態は、追加見開きに対して自動レイアウトを行う際に選択する画像の条件を指定する方法に関して記載する。
図19は、追加見開きに対して画像を自動選択する際に設定した条件に基づいて選択し、その画像を利用して自動レイアウトを実施するソフトウェアの構成を説明するブロック図である。図17と同じ符号に関しては、同じ構成を表しており同様の処理を実施するため、ここでは説明を割愛する。
画像選択条件設定部1901は、追加見開きに使用する画像を自動で選択する条件をユーザが指定できるようにする。画像選択条件設定部1901は、追加画像設定部1502で追加する画像を設定後に、自動で選択する条件を設定するためのUIを表示する。
ここでは、追加見開き内に配置する画像の時系列を、アルバム全体の時系列に準ずるものとするか、ユーザが指定した画像の撮影日時に準ずるものとするかを設定する方法を例に説明する。アルバム全体の時系列に準ずるものとする場合、追加見開きの前の既存見開きに配置された画像の撮影日時が一番遅い時刻から、追加見開きの後の既存見開きに配置された画像の撮影日時が一番早い時刻までの撮影日時の画像であることが画像選択条件となる。ユーザが指定した画像の撮影日時に準ずるものとする場合、ユーザが指定した画像と同じサブ画像群内の画像であることが画像選択条件となる。UI上に、「アルバムの時系列順」と「選択画像の撮影時間順」を表示し、マウス107を使ってユーザがどちらかを指定できるようにする。以降は説明のために、「選択画像の撮影時間順」が指定されたとする。
UI上に表示する選択肢は、ユーザ選択画像解析部1503でユーザが指定した画像の解析情報に基づいて、具体的な日時で表示してもよい。選択画像の撮影日時がExifなどの付帯情報から欠落している場合には、ユーザ選択画像を選択したディレクトリ内の付帯情報を有する他の画像群から撮影日時を予測してもよい。例えば、ディレクトリ内の画像群でショット数の分布を取得し、ショット数が最多となる時間帯をユーザ選択画像の撮影日時情報として設定してもよい。
画像選択条件設定部1902は、追加画像設定部1502で設定された画像以外に、追加見開きに使用する画像を自動で選択する条件を設定する。図15、17の画像選択条件設定部1504では、所定の画像選択条件が予め設定されているのに対し、画像選択条件設定部1902では、画像選択条件設定部1901で設定された条件に基づいて画像選択条件を設定する。ここでは説明のために、画像分類部208で分割されたサブ画像群のうち、画像選択条件設定部1901で設定された条件と一致するシーンを画像選択条件(範囲)に設定する。ユーザがアルバム作成条件設定部201で設定した画像とは別ディレクトリに含まれる画像を指定した場合は、別ディレクトリ内の全画像を画像選択の範囲に設定してもよい。また、別ディレクトリ内の画像を同様に解析して画像群分割してもよい。
以上が、追加見開きに対して画像を自動選択する際に設定した条件に基づいて選択し、その画像を利用して自動レイアウトを実施するソフトウェアの構成を説明するブロック図に関する説明である。
次に、追加見開きに対して画像を自動選択する際に設定した条件に基づいて選択し、その画像を利用して自動レイアウトを実施するためのフローに関して説明する。
図20は、追加見開きに対して画像を自動選択する際に設定した条件に基づいて選択し、その画像を利用して自動レイアウトを実施するフローを説明するための図である。図18と同じ番号に関しては、同じ装置を表しており同様の処理を実施するため、ここでは説明を割愛する。
S2001では、画像選択条件設定部1901が、追加見開きに対して使用する画像を自動で選択する条件をユーザが指定する。
S2002では、画像選択条件設定部1902が、追加画像設定部1502で設定された画像以外に、追加見開きに対して使用する画像を自動で選択する条件を設定する。
以降、処理が継続され、追加見開きに対して自動レイアウトを行う際に指定された条件で画像選択及び配置を自動で実施する。
以上が、追加見開きに対して自動レイアウトを行う際に選択する画像の条件を設定するフローに関する説明である。本実施形態では、追加見開きに対して自動レイアウトを行う際に設定した条件に基づいて自動で配置することができる。
(他の実施形態)
本発明は上述した実施形態に限定されるものではない。例えば、上述した実施形態では、アルバムデータ作成アプリケーションを例に挙げて説明したが、お勧め画像を自動選択するような画像選択処理を備えるアプリケーションや画像処理装置であってもよい。
また、図1では、ローカル環境を想定した画像処理装置を例に挙げて説明したが、画像処理装置はこれに限定されるものではない。例えば、サーバ上の画像処理装置であってもよい。この場合は、サーバ内に保存されている画像を利用又は画像をアップロードするようにすればよい。
上述した実施形態では、画像が写真であるものとし、撮影日時に基づいてグループ分けをするようにしたが、画像を作成した日時でグループ分けをするようにしてもよい。
上述した実施形態では、利用者がモードを指定するものとし、指定されたモードに基づいて配置するようにしたが、アルバムを作成する画像群を画像解析して、画像群に含まれるオブジェクトの種類の分布等から自動的にモードを設定してもよい。
なお、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。また、上記した処理の全てをソフトウェアで実現する必要はなく、一部または全部をハードウェアによって実現するようにしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (19)

  1. 複数のページを含むアルバムデータに対して、ページの追加指示を受け付ける受付手段と、
    前記追加指示により追加されるページに配置される画像として、ユーザにより選択されたユーザ選択画像を取得する画像取得手段と、
    前記ユーザ選択画像の解析情報を取得する第1の解析情報取得手段と、
    前記ユーザ選択画像の解析情報に基づき、前記追加されるページに配置される前記ユーザ選択画像以外の画像を選択する選択手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記追加されるページに配置される画像の選択条件を設定する設定手段と、
    前記選択条件を満たす画像を候補画像とし、前記候補画像の解析情報を取得する第2の解析情報取得手段と、
    をさらに備え、
    前記ユーザ選択画像の解析情報と前記候補画像の解析情報とに基づき、前記選択手段は、前記候補画像の中から前記追加されるページに配置される前記ユーザ選択画像以外の画像を選択することを特徴とする請求項1に記載の画像処理装置。
  3. 前記候補画像の解析情報に基づき、前記候補画像の得点を算出する算出手段をさらに備え、
    前記選択手段は、前記追加されるページに配置する所定の画像枚数から前記ユーザ選択画像の画像枚数を引いた画像枚数だけ、前記候補画像から前記得点の高い順に選択することを特徴とする請求項2に記載の画像処理装置。
  4. 前記受付手段は、ユーザ入力に基づき、前記アルバムデータにおける前記追加されるページを追加する追加位置の指定を受け付けることにより、前記ページの追加指示を受け付け、
    前記選択条件は、前記候補画像の撮影日時が、前記追加位置を挟む前後のページに配置された画像の撮影日時の間にあること、であることを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記選択条件は、前記候補画像の撮影日時が、前記ユーザ選択画像の撮影日時から所定の時間の範囲にあること、であることを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
  6. 前記画像取得手段は、前記アルバムデータにおいて使用されていない複数の未使用画像をユーザに提示して、ユーザに前記複数の未使用画像から前記ユーザ選択画像を選択させることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記解析情報は、画像から特徴量から取得される、画像におけるオブジェクト判定の結果、顔検出の結果、検出した顔の表情認識の結果、検出した顔の個人認識の結果、および撮影日時のうちの少なくとも1つを含むことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記ユーザ選択画像と、前記選択手段により選択された画像とを前記追加されるページにレイアウトするレイアウト手段
    をさらに備えたことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記追加されるページは、開いたときに向かい合う2ページからなる見開きごとに追加することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. コンピュータを、
    複数のページを含むアルバムデータに対して、ページの追加指示を受け付ける受付手段と、
    前記追加指示により追加されるページに配置される画像として、ユーザにより選択されたユーザ選択画像を取得する画像取得手段と、
    前記ユーザ選択画像の解析情報を取得する第1の解析情報取得手段と、
    前記ユーザ選択画像の解析情報に基づき、前記追加されるページに配置される前記ユーザ選択画像以外の画像を選択する選択手段と、
    として機能させることを特徴とするプログラム。
  11. コンピュータを、
    前記追加されるページに配置される画像の選択条件を設定する設定手段と、
    前記選択条件を満たす画像を候補画像とし、前記候補画像の解析情報を取得する第2の解析情報取得手段と、
    としてさらに機能させ、
    前記ユーザ選択画像の解析情報と前記候補画像の解析情報とに基づき、前記選択手段は、前記候補画像の中から前記追加されるページに配置される前記ユーザ選択画像以外の画像を選択することを特徴とする請求項10に記載のプログラム。
  12. コンピュータを、
    前記候補画像の解析情報に基づき、前記候補画像の得点を算出する算出手段としてさらに機能させ、
    前記選択手段は、前記追加されるページに配置する所定の画像枚数から前記ユーザ選択画像の画像枚数を引いた画像枚数だけ、前記候補画像から前記得点の高い順に選択することを特徴とする請求項11に記載のプログラム。
  13. 前記受付手段は、ユーザ入力に基づき、前記アルバムデータにおける前記追加されるページを追加する追加位置の指定を受け付けることにより、前記ページの追加指示を受け付け、
    前記選択条件は、前記候補画像の撮影日時が、前記追加位置を挟む前後のページに配置された画像の撮影日時の間にあること、であることを特徴とする請求項11又は12に記載のプログラム。
  14. 前記選択条件は、前記候補画像の撮影日時が、前記ユーザ選択画像の撮影日時から所定の時間の範囲にあること、であることを特徴とする請求項11乃至13のいずれか1項に記載のプログラム。
  15. 前記画像取得手段は、前記アルバムデータにおいて使用されていない複数の未使用画像をユーザに提示して、ユーザに前記複数の未使用画像から前記ユーザ選択画像を選択させることを特徴とする請求項10乃至14のいずれか1項に記載のプログラム。
  16. 前記解析情報は、画像から特徴量から取得される、画像におけるオブジェクト判定の結果、顔検出の結果、検出した顔の表情認識の結果、検出した顔の個人認識の結果、および撮影日時のうちの少なくとも1つを含むことを特徴とする請求項10乃至15のいずれか1項に記載のプログラム。
  17. コンピュータを、
    前記ユーザ選択画像と、前記選択手段により選択された画像とを前記追加されるページにレイアウトするレイアウト手段としてさらに機能させることを特徴とする請求項10乃至16のいずれか1項に記載のプログラム。
  18. 前記追加されるページは、開いたときに向かい合う2ページからなる見開きごとに追加することを特徴とする請求項10乃至17のいずれか1項に記載のプログラム。
  19. 複数のページを含むアルバムデータに対して、ページの追加指示を受け付ける受付ステップと、
    前記追加指示により追加されるページに配置される画像として、ユーザにより選択されたユーザ選択画像を取得する画像取得ステップと、
    前記ユーザ選択画像の解析情報を取得する第1の解析情報取得ステップと、
    前記ユーザ選択画像の解析情報に基づき、前記追加されるページに配置される前記ユーザ選択画像以外の画像を選択する選択ステップと、
    を有することを特徴とする画像処理方法。
JP2019078783A 2019-04-17 2019-04-17 画像処理装置、画像処理方法、及びプログラム Active JP7286392B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019078783A JP7286392B2 (ja) 2019-04-17 2019-04-17 画像処理装置、画像処理方法、及びプログラム
US16/851,131 US11570312B2 (en) 2019-04-17 2020-04-17 Image processing apparatus, image processing method, and storage medium to select an image to be arranged in an added page in an album

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078783A JP7286392B2 (ja) 2019-04-17 2019-04-17 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020177419A JP2020177419A (ja) 2020-10-29
JP7286392B2 true JP7286392B2 (ja) 2023-06-05

Family

ID=72829358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078783A Active JP7286392B2 (ja) 2019-04-17 2019-04-17 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11570312B2 (ja)
JP (1) JP7286392B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7341677B2 (ja) * 2019-02-28 2023-09-11 キヤノン株式会社 装置、方法、及びプログラム
JP7286393B2 (ja) * 2019-04-17 2023-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11227007B2 (en) * 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image
JP2021027555A (ja) * 2019-08-08 2021-02-22 キヤノン株式会社 画像処理装置、制御方法及びプログラム
US11620909B2 (en) * 2019-10-02 2023-04-04 Samsara Networks Inc. Facial recognition technology for improving driver safety
USD959467S1 (en) * 2020-06-18 2022-08-02 Cerenion Oy Display screen with graphical user interface
JP2022123213A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123210A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123209A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2023021794A (ja) 2021-08-02 2023-02-14 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2023067166A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法
JP2023067164A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055403A (ja) 2016-09-29 2018-04-05 富士フイルム株式会社 ページ画像表示制御システム,ページ画像表示制御方法およびそのプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6039942B2 (ja) 2012-07-09 2016-12-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP5993642B2 (ja) 2012-07-09 2016-09-14 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP6012310B2 (ja) 2012-07-09 2016-10-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5956860B2 (ja) 2012-07-09 2016-07-27 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
JP5713279B2 (ja) * 2012-09-20 2015-05-07 カシオ計算機株式会社 画像分類装置、電子アルバム作成装置、及び画像分類方法、プログラム
JP5883843B2 (ja) 2013-12-13 2016-03-15 富士フイルム株式会社 画像評価装置,画像評価方法,画像評価プログラム,およびそのプログラムを格納した記録媒体
JP6417154B2 (ja) 2014-08-27 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6525862B2 (ja) * 2015-08-07 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6660119B2 (ja) 2015-08-07 2020-03-04 キヤノン株式会社 情報処理装置、情報処理方法、並びにプログラム
JP6521791B2 (ja) * 2015-08-07 2019-05-29 キヤノン株式会社 情報処理装置およびその制御方法
JP6942464B2 (ja) 2016-12-09 2021-09-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6902860B2 (ja) 2016-12-09 2021-07-14 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6902886B2 (ja) 2017-03-14 2021-07-14 キヤノン株式会社 画像処理装置、方法およびプログラム
JP6938422B2 (ja) 2018-04-23 2021-09-22 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7224774B2 (ja) 2018-04-23 2023-02-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055403A (ja) 2016-09-29 2018-04-05 富士フイルム株式会社 ページ画像表示制御システム,ページ画像表示制御方法およびそのプログラム

Also Published As

Publication number Publication date
JP2020177419A (ja) 2020-10-29
US20200336607A1 (en) 2020-10-22
US11570312B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
JP7286392B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7224774B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7286393B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR102240626B1 (ko) 화상처리방법, 화상처리장치, 및 프로그램
JP6711937B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7350495B2 (ja) 装置、方法、及びプログラム
KR102157494B1 (ko) 제어방법 및 기억매체
JP6494504B2 (ja) 情報処理装置、制御方法およびプログラム
JP6873678B2 (ja) 画像処理装置、制御方法、及びプログラム
JP2018097491A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7336211B2 (ja) 画像処理装置、制御方法、及びプログラム
JP2022123210A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123207A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6904692B2 (ja) 画像処理装置、制御方法、及びプログラム
JP2022123213A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP7336209B2 (ja) 画像処理装置、制御方法、及びプログラム
JP7027101B2 (ja) 情報処理装置、制御方法、及びプログラム
JP7451242B2 (ja) 画像処理装置、画像処理方法、及びプログラム
EP4024347A2 (en) Image processing apparatus, image processing method, and program
JP2021149195A (ja) プログラム、画像処理方法、及び画像処理装置
JP6700806B2 (ja) プログラム、情報処理装置および制御方法
JP7336212B2 (ja) 画像処理装置、制御方法、及びプログラム
JP7336210B2 (ja) 画像処理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230524

R151 Written notification of patent or utility model registration

Ref document number: 7286392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151