JP2013201720A - 情報処理装置、その処理方法及びプログラム - Google Patents

情報処理装置、その処理方法及びプログラム Download PDF

Info

Publication number
JP2013201720A
JP2013201720A JP2012070187A JP2012070187A JP2013201720A JP 2013201720 A JP2013201720 A JP 2013201720A JP 2012070187 A JP2012070187 A JP 2012070187A JP 2012070187 A JP2012070187 A JP 2012070187A JP 2013201720 A JP2013201720 A JP 2013201720A
Authority
JP
Japan
Prior art keywords
information
image
subject
relationship
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012070187A
Other languages
English (en)
Other versions
JP2013201720A5 (ja
JP5882805B2 (ja
Inventor
Tomoyuki Shimizu
智之 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012070187A priority Critical patent/JP5882805B2/ja
Priority to US13/785,196 priority patent/US9087237B2/en
Publication of JP2013201720A publication Critical patent/JP2013201720A/ja
Publication of JP2013201720A5 publication Critical patent/JP2013201720A5/ja
Priority to US14/723,828 priority patent/US9639778B2/en
Application granted granted Critical
Publication of JP5882805B2 publication Critical patent/JP5882805B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)

Abstract

【課題】
多視点の画像群からユーザにとって好適な画像を生成する技術を提供する。
【解決手段】
情報処理装置は、多視点の画像群を管理する画像管理手段と、被写体に関する情報と該被写体間の関係を示す関係情報とを管理する被写体情報管理手段と、前記画像群の各々に対してフォーカス距離情報と前記被写体に関する情報とに基づいて被写体の認識処理を実施し、各画像に写った被写体を特定する特定手段と、前記関係情報に基づいて、着目する被写体を決定する決定手段と、前記決定された着目被写体が写っていると前記特定手段で特定された画像を生成する画像生成手段とを具備する。
【選択図】 図3

Description

本発明は、情報処理装置、その処理方法及びプログラムに関する。
従来、被写体を多くの視点から撮影した画像をもとに、任意のフォーカス距離や被写界深度を求めたり、複数視点の画像を生成したりする手法が知られている。例えば、非特許文献1では、複数のカメラを2次元平面上に格子状に配置することで、視点の異なる複数の画像を取得する(以下、このような多視点画像を画像群と表記する)。そして、視点、フォーカス距離、開口径をパラメータとして与えることで、それら画像群から計算処理によって画像を生成する(以下、パラメータを与えて生成する画像を完成画像と表記する)。なお、パラメータ指定がなければ、デフォルト値による画像生成を行なう。一方で、特許文献1では、後からユーザが画像群を探し易いような画像を生成するパラメータを自動で設定する方法が開示されている。
特開2011−22796号公報
Bennett Wilburn, Neel Joshi, Vaibhav Vaish, Eino-Ville Talvala, Emilio Antunez, Adam Barth, Andrew Adams, Marc Levoy, Mark Horowitz, "High Performance Imaging Using Large Camera Arrays", アメリカ, Proceedings of ACM SIGGRAPH 2005, 765-776頁.
しかし、パラメータのデフォルト値や、画像群を探すために設定されたパラメータ値から生成された画像は、誰かにあげたり、仲間や家族と鑑賞したり、記録として整理したりするといった、ユーザにとって良くある利用目的に即したパラメータが与えられた完成画像になるとは限らない。
利用目的に即したパラメータが与えられた画像が得られなかった場合、視点、フォーカス距離、深度等のパラメータ調整をユーザが行なう必要があり、手間が掛かる。また、ユーザのスキルによっては、パラメータ指定によってどのような画像を生成し得るか把握できていない場合も考えられ、パラメータ指定操作そのものが困難であることもある。
そこで、本発明は、上記課題に鑑みてなされたものであり、多視点の画像群からユーザにとって好適な画像を生成する技術を提供することを目的とする。
上記課題を解決するため、本発明の一態様による情報処理装置は、多視点の画像群を管理する画像管理手段と、被写体に関する情報と該被写体間の関係を示す関係情報とを管理する被写体情報管理手段と、前記画像群の各々に対してフォーカス距離情報と前記被写体に関する情報とに基づいて被写体の認識処理を実施し、各画像に写った被写体を特定する特定手段と、前記関係情報に基づいて、着目する被写体を決定する決定手段と、前記決定された着目被写体が写っていると前記特定手段で特定された画像を生成する画像生成手段とを具備する。
本発明によれば、多視点の画像群からユーザにとって好適な画像を生成することができる。
本発明の一実施の形態に係わる情報処理装置を配して構成した情報処理システムの構成の一例を示す図。 撮像部の構成の一例を示す図。 情報処理装置30の機能的な構成の一例を示す図。 関係情報の概要を示す図。 被写体認識部43の処理により得られる画像の概要を示す図。 情報処理装置30の処理の流れの一例を示すフローチャート。 情報処理装置30の処理の流れの一例を示すフローチャート。 実施形態2に係わる情報処理装置30の機能的な構成の一例を示す図。 実施形態3に係わる情報処理装置30の機能的な構成の一例を示す図。 実施形態3に係わる情報処理装置30の機能的な構成の一例を示す図。 変形例の概要を示す図。
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。
(実施形態1)
図1は、本発明の一実施の形態に係わる情報処理装置を配して構成した情報処理システムの構成の一例を示す図である。
情報処理システムは、撮像装置10と、情報処理装置30とを具備して構成され、これら装置間は、例えば、USB(Universal Serial Bus)等の通信手段を介して通信可能に接続されている。
情報処理装置30は、各種画像(例えば、撮像装置10により撮像された画像)を登録し管理する。情報処理装置30には、例えば、コンピュータが内蔵されている。コンピュータには、CPU(Central Processing Unit)等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、マウスやディスプレイ等の入出力手段、ネットワークカード等の通信手段等も具備されていても良い。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
撮像装置10は、複数の撮像部を備えた多眼方式が採用されている。ここで、撮像装置10には、複数の撮像部101〜109と、ROM201と、RAM202と、CPU203と、操作部205と、表示制御部207と、表示部206と、撮像部制御部208とを具備して構成される。撮像装置10には、この他、デジタル信号処理部209、エンコーダ部210、外部メモリ制御部211、画像出力部212も設けられる。なお、撮像装置10に設けられるこれら構成は、バス204等を介して通信可能に接続されている。
CPU(Central Processing Unit)203は、各種入出力の制御やデータ処理等を行い、RAM(Random Access Memory)202は、演算結果やデータを一時的に記憶する。ROM(Read Only Memory)201は、本実施形態に係わる制御を実行するプログラムやデータを記憶する。撮像装置10における各構成は、例えば、CPU203が、RAM202をワーク領域として、ROM201に記憶されたプログラムを実行することで実現される。
操作部205は、例えば、ボタンやモードダイヤル等で実現され、ユーザからの各種指示を装置内に入力する。表示部206は、例えば、液晶ディスプレイ等で実現され、各種情報(例えば、撮影画像や文字等)をユーザに向けて表示する。表示制御部207は、各種情報を表示部206に表示制御する。なお、操作部205及び表示部206は、一体的に構成され、タッチスクリーンとして実現されても良い。
撮像部制御部208は、撮像系の制御を行なう。例えば、フォーカスの調整、シャッターを開く/閉じる、絞りの調節等を行なう。この制御は、CPU203からの指示に基づいて行なわれる。
デジタル信号処理部209は、バス204を介して受信したデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行なう。エンコーダ部210は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する。外部メモリ制御部211は、撮像装置10に挿入された外部メモリとの間の通信を制御する。外部メモリとしては、例えば、情報処理装置(例えば、PC(Personal Computer))の他、メディア(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)等が挙げられる。
撮像部101〜109は、カラー画像を取得する。複数の撮像部101〜109は、例えば、図2(a)に示すように、正方格子上に均等に配置されている。ユーザが撮影ボタン21を押下すると、撮像部101〜109は、センサ(撮像素子)において、被写体の光情報を受光する。そして、撮像装置10の内部において、当該受光した信号をA/D変換し、それにより、複数のカラー画像(デジタルデータ)を取得する。このような多眼方式の撮像装置10により、同一の被写体を複数の視点位置から撮像したカラー画像群を得ることができる。
ここで、撮像部101〜109の構成について更に説明する。なお、撮像部101〜109は、基本的に同じ構成を有するため、代表して撮像部101の構成について説明する。撮像部101は、図2(b)に示すように、複数のレンズ301〜303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310を具備して構成される。
複数のレンズ301〜303は、例えば、ズームレンズ301、フォーカスレンズ302、ぶれ補正レンズ303を含んで構成される。センサ309は、例えば、CMOS(Complimentary Metal Oxide Semiconductor)やCCD(Charge-Coupled Devices)等の撮像素子で実現され、上述した各構成を経由した光を検知する。A/D変換部310は、当該センサ309により検知された光をデジタル値に変換し、それをデジタルデータとしてバス204に供給する。
画像出力部212は、撮像部101〜109で取得されたカラー画像群或いは、デジタル信号処理部209から出力されたカラー画像群を、同一の被写体を撮影した画像群として識別可能な状態で出力する。
以上が、撮像装置10における機能的な構成の一例についての説明である。なお、上述した撮像装置10の構成は、あくまで一例であり、上記構成に限定されず、必要に応じて適宜構成の追加や省略等を行なえば良い。
例えば、上述した説明では、撮像部の数が9個である場合を例に挙げて説明したが、撮像部の数は9個に限られない。すなわち、撮像装置が複数の撮像部を備えていれば良く、その数が何個備えられていても良い。また、9個の撮像部が正方格子上に均等に配置される場合を例に挙げて説明したが、これに限られず、撮像部の配置も任意に決めれば良い。例えば、放射状や直線状に配置しても良いし、また、全くランダムに配置しても良い。その他、撮像部101〜109で撮像される画像の一部又はその全てがモノクロ画像であっても良い。その場合には、図2(b)に示すカラーフィルタ308の構成を省略すれば良い。
次に、図3を用いて、図1に示す情報処理装置30の機能的な構成の一例について説明する。
情報処理装置30は、その機能的な構成として、入力部31と、出力部32と、データベース33と、画像処理部34と、画像登録部35とを具備して構成される。
入力部31は、例えば、マウスやキーボード等を介したユーザからの指示を装置内に入力し、出力部32は、例えば、液晶ディスプレイ等に対して各種情報を出力する。
データベース33は、例えば、RAMや外部記憶装置等で実現され、画像や画像に関する情報を管理する画像管理手段として機能する。より具体的には、画像や、画像に関する属性情報、情報処理装置30を利用しているユーザのユーザ情報等を管理する。
画像登録部35は、データベース33に画像を登録する。画像登録部35には、被写体抽出部36が設けられる。被写体抽出部36は、登録対象となる画像に対して顔認証処理を実施し、それにより、被写体を特定しそれを抽出する。顔認証処理は、一般的な顔特徴による技術を用いて行なえば良く、特定対象となる人物の顔特徴を予め学習しておき、当該顔特徴と類似した特徴を持つ画像内の部分領域を、その人物であると特定する。なお、画像の登録に際しては、被写体抽出部36の顔認識により特定された被写体の情報が被写体情報としてデータベース33に登録される。
画像処理部34は、データベース33に登録された(多視点の)画像群に対して各種画像処理を行なう。画像処理部34には、画像取得部40と、関係情報生成部41と、関係情報管理部42と、被写体認識部43と、着目対象決定部44と、完成画像生成部45とが具備される。
画像取得部40は、データベース33から画像群を取得する。関係情報生成部41は、画像取得部40により取得された画像群から被写体間の関係情報を生成する。この関係情報の生成に際しては、例えば、ユーザが管理している画像群全体から被写体を認識し、被写体毎の出現頻度や、同一画像中に共起する被写体の頻度(共起頻度)等を集計する。被写体毎の出現頻度では、例えば、ユーザが管理している画像群内における被写体の出現し易さが分かるので、これを利用してユーザと被写体との間の関係情報を生成することができる。また、被写体の共起頻度では、一緒に写真に写りこむ傾向が分かるので、これを利用して被写体同士の関係情報を生成することができる。なお、出現頻度をそのまま利用するのではなく、画像群の数に対する出現頻度の割合等を求めても良い。
なお、関係情報は、単純に関係があるという関係性を示す情報だけであっても良いが、関係が持つ属性情報を含んでいても良い。例えば、上述したような、被写体の出現頻度や共起頻度といった情報は、関係の強度を示す情報といえ、これを属性情報として関係情報に含めても良い。
勿論、属性情報は、これに限られない。例えば、ユーザが、情報処理装置30に対して論理的な画像群を指定できるとする(例えば、一度の旅行で撮影した画像をまとめて管理するように指定できる)。この場合、論理的なまとまりの中で出現頻度等の情報を集計し、関係の属性情報として、そのようなまとまり毎に区別したことを示す情報を含めても良い。
その他、被写体間の関係について、お互いにどういう存在であるかといったロールの情報が分かる場合は、それを関係の属性情報として関係情報に含めても良い。例えば、被写体DとMとが親子関係であれば、その情報を関係の属性情報として含めても良い。これらのロール情報は、どのような情報から取得しても良い。例えば、ユーザが情報処理装置30に対して登録した情報から取得しても良い。
このようにして生成された関係情報は、例えば、図4に示すように、各ユーザや被写体をノードとしたネットワーク構造で表現できる。この場合、ノードUはユーザを示しており、ノードA、B、F及びGはユーザが管理する画像において、出現頻度が予め設定された閾値以上であるといった関係を示している。これに対し、ノードCはユーザが管理する画像群における出現頻度が十分ではないため、ユーザとの関係はない。しかし、ノードCは、ノードA及びBとの共起頻度が、予め設定された閾値以上となるため、ノードA及びBと同時に撮影される関係があることを示している。
なお、関係情報のデータ形式は、上記図4で説明したような構造を表現できる形式であれば良く、どのような形式であっても良い。各関係が、属性情報を含む可能性がある場合には、構造化情報を記述可能なXML形式で関係情報を生成すれば良い。また、例えば、RDF(Resource Description Framework)を利用したXML形式の記述仕様(RDF/XML)などで記述すれば良い。RDFは、人や物といったリソースとその関係とを記述する形式としてW3C(World Wide Web Consortium)で標準化されている。
関係情報管理部42は、関係情報生成部41により生成された関係情報を管理する。この関係情報管理部42及びデータベース33等を含む構成によって被写体情報管理が行なわれる。関係情報管理部42においては、新たな関係情報の管理に際して、既存の関係情報とマージして管理する。例えば、人物Aについて、新しい人物Xとの関係を検出すれば、既存のAに関する関係の記述部分に、新たな関係とその属性情報、及び対象がXである旨を追記する。
また、関係情報管理部42は、被写体或いは関係やその属性情報などをキーとして含むクエリに対して、条件に合致する関係情報を検索し、その結果を応答する。クエリとしては、例えば、人物Aについての関係とその関係先となっている人物の検索を指示するようなクエリが挙げられる。この検索には、例えば、W3Cで標準化されたRDF/XML形式のデータを探索するクエリの記述言語であるSPARQL(SPARQL Protocol and RDF Query Language)のようなクエリ言語を用いれば良い。なお、管理している関係情報や、応答する関係情報のデータ形式についても、関係情報生成部41と同様に、例えば、RDF/XML形式のような構造化情報を記述できるものであれば何でも良い。
被写体認識部43は、画像取得部40により取得された画像群に対して、焦点調整処理を行ないながら、顔認識処理を実施する。それにより、焦点のあった被写体の画像を取得する。より具体的には、各画像に対して焦点調整処理を行ない、各フォーカス距離にある対象(被写体)に焦点が合った画像を生成する。なお、焦点調整処理は、例えば、予め設定された任意の間隔でフォーカス距離を変更(増加)させるパラメータを設定していくことにより行なえば良い。
ここで、図5(a)〜図5(c)を用いて、この被写体認識部43の処理により得られる画像の概要について説明する。
A〜D51は、被写体を示している。ここでは、図中の下方向に撮像装置10がある場合を示しており、撮像装置10からの相対的な位置を示している。また、符号52は、ある間隔で設定するフォーカス距離を示しており、これらのフォーカス距離をパラメータとした完成画像(パラメータを与えて生成する画像)をそれぞれ生成する。
符号53は、フォーカス距離を示している。図5(a)のフォーカス距離では、少なくとも被写体Aに焦点が合った完成画像が得られる。同様に、図5(b)のフォーカス距離では、被写体B及びDに焦点があっており、図5(c)のフォーカス距離では、被写体Cに焦点が合っている。
被写体認識部43においては、このようにして得られた各画像に対して顔認識処理を実施し、図5(d)に示すように、予め設定された閾値よりも高い尤度で特定できた人物のリストを生成する。
着目対象決定部44は、被写体認識部43により特定された被写体の中から、着目する被写体(着目被写体)を決定する。例えば、画像群を登録したユーザにとって好適な完成画像を得る場合には、着目対象決定部44は、当該ユーザを含む関係情報を関係情報管理部42から取得する。そして、被写体認識部43により特定された各人物の中から、当該関係情報に含まれている人物を選択し、当該人物を着目対象とする。
このとき、着目対象決定部44により特定される人物(被写体)と、関係情報管理部42により管理されている人物(被写体)とが対応付けられる必要がある。そこで、着目対象決定部44においては、例えば、被写体抽出部36により特定される被写体と、被写体認識部43により特定される被写体との対応関係を保持する。なお、被写体間の対応付けができるのであれば、どのような方法を用いても良い。例えば、着目対象決定部44と被写体抽出部36とにおける顔認識処理を共有することで、両者の特定結果を共通化しても良い。
完成画像生成部45は、着目対象決定部44により決定された着目対象に関して焦点調整を行なった画像を生成する。本実施形態においては、着目対象となる人物を被写体認識部43により特定したときのフォーカス距離情報及び顔位置を保持しておくようにする。そして、当該フォーカス距離を中心として、当該顔位置で焦点が合う距離を決定する。
具体的には、当該フォーカス距離を中心とした画像を生成し、当該画像からフォーカスを得るコントラスト方式のような汎用的なオートフォーカス方式を利用し焦点の合致を判定する。このとき最も焦点が合致した画像を完成画像とする。
なお、着目対象が複数の場合は、見つかった着目対象分の完成画像を生成する。勿論、このような方法に限られず、例えば、関係情報管理部42で管理されている関係の属性情報として、頻度情報が得られるのであれば、頻度の多い順に被写体をソートし、その上位の被写体のうち、予め決められた数の完成画像を生成するようにしても良い。
以上が、情報処理装置30の構成の一例についての説明である。なお、図3に示す情報処理装置30の構成は、あくまで一例であり、この構成は適宜変更しても良い。例えば、画像処理部34に実現される構成の一部又は全てが、外部装置に設けられていても良い(例えば、クラウド形式)。その場合、情報処理装置30においては、当該外部装置から処理結果を受けて各種処理を行なう。
次に、図6及び図7を用いて、図1に示す情報処理装置30の処理の流れの一例について説明する。まず、図6を用いて、関係情報を取得する際の処理の流れについて説明する。
情報処理装置30は、画像取得部40において、データベース33から画像群を取得する(S101)。本実施形態においては、ユーザが情報処理装置30に対して論理的なまとまりを予め定義しており、当該まとまりに画像が所属するように管理されているものとする。そのため、S101の処理においては、論理的なまとまり毎に画像群が取得される。
続いて、情報処理装置30は、画像処理部34において、データベース33から画像群の被写体情報を取得する(S102)。上述した通り、画像の登録に際して、被写体抽出部36の顔認識処理により特定された被写体の被写体情報がデータベース33に登録されている。そのため、S102の処理では、データベース33から当該被写体情報を取得する。
情報処理装置30は、画像処理部34において、S101の処理で取得した画像群を管理しているユーザの情報(ユーザ情報)を取得する(S103)。なお、ここでいうユーザとは、例えば、情報処理装置30を利用しているユーザを指し、このS103の処理では、例えば、ログイン情報等によってユーザ情報を取得すれば良い。勿論、対象となるユーザ情報を個別に入力できる構成であっても良い。
ユーザ情報の取得が済むと、情報処理装置30は、関係情報生成部41において、S102の処理で取得した被写体情報を集計し、S103の処理で取得したユーザとの関係情報を生成する(S104)。そして、S103の処理で取得した被写体が、同一画像中で共起している頻度から、各被写体間の関係情報を生成する(S105)。その後、情報処理装置30は、関係情報管理部42において、当該生成された関係情報を登録して管理する(S106)。
次に、図7を用いて、画像群から完成画像を(自動で)生成する際の処理の流れについて説明する。この図7に示す処理は、例えば、画像登録時に実施され、図6で説明した処理が終わった後、続けて実行される。なお、勿論、ユーザ指示又は任意のタイミングで(自動的に)実施されても良い。
情報処理装置30は、画像取得部40において、画像群を取得する(S201)。そして、被写体認識部43において、S201の処理で取得した画像群を処理し、焦点調整を行いながら当該画像群から被写体を(網羅的に)認識する(S202)。
続いて、情報処理装置30は、画像処理部34において、画像群を処理しようとしているユーザの情報(ユーザ情報)を取得する(S203)。ここでいうユーザとは、例えば、情報処理装置30を利用しているユーザを指し、このS203の処理では、例えば、ログイン情報等によってユーザ情報を取得すれば良い。
ユーザ情報の取得が済むと、情報処理装置30は、着目対象決定部44において、S202の処理で認識した被写体の中から、S203の処理で取得したユーザと関係のある被写体を特定し、それを着目対象に決定する(S204)。
最後に、情報処理装置30は、完成画像生成部45において、S204の処理で決定した着目対象に関して焦点調整を行なった完成画像を取得(生成)する(S205)。
以上説明したように本実施形態によれば、画像群の登録に際して、着目対象に関して焦点調整が行なわれた完成画像(着目対象に関して焦点調整を行なった画像)が生成される。すなわち、複数の画像(フォーカス距離は様々)に基づいてユーザに関係の深い被写体にフォーカスが合った画像が生成される。そのため、ユーザにとって好適な画像が自動で生成されることになる。
これにより、パラメータ指定などをして完成画像を生成する際のユーザの手間を抑制できる。例えば、複数の画像群からの知人に関係する画像を送るような場合に、ユーザは、各画像について完成画像を生成するといった煩雑な操作を行なわずに済むので、ユーザの利便性が向上する。
(実施形態2)
次に、実施形態2について説明する。上述した実施形態1では、着目対象決定部44において、被写体間の関係の有無等に基づいて着目対象を見つける場合を例に挙げて説明したが、これに限られない。その一例として、実施形態2においては、誰が何のために画像を利用するのかといったコンテキストに応じて着目対象の被写体を決定する場合について説明する。
実施形態2に係わる情報処理装置30には、図8に示すように、画像処理部34内にコンテキストを取得するコンテキスト取得部46が新たに設けられる。
コンテキスト取得部46は、例えば、ユーザへの出力機能の操作の過程で得られたコンテキストを取得する。そして、実施形態2に係わる着目対象決定部44においては、当該コンテキストに従って上述した関係情報を評価した結果(重み付けした結果)に基づいて着目対象を決定する。なお、コンテキストに応じた重み付けは、例えば、予め設定されているものとする。コンテキストとしては、例えば、祖父母へのアルバムのプレゼント、結婚する娘の成長記録のスライドショー作成、旅行の写真を同行者達で閲覧、その他一般的な閲覧を補助するための情報が挙げられる。すなわち、コンテキストは、所定の画像群のまとまり毎に設定されている。
ここで、重み付けは、コンテキスト毎に、ある被写体や関係の属性に基づいて予め設定されている。例えば、祖父母へのアルバムのプレゼントであれば、孫が写っている画像を中心に選ばれることが望まれる。そのため、関係情報としてロール情報が設定されていれば、画像群からは、祖父母から見て孫に当たる被写体が着目対象となるように関係に対して重み付けを行なっておく。
また、結婚する娘の成長記録のスライドショー作成であれば、ユーザから見て娘に当たる被写体を着目対象として含むように重み付けを行なっておく。このとき、ある時期における共起頻度の分布のようなものを関係の属性として管理するようにしておけば、娘とその時期に良く共起している被写体も同時に着目する被写体となるような重み付けを行なうようにしても良い。
また、旅行の写真を同行者の一部で集まって閲覧するのであれば、ユーザの知人にあたる関係の被写体のうち、その場にいる人物を着目対象として含むように重み付けを行なう。或いは、一般的な閲覧であれば、コンテキストによらず重要とみなせる関係を重視する。重要とみなせる関係とは、例えば、ユーザにとって近い血縁関係であるとか、完成画像の生成時点から見て近い日時での共起頻度の高い関係であるとかを指す。
また、画像群が既知の年中行事(例えば、母の日やこどもの日、家族や知人の誕生日)の日程と合致するのであれば、その行事における主役となるような人物との関係を重み付けするようなルールであって良い。例えば、母の日に撮影された画像であれば、母や母と良く共起する被写体が着目対象となるように関係に重みを付ける。同様に、閲覧日が既知の年中行事と一致する際は、当該行事の中心となる被写体について、着目被写体となるように関係を重み付けするようにしても良い。
なお、このような重み付けは、排他的に利用する必要はなく、特に、一般的な閲覧のためのルールとして述べた内容については、特定のコンテキストに依存したものではないため、常に考慮するようにして構わない。
以上説明したように実施形態2によれば、コンテキスト依存の処理(アルバム生成やスライドショー生成等)において、より好適な画像が得られる。加えて、好適な完成画像を自動で得られるようになることから、ユーザが介在せずに、アプリケーション等での自動生成処理を実現できる。
(実施形態3)
次に、実施形態3について説明する。上述した実施形態1では、画像取得部40により取得された画像群から関係情報を生成する場合について説明したが、これに限られない。例えば、ソーシャルネットワーキングサービス(以下、SNS)のような関係情報管理サービスに登録されているユーザや被写体の人間関係等の情報を関係情報としても良い。すなわち、ユーザや被写体間の関係情報の生成や管理に関係情報管理サービスを利用しても構わない。
この場合、情報処理装置30の構成としては、例えば、図9や図10に示す構成となる。すなわち、画像処理部34内に連携部47が新たに設けられる。連携部47は、情報処理装置30が外部サービスに接続されている場合、当該外部サービスにネットワークインタフェース(不図示)を介してアクセスして連携する。これにより、関係情報生成部41及び関係情報管理部42における一部の機能(図9)又は全ての機能(図10)を、当該関係情報管理サービスを利用して実現することができる。
ここで、関係情報管理サービス上の関係情報を利用する必要があるため、連携部47は、少なくとも当該関係情報管理サービスにユーザとしてログインする機能と、ユーザの関係情報に関する情報を取得する機能とを有する。このとき、関係情報管理サービス上の関係情報と、情報処理装置30内で扱う関係情報との対応付けが必要になる。この対応付けは、両方の管理対象の識別子を対応付ける表を作成し、それを連携部47で管理するようにすれば良い。
また、この表に相当する情報は、ユーザが予め入力して設定しておけば良い。例えば、情報処理装置30に認識対象として顔画像を登録する際に、登録対象の識別子として、関係情報管理サービス上でのユーザ名などの識別子を設定するようにしても良い。両者の対応付けの入力ができない、或いは、入力がなされていない場合であっても、両者で管理しているユーザ名やユーザの属性を使って対応付けを行なっても構わない。この場合、例えば、同一属性に同一の情報が入力されているか否かで対応付けを行なうか否かを判断すれば良い。
なお、関係情報管理サービスにおいては、画像から関係情報を生成できない場合も考えられる。このような場合には、関係情報生成部41による処理結果を、連携部47を経由して当該関係情報管理サービスにおける関係情報に追加できるようにしても良い。この場合、連携部47は、関係情報管理サービス上の関係情報を編集する機能を有する。そして、関係情報生成部41により生成されたあるユーザの関係情報を、当該ユーザが対応付けられている関係情報管理サービス上のユーザの関係情報として追加・更新する。
以上説明したように実施形態3によれば、SNSなどの外部サービスで関係情報の作成及び管理が行なわれている場合にはこれらと連携する。これにより、関係情報の管理が分散せず一元化して行なえることになる。また、このような関係情報を別々で管理する場合に比べて、登録やメンテナンスのコストを下げることができるとともに、相互の登録内容のズレを軽減できる。
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。以下、いくつか変形例について説明する。
(変形例1)
上述した説明では、被写体抽出部36や被写体認識部43において、顔認識処理を実施し、顔画像から人物を特定する場合について説明したが、これに限られない。ペットやオブジェクトを被写体として認識処理を行なっても良い。例えば、実施形態2で説明した例でいえば、旅行の記録においては、旅先のランドマークが認識できれば、当該ランドマークと共起している人物の関係を重み付けすることで、ランドマークと人物とが着目対象となるようにしても良い。
(変形例2)
上述した説明では、複数の着目対象があった場合に、当該複数の着目対象に焦点が合うように完成画像を生成する場合について説明したが、これに限られない。例えば、着目対象それぞれのフォーカス距離を集計し、当該距離の中間点をフォーカス距離のパラメータとして設定し、且つフォーカス位置からの深度幅が深くなるように開口径のパラメータを絞った値を設定しても良い。このようにすることで、着目対象全体に焦点が合っているような完成画像を生成できる。
この処理について、図11(a)を用いて更に具体的に説明する。ここで、A及びBは着目対象として選択された被写体を示しており、符号10は、多視点画像を撮影するための撮像装置を示している。この場合、フォーカス位置を符号61のように、A及びBの中間点に設定し、開口径のパラメータを調整して、深度幅62がA及びBをカバーするようにして完成画像を生成する。
なお、関係情報管理部42に管理された着目対象間の関係情報を取得し、着目対象間に関係がある場合に、図11(a)に示す処理を行なうようにしても構わない。すなわち、複数の着目対象の中から、関係情報に基づいて着目対象の組を生成し、当該組毎に完成画像を生成しても良い。
また、このとき、関係の属性情報として、各着目対象間の共起頻度等のような関係の強さを評価できる情報が得られるのであれば、共起するような関係の被写体同士を優先して、それらの被写体全体に焦点が合った完成画像を生成するようにしても良い。
また、実施形態2で説明したような関係の重み付けの情報が得られる場合は、コンテキストに沿った重要な関係の被写体全体に焦点が合った完成画像を生成するようにしても構わない。
以上説明したように変形例2によれば、複数の被写体全体に焦点が合っているような完成画像を生成する。これにより、このような画像を利用する場合にも、ユーザが画像を生成する手間を抑制できる。
(変形例3)
また更に、変形例2の処理に限られず、例えば、複数の着目対象それぞれの座標位置を含む曲面を求め、当該曲面に沿って焦点調整を行なうような技術(従来の技術)を利用しても構わない。
この処理について、図11(b)を用いて説明すると、A〜Dまで4つの着目対象がある場合、曲面状仮想的な焦点面70を設定し、この焦点面に合わせて焦点調整を行なった完成画像を生成する。なお、変形例2と同様に、着目対象間の関係情報を見て、着目対象の組み合わせを決めても勿論構わない。
以上説明したように変形例3によれば、撮像装置から各着目対象の距離の分布にばらつきがあったとしても、着目対象全体に注目した深度の浅い完成画像を生成できる。
(変形例4)
例えば、被写体抽出部36における認識対象は、画像中のテキストオブジェクトの文字列情報であっても良い。この場合、文字列を認識し、画像中の被写体に関連するテキスト情報であることを判定し、文字列と当該被写体とが関係する場合には、両者に焦点が合うように焦点調整を行なった完成画像を生成する。
例えば、画像の中に看板が写っており、「入学式」の文字が含まれ、且つ自分の娘が写っていたとする。この状況において、娘の生年月日の情報、画像の撮影日時の情報、「入学式」に関する基本的な知識情報をそれぞれ参照することで、娘の入学時期であった場合、当該娘の顔とその看板両方に焦点を合わせた画像を作るなどしても良い。
(変形例5)
上述した実施形態においては、撮像装置10により撮像された画像群が情報処理装置30に入力される場合について説明したが、これに限られない。すなわち、情報処理装置30には、焦点調整処理が可能な画像群が入力されれば良い。例えば、レンズが複数でセンサが一つの構成であっても同等の画像群が得られることが知られており、このようにして得られた画像群が情報処理装置30に入力されても良い。
(変形例6)
上述した実施形態においては、完成画像生成部45における焦点調整処理として、着目対象に焦点が合うようにする場合を例に挙げて説明したが、それ以外の部分、例えば、背景部分の焦点調整処理については特に言及していない。
この点について説明すると、着目対象以外の範囲については、できる限りぼかした画像にする場合や、それ以外の部分にもできる限りフォーカスが当たっている画像にする場合等が考えられる。例えば、コンテキストによっていずれか決めるようにしても良い。すなわち、コンテキスト取得部46(図8参照)を含む構成で得られたコンテキストによって、着目対象以外の領域をどのように焦点調整するかを関係評価ルールと合わせて管理しておくようにすれば良い。そして、その内容に応じて、完成画像生成部45が、完成画像を生成する。
或いは、より汎用的な例として、着目対象が人で、ある程度の大きさの顔が画像内で占めており、且つ他に認識できた被写体が無いようなケースでは、ポートレートのような画像をユーザがイメージして撮影した可能性が高い。このような場合は、顔部分を強調するために、背景をぼかした画像を生成する。そういった典型的なルールと、着目対象以外の部分の焦点調整の仕方を対応付けておくことで完成画像を生成するようにしても良い。この場合、当該ルールや着目対象以外の部分の焦点調整の仕方の対応付けの情報は、完成画像生成部45に予め設定しておく等すれば良い。
(変形例7)
上述した実施形態においては、処理対象が静止画像である場合を例に挙げて説明したが、これに限られない。例えば、各フレームが多視点画像の情報を有するような動画像であっても良い。その場合は、動画像における1フレーム分を対象として上述した処理を行なえば良い。
但し、動画像として閲覧するには、フレーム毎に着目対象が細かく変動することは好ましくない。動画像は、写真のように瞬間的な場面を捉えたものであるよりも、あるシーンを撮影するケースが多い。よって、シーン全体としての着目対象を決定し、シーン全体に統一感のある着目対象に関する焦点調整を実施することが望ましい。
この場合、上述した画像処理部34内の各構成は、当該シーンを表す時間内のフレーム画像全体に対して処理を行なう。すなわち、シーン内のフレーム全体の被写体を集計し、そこから関係を生成したり、着目対象を決定したりする。
また、動画像としての完成画像は、決定した着目被写体を追尾するような一般的な追尾処理によって、各フレームでの焦点調整を実施する領域を決め、当該領域に焦点が合うように各フレームの完成画像を生成する。
なお、着目被写体は、一時的に障害物に隠れたり、フレーム外に出てしまったりして、追尾できないフレームが生じることがある。それによってフォーカス距離が大きく変動することがないように、前後の追尾できているフレームでの被写体の領域及びフォーカス距離から、当該追尾できていないフレームでの被写体の領域及びフォーカス距離を補間するようにしても良い。
(その他の実施形態)
なお、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (10)

  1. 多視点の画像群を管理する画像管理手段と、
    被写体に関する情報と該被写体間の関係を示す関係情報とを管理する被写体情報管理手段と、
    前記画像群の各々に対してフォーカス距離情報と前記被写体に関する情報とに基づいて被写体の認識処理を実施し、各画像に写った被写体を特定する特定手段と、
    前記関係情報に基づいて、着目する被写体を決定する決定手段と、
    前記決定された着目被写体が写っていると前記特定手段で特定された画像を生成する画像生成手段と
    を具備することを特徴とする情報処理装置。
  2. 被写体間の関係を示す情報を管理する外部サービスに前記情報処理装置が接続されている場合、該外部サービスにより管理された関係情報と、前記被写体情報管理手段により管理された関係情報とを連携させる連携手段
    を更に具備することを特徴とする請求項1記載の情報処理装置。
  3. 前記決定手段は、
    前記連携手段により取得された前記外部サービスで管理された関係情報を用いて前記着目被写体を決定する
    ことを特徴とする請求項2記載の情報処理装置。
  4. 前記画像群のうち所定の画像群のまとまり毎に設定されたコンテキストを取得するコンテキスト取得手段
    を更に具備し、
    前記コンテキストに従って前記関係情報により示される関係を評価した結果に基づいて前記着目被写体を決定する
    ことを特徴とする請求項2又は3記載の情報処理装置。
  5. 前記被写体に関する情報に基づいて画像群の各々に対して被写体の認識処理を実施し、当該認識処理により特定された被写体の情報を被写体情報として各画像に対応付けて前記画像管理手段に登録する登録手段と、
    前記被写体情報に基づいて前記関係情報を生成する関係情報生成手段と
    を更に具備することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記関係情報生成手段は、
    前記画像群における被写体の出現頻度、及び前記画像群から得られる被写体間の共起頻度に基づいて前記関係情報を生成する
    ことを特徴とする請求項5記載の情報処理装置。
  7. 前記決定手段は、
    複数の被写体を前記着目被写体として決定し、
    前記画像生成手段は、
    前記着目被写体が複数ある場合、当該複数の着目被写体となる被写体が写っていると前記特定手段により特定された画像を生成する
    ことを特徴とする請求項1又は6のいずれか1項に記載の情報処理装置。
  8. 前記画像生成手段は、
    前記着目被写体が複数ある場合、当該複数の着目被写体の中から前記関係情報に基づいて着目被写体となる被写体の組を生成し、当該組毎に画像を生成する
    ことを特徴とする請求項7記載の情報処理装置。
  9. 情報処理装置の処理方法であって、
    特定手段が、多視点の画像群の各々に対してフォーカス距離情報と被写体に関する情報とに基づいて被写体の認識処理を実施し、各画像に写った被写体を特定する工程と、
    決定手段が、被写体に関する情報と該被写体間の関係を示す関係情報とを管理する被写体情報管理手段に管理された前記関係情報に基づいて、着目する被写体を決定する工程と、
    画像生成手段が、前記決定された着目被写体が写っていると前記特定手段で特定された画像を生成する工程と
    を含むことを特徴とする処理方法。
  10. コンピュータを、
    多視点の画像群を管理する画像管理手段、
    被写体に関する情報と該被写体間の関係を示す関係情報とを管理する被写体情報管理手段、
    前記画像群の各々に対してフォーカス距離情報と前記被写体に関する情報とに基づいて被写体の認識処理を実施し、各画像に写った被写体を特定する特定手段、
    前記関係情報に基づいて、着目する被写体を決定する決定手段、
    前記決定された着目被写体が写っていると前記特定手段で特定された画像を生成する画像生成手段
    として機能させるためのプログラム。
JP2012070187A 2012-03-26 2012-03-26 情報処理装置、その処理方法及びプログラム Expired - Fee Related JP5882805B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012070187A JP5882805B2 (ja) 2012-03-26 2012-03-26 情報処理装置、その処理方法及びプログラム
US13/785,196 US9087237B2 (en) 2012-03-26 2013-03-05 Information processing apparatus, control method thereof, and storage medium
US14/723,828 US9639778B2 (en) 2012-03-26 2015-05-28 Information processing apparatus, control method thereof, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012070187A JP5882805B2 (ja) 2012-03-26 2012-03-26 情報処理装置、その処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016018225A Division JP6082484B2 (ja) 2016-02-02 2016-02-02 情報処理装置、その処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2013201720A true JP2013201720A (ja) 2013-10-03
JP2013201720A5 JP2013201720A5 (ja) 2015-03-12
JP5882805B2 JP5882805B2 (ja) 2016-03-09

Family

ID=49211839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012070187A Expired - Fee Related JP5882805B2 (ja) 2012-03-26 2012-03-26 情報処理装置、その処理方法及びプログラム

Country Status (2)

Country Link
US (2) US9087237B2 (ja)
JP (1) JP5882805B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726619B2 (en) 2015-10-29 2020-07-28 Sony Interactive Entertainment Inc. Foveated geometry tessellation
US10909386B2 (en) * 2018-04-28 2021-02-02 Beijing Kuangshi Technology Co., Ltd. Information push method, information push device and information push system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5882805B2 (ja) 2012-03-26 2016-03-09 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
US9049382B2 (en) * 2012-04-05 2015-06-02 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP6320075B2 (ja) * 2014-02-19 2018-05-09 キヤノン株式会社 画像処理装置およびその制御方法
JP6424601B2 (ja) * 2014-12-10 2018-11-21 富士通株式会社 表示制御方法、情報処理プログラム、及び情報処理装置
JP6082484B2 (ja) * 2016-02-02 2017-02-15 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
JP2022053355A (ja) * 2020-09-24 2022-04-05 キヤノン株式会社 撮像装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022796A (ja) * 2009-07-15 2011-02-03 Canon Inc 画像処理方法および画像処理装置
JP2011082913A (ja) * 2009-10-09 2011-04-21 Sony Corp 撮像装置、撮像方法及び撮像プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2928548B2 (ja) * 1989-08-02 1999-08-03 株式会社日立製作所 立体形状検出方法及びその装置
US5384615A (en) * 1993-06-08 1995-01-24 Industrial Technology Research Institute Ambient depth-of-field simulation exposuring method
JP2891159B2 (ja) * 1996-02-14 1999-05-17 日本電気株式会社 多眼画像からの物体検出方式
US6324299B1 (en) * 1998-04-03 2001-11-27 Cognex Corporation Object image search using sub-models
US6941323B1 (en) * 1999-08-09 2005-09-06 Almen Laboratories, Inc. System and method for image comparison and retrieval by enhancing, defining, and parameterizing objects in images
US20030071909A1 (en) * 2001-10-11 2003-04-17 Peters Geoffrey W. Generating images of objects at different focal lengths
US7194114B2 (en) * 2002-10-07 2007-03-20 Carnegie Mellon University Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder
KR100601997B1 (ko) * 2004-10-12 2006-07-18 삼성전자주식회사 인물기반 디지털 사진 클러스터링 방법 및 장치와 이를이용한 인물기반 디지털 사진 앨버밍 방법 및 장치
US7945938B2 (en) * 2005-05-11 2011-05-17 Canon Kabushiki Kaisha Network camera system and control method therefore
US8024343B2 (en) * 2006-04-07 2011-09-20 Eastman Kodak Company Identifying unique objects in multiple image collections
US8315463B2 (en) * 2006-11-14 2012-11-20 Eastman Kodak Company User interface for face recognition
US20090169122A1 (en) * 2007-12-27 2009-07-02 Motorola, Inc. Method and apparatus for focusing on objects at different distances for one image
JP5385759B2 (ja) * 2009-10-30 2014-01-08 キヤノン株式会社 画像処理装置及び画像処理方法
US8311278B2 (en) * 2009-12-22 2012-11-13 Xerox Corporation Method and system for automated subject identification in group photos
CN102696219B (zh) * 2010-11-08 2016-03-23 松下电器产业株式会社 摄像装置、摄像方法及集成电路
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8612441B2 (en) * 2011-02-04 2013-12-17 Kodak Alaris Inc. Identifying particular images from a collection
US8929615B2 (en) * 2011-11-03 2015-01-06 Facebook, Inc. Feature-extraction-based image scoring
JP5882805B2 (ja) 2012-03-26 2016-03-09 キヤノン株式会社 情報処理装置、その処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022796A (ja) * 2009-07-15 2011-02-03 Canon Inc 画像処理方法および画像処理装置
JP2011082913A (ja) * 2009-10-09 2011-04-21 Sony Corp 撮像装置、撮像方法及び撮像プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726619B2 (en) 2015-10-29 2020-07-28 Sony Interactive Entertainment Inc. Foveated geometry tessellation
JP7004645B2 (ja) 2015-10-29 2022-01-21 株式会社ソニー・インタラクティブエンタテインメント 中心窩ジオメトリテッセレーション
US11270506B2 (en) 2015-10-29 2022-03-08 Sony Computer Entertainment Inc. Foveated geometry tessellation
US10909386B2 (en) * 2018-04-28 2021-02-02 Beijing Kuangshi Technology Co., Ltd. Information push method, information push device and information push system

Also Published As

Publication number Publication date
US9087237B2 (en) 2015-07-21
US20130251198A1 (en) 2013-09-26
US20150262032A1 (en) 2015-09-17
US9639778B2 (en) 2017-05-02
JP5882805B2 (ja) 2016-03-09

Similar Documents

Publication Publication Date Title
JP5882805B2 (ja) 情報処理装置、その処理方法及びプログラム
US10769590B2 (en) Systems and methods for sharing images in a social network
US9569658B2 (en) Image sharing with facial recognition models
US20180005040A1 (en) Event-based image classification and scoring
US10783276B2 (en) Systems and methods for multiple photo feed stories
US8611678B2 (en) Grouping digital media items based on shared features
US20180114069A1 (en) Systems and methods for determining video feature descriptors based on convolutional neural networks
JP5934653B2 (ja) 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
US10459968B2 (en) Image processing system and image processing method
KR20130102549A (ko) 셔터 클릭을 통한 자동 미디어 공유
KR102108849B1 (ko) 다수의 사진 공급 스토리용 시스템 및 방법
US20140129640A1 (en) Content processing device, content processing method, computer- readable recording medium, and integrated circuit
CN105630791B (zh) 网络相册浏览方法和装置
JP6396897B2 (ja) 出席者によるイベントの検索
JP6947085B2 (ja) 電子機器及びその制御方法
US9973649B2 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
US20140029854A1 (en) Metadata supersets for matching images
KR101479260B1 (ko) 사진 기반 인물 친밀도 검색 방법
JP6082484B2 (ja) 情報処理装置、その処理方法及びプログラム
JP2014182650A (ja) 画像共有装置、画像共有装置の制御方法、およびプログラム
KR101563238B1 (ko) 사진 기반 인물 친밀도 구축 장치 및 방법, 그리고 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP2014042170A (ja) 撮影システム、撮影支援方法、撮影装置及びその制御方法、管理装置及びその制御方法、並びにプログラム
JP6071714B2 (ja) 画像処理装置、およびその制御方法
KR20110013073A (ko) 얼굴인식을 이용한 디지털 촬영기기의 멀티미디어 컨텐츠 자동 태깅 시스템
KR20140075903A (ko) 소셜 네트워크 서비스 아카이브의 분류방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160204

R151 Written notification of patent or utility model registration

Ref document number: 5882805

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees