JP6082484B2 - Information processing apparatus, processing method thereof, and program - Google Patents
Information processing apparatus, processing method thereof, and program Download PDFInfo
- Publication number
- JP6082484B2 JP6082484B2 JP2016018225A JP2016018225A JP6082484B2 JP 6082484 B2 JP6082484 B2 JP 6082484B2 JP 2016018225 A JP2016018225 A JP 2016018225A JP 2016018225 A JP2016018225 A JP 2016018225A JP 6082484 B2 JP6082484 B2 JP 6082484B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- information
- image
- relationship
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、情報処理装置、その処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, a processing method thereof, and a program.
従来、被写体を多くの視点から撮影した画像をもとに、任意のフォーカス距離や被写界深度を求めたり、複数視点の画像を生成したりする手法が知られている。例えば、非特許文献1では、複数のカメラを2次元平面上に格子状に配置することで、視点の異なる複数の画像を取得する(以下、このような多視点画像を画像群と表記する)。そして、視点、フォーカス距離、開口径をパラメータとして与えることで、それら画像群から計算処理によって画像を生成する(以下、パラメータを与えて生成する画像を完成画像と表記する)。なお、パラメータ指定がなければ、デフォルト値による画像生成を行なう。一方で、特許文献1では、後からユーザが画像群を探し易いような画像を生成するパラメータを自動で設定する方法が開示されている。 2. Description of the Related Art Conventionally, there are known techniques for obtaining an arbitrary focus distance and depth of field, and generating images of a plurality of viewpoints based on images obtained by photographing a subject from many viewpoints. For example, in Non-Patent Document 1, a plurality of images with different viewpoints are acquired by arranging a plurality of cameras in a grid on a two-dimensional plane (hereinafter, such a multi-viewpoint image is referred to as an image group). . Then, by giving the viewpoint, the focus distance, and the aperture diameter as parameters, an image is generated from the image group by calculation processing (hereinafter, an image generated by giving parameters is referred to as a completed image). If no parameter is specified, image generation is performed using default values. On the other hand, Patent Document 1 discloses a method of automatically setting parameters for generating an image that allows a user to easily search for an image group later.
しかし、パラメータのデフォルト値や、画像群を探すために設定されたパラメータ値から生成された画像は、誰かにあげたり、仲間や家族と鑑賞したり、記録として整理したりするといった、ユーザにとって良くある利用目的に即したパラメータが与えられた完成画像になるとは限らない。 However, the default values of parameters and images generated from parameter values set to search for images are good for users, such as giving them to someone, viewing with friends and family, and organizing them as records. The completed image is not always given a parameter suitable for a certain purpose of use.
利用目的に即したパラメータが与えられた画像が得られなかった場合、視点、フォーカス距離、深度等のパラメータ調整をユーザが行なう必要があり、手間が掛かる。また、ユーザのスキルによっては、パラメータ指定によってどのような画像を生成し得るか把握できていない場合も考えられ、パラメータ指定操作そのものが困難であることもある。 If an image with parameters suitable for the purpose of use cannot be obtained, it is necessary for the user to adjust parameters such as the viewpoint, focus distance, and depth, which is troublesome. Further, depending on the skill of the user, there may be a case where it is not possible to grasp what kind of image can be generated by parameter designation, and the parameter designation operation itself may be difficult.
そこで、本発明は、上記課題に鑑みてなされたものであり、多視点の画像群からユーザにとって好適な画像を生成する技術を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide a technique for generating an image suitable for a user from a multi-viewpoint image group.
上記課題を解決するため、本発明の一態様による情報処理装置は、以下の構成を備える。すなわち、多視点撮影した画像から、着目する被写体に焦点を合わせた合成画像を生成する情報処理装置であって、多視点撮影した画像を保持する画像保持手段と、前記合成画像の利用者を入力する入力手段と、被写体に関する情報と、前記合成画像の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持手段と、前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識手段と、前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定手段と、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成手段と、を備える。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes the following arrangement. That is, an information processing apparatus that generates a composite image focused on a subject of interest from an image taken from a multi-viewpoint, the image holding means for holding the image taken from a multi-viewpoint, and a user of the composite image Information on the subject, information on the subject, subject information holding means for holding relationship information indicating a relationship between a user of the composite image and the subject, and information on the subject with respect to the multi-viewpointed image. A recognition unit for recognizing a subject based on the image, a determination unit for determining a subject of interest from the recognized subject based on the relationship information, and a composite image focused on the subject of interest was captured from the multi-viewpoint. Generating means for generating from an image.
本発明によれば、多視点の画像群からユーザにとって好適な画像を生成することができる。 According to the present invention, an image suitable for a user can be generated from a multi-viewpoint image group.
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
(実施形態1)
図1は、本発明の一実施の形態に係わる情報処理装置を配して構成した情報処理システムの構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram showing an example of a configuration of an information processing system configured by arranging an information processing apparatus according to an embodiment of the present invention.
情報処理システムは、撮像装置10と、情報処理装置30とを具備して構成され、これら装置間は、例えば、USB(Universal Serial Bus)等の通信手段を介して通信可能に接続されている。
The information processing system includes an
情報処理装置30は、各種画像(例えば、撮像装置10により撮像された画像)を登録し管理する。情報処理装置30には、例えば、コンピュータが内蔵されている。コンピュータには、CPU(Central Processing Unit)等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、マウスやディスプレイ等の入出力手段、ネットワークカード等の通信手段等も具備されていても良い。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
The
撮像装置10は、複数の撮像部を備えた多眼方式が採用されている。ここで、撮像装置10には、複数の撮像部101〜109と、ROM201と、RAM202と、CPU203と、操作部205と、表示制御部207と、表示部206と、撮像部制御部208とを具備して構成される。撮像装置10には、この他、デジタル信号処理部209、エンコーダ部210、外部メモリ制御部211、画像出力部212も設けられる。なお、撮像装置10に設けられるこれら構成は、バス204等を介して通信可能に接続されている。
The
CPU(Central Processing Unit)203は、各種入出力の制御やデータ処理等を行い、RAM(Random Access Memory)202は、演算結果やデータを一時的に記憶する。ROM(Read Only Memory)201は、本実施形態に係わる制御を実行するプログラムやデータを記憶する。撮像装置10における各構成は、例えば、CPU203が、RAM202をワーク領域として、ROM201に記憶されたプログラムを実行することで実現される。
A CPU (Central Processing Unit) 203 performs various input / output controls and data processing, and a RAM (Random Access Memory) 202 temporarily stores calculation results and data. A ROM (Read Only Memory) 201 stores a program and data for executing control according to the present embodiment. Each configuration in the
操作部205は、例えば、ボタンやモードダイヤル等で実現され、ユーザからの各種指示を装置内に入力する。表示部206は、例えば、液晶ディスプレイ等で実現され、各種情報(例えば、撮影画像や文字等)をユーザに向けて表示する。表示制御部207は、各種情報を表示部206に表示制御する。なお、操作部205及び表示部206は、一体的に構成され、タッチスクリーンとして実現されても良い。
The
撮像部制御部208は、撮像系の制御を行なう。例えば、フォーカスの調整、シャッターを開く/閉じる、絞りの調節等を行なう。この制御は、CPU203からの指示に基づいて行なわれる。
The imaging
デジタル信号処理部209は、バス204を介して受信したデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行なう。エンコーダ部210は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する。外部メモリ制御部211は、撮像装置10に挿入された外部メモリとの間の通信を制御する。外部メモリとしては、例えば、情報処理装置(例えば、PC(Personal Computer))の他、メディア(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)等が挙げられる。
The digital
撮像部101〜109は、カラー画像を取得する。複数の撮像部101〜109は、例えば、図2(a)に示すように、正方格子上に均等に配置されている。ユーザが撮影ボタン21を押下すると、撮像部101〜109は、センサ(撮像素子)において、被写体の光情報を受光する。そして、撮像装置10の内部において、当該受光した信号をA/D変換し、それにより、複数のカラー画像(デジタルデータ)を取得する。このような多眼方式の撮像装置10により、同一の被写体を複数の視点位置から撮像したカラー画像群を得ることができる。
The
ここで、撮像部101〜109の構成について更に説明する。なお、撮像部101〜109は、基本的に同じ構成を有するため、代表して撮像部101の構成について説明する。撮像部101は、図2(b)に示すように、複数のレンズ301〜303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310を具備して構成される。
Here, the configuration of the
複数のレンズ301〜303は、例えば、ズームレンズ301、フォーカスレンズ302、ぶれ補正レンズ303を含んで構成される。センサ309は、例えば、CMOS(Complimentary Metal Oxide Semiconductor)やCCD(Charge-Coupled Devices)等の撮像素子で実現され、上述した各構成を経由した光を検知する。A/D変換部310は、当該センサ309により検知された光をデジタル値に変換し、それをデジタルデータとしてバス204に供給する。
The plurality of
画像出力部212は、撮像部101〜109で取得されたカラー画像群或いは、デジタル信号処理部209から出力されたカラー画像群を、同一の被写体を撮影した画像群として識別可能な状態で出力する。
The
以上が、撮像装置10における機能的な構成の一例についての説明である。なお、上述した撮像装置10の構成は、あくまで一例であり、上記構成に限定されず、必要に応じて適宜構成の追加や省略等を行なえば良い。
The above is an explanation of an example of a functional configuration of the
例えば、上述した説明では、撮像部の数が9個である場合を例に挙げて説明したが、撮像部の数は9個に限られない。すなわち、撮像装置が複数の撮像部を備えていれば良く、その数が何個備えられていても良い。また、9個の撮像部が正方格子上に均等に配置される場合を例に挙げて説明したが、これに限られず、撮像部の配置も任意に決めれば良い。例えば、放射状や直線状に配置しても良いし、また、全くランダムに配置しても良い。その他、撮像部101〜109で撮像される画像の一部又はその全てがモノクロ画像であっても良い。その場合には、図2(b)に示すカラーフィルタ308の構成を省略すれば良い。
For example, in the above description, the case where the number of imaging units is nine is described as an example, but the number of imaging units is not limited to nine. That is, the imaging device only needs to include a plurality of imaging units, and any number of imaging units may be provided. Moreover, although the case where nine imaging units are equally arranged on a square lattice has been described as an example, the present invention is not limited to this, and the arrangement of imaging units may be arbitrarily determined. For example, they may be arranged radially or linearly, or may be arranged at random. In addition, some or all of the images captured by the
次に、図3を用いて、図1に示す情報処理装置30の機能的な構成の一例について説明する。
Next, an example of a functional configuration of the
情報処理装置30は、その機能的な構成として、入力部31と、出力部32と、データベース33と、画像処理部34と、画像登録部35とを具備して構成される。
The
入力部31は、例えば、マウスやキーボード等を介したユーザからの指示を装置内に入力し、出力部32は、例えば、液晶ディスプレイ等に対して各種情報を出力する。
The
データベース33は、例えば、RAMや外部記憶装置等で実現され、画像や画像に関する情報を管理する画像管理手段として機能する。より具体的には、画像や、画像に関する属性情報、情報処理装置30を利用しているユーザのユーザ情報等を管理する。
The
画像登録部35は、データベース33に画像を登録する。画像登録部35には、被写体抽出部36が設けられる。被写体抽出部36は、登録対象となる画像に対して顔認証処理を実施し、それにより、被写体を特定しそれを抽出する。顔認証処理は、一般的な顔特徴による技術を用いて行なえば良く、特定対象となる人物の顔特徴を予め学習しておき、当該顔特徴と類似した特徴を持つ画像内の部分領域を、その人物であると特定する。なお、画像の登録に際しては、被写体抽出部36の顔認識により特定された被写体の情報が被写体情報としてデータベース33に登録される。
The
画像処理部34は、データベース33に登録された(多視点の)画像群に対して各種画像処理を行なう。画像処理部34には、画像取得部40と、関係情報生成部41と、関係情報管理部42と、被写体認識部43と、着目対象決定部44と、完成画像生成部45とが具備される。
The
画像取得部40は、データベース33から画像群を取得する。関係情報生成部41は、画像取得部40により取得された画像群から被写体間の関係情報を生成する。この関係情報の生成に際しては、例えば、ユーザが管理している画像群全体から被写体を認識し、被写体毎の出現頻度や、同一画像中に共起する被写体の頻度(共起頻度)等を集計する。被写体毎の出現頻度では、例えば、ユーザが管理している画像群内における被写体の出現し易さが分かるので、これを利用してユーザと被写体との間の関係情報を生成することができる。また、被写体の共起頻度では、一緒に写真に写りこむ傾向が分かるので、これを利用して被写体同士の関係情報を生成することができる。なお、出現頻度をそのまま利用するのではなく、画像群の数に対する出現頻度の割合等を求めても良い。
The
なお、関係情報は、単純に関係があるという関係性を示す情報だけであっても良いが、関係が持つ属性情報を含んでいても良い。例えば、上述したような、被写体の出現頻度や共起頻度といった情報は、関係の強度を示す情報といえ、これを属性情報として関係情報に含めても良い。 Note that the relationship information may be only information indicating a relationship that is simply related, but may include attribute information of the relationship. For example, the information such as the appearance frequency and the co-occurrence frequency of the subject as described above is information indicating the strength of the relationship, and may be included in the relationship information as attribute information.
勿論、属性情報は、これに限られない。例えば、ユーザが、情報処理装置30に対して論理的な画像群を指定できるとする(例えば、一度の旅行で撮影した画像をまとめて管理するように指定できる)。この場合、論理的なまとまりの中で出現頻度等の情報を集計し、関係の属性情報として、そのようなまとまり毎に区別したことを示す情報を含めても良い。 Of course, the attribute information is not limited to this. For example, it is assumed that the user can specify a logical image group for the information processing apparatus 30 (for example, it can be specified to collectively manage images taken in one trip). In this case, information such as the appearance frequency in the logical unit may be aggregated, and information indicating that each unit is distinguished may be included as the related attribute information.
その他、被写体間の関係について、お互いにどういう存在であるかといったロールの情報が分かる場合は、それを関係の属性情報として関係情報に含めても良い。例えば、被写体DとMとが親子関係であれば、その情報を関係の属性情報として含めても良い。これらのロール情報は、どのような情報から取得しても良い。例えば、ユーザが情報処理装置30に対して登録した情報から取得しても良い。
In addition, in the case where role information such as the existence of each other regarding the relationship between subjects is known, it may be included in the relationship information as relationship attribute information. For example, if the subjects D and M are in a parent-child relationship, the information may be included as relationship attribute information. Such role information may be acquired from any information. For example, you may acquire from the information which the user registered with respect to the
このようにして生成された関係情報は、例えば、図4に示すように、各ユーザや被写体をノードとしたネットワーク構造で表現できる。この場合、ノードUはユーザを示しており、ノードA、B、F及びGはユーザが管理する画像において、出現頻度が予め設定された閾値以上であるといった関係を示している。これに対し、ノードCはユーザが管理する画像群における出現頻度が十分ではないため、ユーザとの関係はない。しかし、ノードCは、ノードA及びBとの共起頻度が、予め設定された閾値以上となるため、ノードA及びBと同時に撮影される関係があることを示している。 For example, as shown in FIG. 4, the relationship information generated in this way can be expressed by a network structure in which each user or subject is a node. In this case, the node U indicates the user, and the nodes A, B, F, and G indicate the relationship that the appearance frequency is equal to or higher than a preset threshold in the image managed by the user. On the other hand, since the appearance frequency in the image group managed by the user is not sufficient, the node C has no relationship with the user. However, since the co-occurrence frequency of the node C and the nodes A and B is equal to or higher than a preset threshold value, the node C indicates that there is a relationship of being photographed simultaneously with the nodes A and B.
なお、関係情報のデータ形式は、上記図4で説明したような構造を表現できる形式であれば良く、どのような形式であっても良い。各関係が、属性情報を含む可能性がある場合には、構造化情報を記述可能なXML形式で関係情報を生成すれば良い。また、例えば、RDF(Resource Description Framework)を利用したXML形式の記述仕様(RDF/XML)などで記述すれば良い。RDFは、人や物といったリソースとその関係とを記述する形式としてW3C(World Wide Web Consortium)で標準化されている。 The data format of the relationship information may be any format that can express the structure as described in FIG. 4 and may be any format. If there is a possibility that each relationship includes attribute information, the relationship information may be generated in an XML format in which structured information can be described. Further, for example, description may be made in XML description specifications (RDF / XML) using RDF (Resource Description Framework). RDF is standardized by the World Wide Web Consortium (W3C) as a format for describing resources such as people and things and their relationships.
関係情報管理部42は、関係情報生成部41により生成された関係情報を管理する。この関係情報管理部42及びデータベース33等を含む構成によって被写体情報管理が行なわれる。関係情報管理部42においては、新たな関係情報の管理に際して、既存の関係情報とマージして管理する。例えば、人物Aについて、新しい人物Xとの関係を検出すれば、既存のAに関する関係の記述部分に、新たな関係とその属性情報、及び対象がXである旨を追記する。
The relationship
また、関係情報管理部42は、被写体或いは関係やその属性情報などをキーとして含むクエリに対して、条件に合致する関係情報を検索し、その結果を応答する。クエリとしては、例えば、人物Aについての関係とその関係先となっている人物の検索を指示するようなクエリが挙げられる。この検索には、例えば、W3Cで標準化されたRDF/XML形式のデータを探索するクエリの記述言語であるSPARQL(SPARQL Protocol and RDF Query Language)のようなクエリ言語を用いれば良い。なお、管理している関係情報や、応答する関係情報のデータ形式についても、関係情報生成部41と同様に、例えば、RDF/XML形式のような構造化情報を記述できるものであれば何でも良い。
In addition, the relation
被写体認識部43は、画像取得部40により取得された画像群に対して、焦点調整処理を行ないながら、顔認識処理を実施する。それにより、焦点のあった被写体の画像を取得する。より具体的には、各画像に対して焦点調整処理を行ない、各フォーカス距離にある対象(被写体)に焦点が合った画像を生成する。なお、焦点調整処理は、例えば、予め設定された任意の間隔でフォーカス距離を変更(増加)させるパラメータを設定していくことにより行なえば良い。
The
ここで、図5(a)〜図5(c)を用いて、この被写体認識部43の処理により得られる画像の概要について説明する。
Here, an outline of an image obtained by the processing of the
A〜D51は、被写体を示している。ここでは、図中の下方向に撮像装置10がある場合を示しており、撮像装置10からの相対的な位置を示している。また、符号52は、ある間隔で設定するフォーカス距離を示しており、これらのフォーカス距離をパラメータとした完成画像(パラメータを与えて生成する画像)をそれぞれ生成する。
A to D51 indicate subjects. Here, the case where the
符号53は、フォーカス距離を示している。図5(a)のフォーカス距離では、少なくとも被写体Aに焦点が合った完成画像が得られる。同様に、図5(b)のフォーカス距離では、被写体B及びDに焦点があっており、図5(c)のフォーカス距離では、被写体Cに焦点が合っている。
被写体認識部43においては、このようにして得られた各画像に対して顔認識処理を実施し、図5(d)に示すように、予め設定された閾値よりも高い尤度で特定できた人物のリストを生成する。
In the
着目対象決定部44は、被写体認識部43により特定された被写体の中から、着目する被写体(着目被写体)を決定する。例えば、画像群を登録したユーザにとって好適な完成画像を得る場合には、着目対象決定部44は、当該ユーザを含む関係情報を関係情報管理部42から取得する。そして、被写体認識部43により特定された各人物の中から、当該関係情報に含まれている人物を選択し、当該人物を着目対象とする。
The target
このとき、着目対象決定部44により特定される人物(被写体)と、関係情報管理部42により管理されている人物(被写体)とが対応付けられる必要がある。そこで、着目対象決定部44においては、例えば、被写体抽出部36により特定される被写体と、被写体認識部43により特定される被写体との対応関係を保持する。なお、被写体間の対応付けができるのであれば、どのような方法を用いても良い。例えば、着目対象決定部44と被写体抽出部36とにおける顔認識処理を共有することで、両者の特定結果を共通化しても良い。
At this time, it is necessary to associate the person (subject) specified by the target
完成画像生成部45は、着目対象決定部44により決定された着目対象に関して焦点調整を行なった画像を生成する。本実施形態においては、着目対象となる人物を被写体認識部43により特定したときのフォーカス距離情報及び顔位置を保持しておくようにする。そして、当該フォーカス距離を中心として、当該顔位置で焦点が合う距離を決定する。
The completed
具体的には、当該フォーカス距離を中心とした画像を生成し、当該画像からフォーカスを得るコントラスト方式のような汎用的なオートフォーカス方式を利用し焦点の合致を判定する。このとき最も焦点が合致した画像を完成画像とする。 Specifically, an image centered on the focus distance is generated, and the focus match is determined using a general-purpose autofocus method such as a contrast method for obtaining focus from the image. At this time, the image with the best focus is set as a completed image.
なお、着目対象が複数の場合は、見つかった着目対象分の完成画像を生成する。勿論、このような方法に限られず、例えば、関係情報管理部42で管理されている関係の属性情報として、頻度情報が得られるのであれば、頻度の多い順に被写体をソートし、その上位の被写体のうち、予め決められた数の完成画像を生成するようにしても良い。
If there are a plurality of target objects, a completed image for the target object found is generated. Of course, the present invention is not limited to such a method. For example, if frequency information is obtained as the attribute information of the relationship managed by the relationship
以上が、情報処理装置30の構成の一例についての説明である。なお、図3に示す情報処理装置30の構成は、あくまで一例であり、この構成は適宜変更しても良い。例えば、画像処理部34に実現される構成の一部又は全てが、外部装置に設けられていても良い(例えば、クラウド形式)。その場合、情報処理装置30においては、当該外部装置から処理結果を受けて各種処理を行なう。
The above is an example of the configuration of the
次に、図6及び図7を用いて、図1に示す情報処理装置30の処理の流れの一例について説明する。まず、図6を用いて、関係情報を取得する際の処理の流れについて説明する。
Next, an example of a processing flow of the
情報処理装置30は、画像取得部40において、データベース33から画像群を取得する(S101)。本実施形態においては、ユーザが情報処理装置30に対して論理的なまとまりを予め定義しており、当該まとまりに画像が所属するように管理されているものとする。そのため、S101の処理においては、論理的なまとまり毎に画像群が取得される。
The
続いて、情報処理装置30は、画像処理部34において、データベース33から画像群の被写体情報を取得する(S102)。上述した通り、画像の登録に際して、被写体抽出部36の顔認識処理により特定された被写体の被写体情報がデータベース33に登録されている。そのため、S102の処理では、データベース33から当該被写体情報を取得する。
Subsequently, in the
情報処理装置30は、画像処理部34において、S101の処理で取得した画像群を管理しているユーザの情報(ユーザ情報)を取得する(S103)。なお、ここでいうユーザとは、例えば、情報処理装置30を利用しているユーザを指し、このS103の処理では、例えば、ログイン情報等によってユーザ情報を取得すれば良い。勿論、対象となるユーザ情報を個別に入力できる構成であっても良い。
In the
ユーザ情報の取得が済むと、情報処理装置30は、関係情報生成部41において、S102の処理で取得した被写体情報を集計し、S103の処理で取得したユーザとの関係情報を生成する(S104)。そして、S103の処理で取得した被写体が、同一画像中で共起している頻度から、各被写体間の関係情報を生成する(S105)。その後、情報処理装置30は、関係情報管理部42において、当該生成された関係情報を登録して管理する(S106)。
When the user information is acquired, the
次に、図7を用いて、画像群から完成画像を(自動で)生成する際の処理の流れについて説明する。この図7に示す処理は、例えば、画像登録時に実施され、図6で説明した処理が終わった後、続けて実行される。なお、勿論、ユーザ指示又は任意のタイミングで(自動的に)実施されても良い。 Next, the flow of processing when a completed image is generated (automatically) from an image group will be described with reference to FIG. The process shown in FIG. 7 is performed at the time of image registration, for example, and is subsequently executed after the process described with reference to FIG. Of course, it may be carried out by a user instruction or at an arbitrary timing (automatically).
情報処理装置30は、画像取得部40において、画像群を取得する(S201)。そして、被写体認識部43において、S201の処理で取得した画像群を処理し、焦点調整を行いながら当該画像群から被写体を(網羅的に)認識する(S202)。
The
続いて、情報処理装置30は、画像処理部34において、画像群を処理しようとしているユーザの情報(ユーザ情報)を取得する(S203)。ここでいうユーザとは、例えば、情報処理装置30を利用しているユーザを指し、このS203の処理では、例えば、ログイン情報等によってユーザ情報を取得すれば良い。
Subsequently, in the
ユーザ情報の取得が済むと、情報処理装置30は、着目対象決定部44において、S202の処理で認識した被写体の中から、S203の処理で取得したユーザと関係のある被写体を特定し、それを着目対象に決定する(S204)。
After the acquisition of the user information, the
最後に、情報処理装置30は、完成画像生成部45において、S204の処理で決定した着目対象に関して焦点調整を行なった完成画像を取得(生成)する(S205)。
Finally, the
以上説明したように本実施形態によれば、画像群の登録に際して、着目対象に関して焦点調整が行なわれた完成画像(着目対象に関して焦点調整を行なった画像)が生成される。すなわち、複数の画像(フォーカス距離は様々)に基づいてユーザに関係の深い被写体にフォーカスが合った画像が生成される。そのため、ユーザにとって好適な画像が自動で生成されることになる。 As described above, according to the present embodiment, when an image group is registered, a completed image in which focus adjustment has been performed on the target object (an image on which focus adjustment has been performed on the target object) is generated. That is, based on a plurality of images (various focus distances), an image in which a subject closely related to the user is focused is generated. Therefore, an image suitable for the user is automatically generated.
これにより、パラメータ指定などをして完成画像を生成する際のユーザの手間を抑制できる。例えば、複数の画像群からの知人に関係する画像を送るような場合に、ユーザは、各画像について完成画像を生成するといった煩雑な操作を行なわずに済むので、ユーザの利便性が向上する。 Thereby, the user's effort at the time of generating a completed image by specifying parameters or the like can be suppressed. For example, when an image related to an acquaintance from a plurality of image groups is sent, the user does not have to perform a complicated operation of generating a completed image for each image, so that the convenience for the user is improved.
(実施形態2)
次に、実施形態2について説明する。上述した実施形態1では、着目対象決定部44において、被写体間の関係の有無等に基づいて着目対象を見つける場合を例に挙げて説明したが、これに限られない。その一例として、実施形態2においては、誰が何のために画像を利用するのかといったコンテキストに応じて着目対象の被写体を決定する場合について説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the first embodiment described above, the case in which the target
実施形態2に係わる情報処理装置30には、図8に示すように、画像処理部34内にコンテキストを取得するコンテキスト取得部46が新たに設けられる。
As illustrated in FIG. 8, the
コンテキスト取得部46は、例えば、ユーザへの出力機能の操作の過程で得られたコンテキストを取得する。そして、実施形態2に係わる着目対象決定部44においては、当該コンテキストに従って上述した関係情報を評価した結果(重み付けした結果)に基づいて着目対象を決定する。なお、コンテキストに応じた重み付けは、例えば、予め設定されているものとする。コンテキストとしては、例えば、祖父母へのアルバムのプレゼント、結婚する娘の成長記録のスライドショー作成、旅行の写真を同行者達で閲覧、その他一般的な閲覧を補助するための情報が挙げられる。すなわち、コンテキストは、所定の画像群のまとまり毎に設定されている。
The
ここで、重み付けは、コンテキスト毎に、ある被写体や関係の属性に基づいて予め設定されている。例えば、祖父母へのアルバムのプレゼントであれば、孫が写っている画像を中心に選ばれることが望まれる。そのため、関係情報としてロール情報が設定されていれば、画像群からは、祖父母から見て孫に当たる被写体が着目対象となるように関係に対して重み付けを行なっておく。 Here, the weighting is set in advance for each context based on a certain subject or a related attribute. For example, when presenting an album to grandparents, it is desirable to select an image centered on the grandchild. Therefore, if roll information is set as the relationship information, the relationship is weighted from the image group so that the subject corresponding to the grandchild as seen from the grandparents becomes the target of attention.
また、結婚する娘の成長記録のスライドショー作成であれば、ユーザから見て娘に当たる被写体を着目対象として含むように重み付けを行なっておく。このとき、ある時期における共起頻度の分布のようなものを関係の属性として管理するようにしておけば、娘とその時期に良く共起している被写体も同時に着目する被写体となるような重み付けを行なうようにしても良い。 In addition, when creating a slide show of a growth record of a married daughter, weighting is performed so as to include a subject corresponding to the daughter as viewed from the user. At this time, if a relationship such as the distribution of co-occurrence frequency at a certain time is managed as a relationship attribute, weighting is performed so that the daughter and the subject who often co-occurs at that time also become the subject of interest at the same time. May be performed.
また、旅行の写真を同行者の一部で集まって閲覧するのであれば、ユーザの知人にあたる関係の被写体のうち、その場にいる人物を着目対象として含むように重み付けを行なう。或いは、一般的な閲覧であれば、コンテキストによらず重要とみなせる関係を重視する。重要とみなせる関係とは、例えば、ユーザにとって近い血縁関係であるとか、完成画像の生成時点から見て近い日時での共起頻度の高い関係であるとかを指す。 In addition, when traveling photographs are gathered and viewed by some of the accompanying persons, weighting is performed so as to include a person who is present on the spot as a target of interest among subjects related to the user's acquaintance. Or, for general browsing, importance is placed on relationships that can be regarded as important regardless of context. The relationship that can be regarded as important indicates, for example, a close blood relationship for the user or a high co-occurrence relationship at a close date and time as viewed from the time when the completed image is generated.
また、画像群が既知の年中行事(例えば、母の日やこどもの日、家族や知人の誕生日)の日程と合致するのであれば、その行事における主役となるような人物との関係を重み付けするようなルールであって良い。例えば、母の日に撮影された画像であれば、母や母と良く共起する被写体が着目対象となるように関係に重みを付ける。同様に、閲覧日が既知の年中行事と一致する際は、当該行事の中心となる被写体について、着目被写体となるように関係を重み付けするようにしても良い。 Also, if the image group matches the schedule of a known annual event (for example, Mother's Day, Children's Day, family or acquaintance's birthday), the relationship with the person who will play a leading role in the event The rule may be weighted. For example, in the case of an image taken on Mother's Day, the relationship is weighted so that the mother or a subject that often co-occurs with the mother becomes the target of attention. Similarly, when the viewing date coincides with a known annual event, the subject that is the center of the event may be weighted so that it becomes the subject of interest.
なお、このような重み付けは、排他的に利用する必要はなく、特に、一般的な閲覧のためのルールとして述べた内容については、特定のコンテキストに依存したものではないため、常に考慮するようにして構わない。 Note that such weighting does not need to be used exclusively. In particular, the content described as a general browsing rule is not dependent on a specific context, so always consider it. It doesn't matter.
以上説明したように実施形態2によれば、コンテキスト依存の処理(アルバム生成やスライドショー生成等)において、より好適な画像が得られる。加えて、好適な完成画像を自動で得られるようになることから、ユーザが介在せずに、アプリケーション等での自動生成処理を実現できる。 As described above, according to the second embodiment, a more suitable image can be obtained in context-dependent processing (album generation, slide show generation, etc.). In addition, since a suitable completed image can be automatically obtained, automatic generation processing by an application or the like can be realized without any user intervention.
(実施形態3)
次に、実施形態3について説明する。上述した実施形態1では、画像取得部40により取得された画像群から関係情報を生成する場合について説明したが、これに限られない。例えば、ソーシャルネットワーキングサービス(以下、SNS)のような関係情報管理サービスに登録されているユーザや被写体の人間関係等の情報を関係情報としても良い。すなわち、ユーザや被写体間の関係情報の生成や管理に関係情報管理サービスを利用しても構わない。
(Embodiment 3)
Next,
この場合、情報処理装置30の構成としては、例えば、図9や図10に示す構成となる。すなわち、画像処理部34内に連携部47が新たに設けられる。連携部47は、情報処理装置30が外部サービスに接続されている場合、当該外部サービスにネットワークインタフェース(不図示)を介してアクセスして連携する。これにより、関係情報生成部41及び関係情報管理部42における一部の機能(図9)又は全ての機能(図10)を、当該関係情報管理サービスを利用して実現することができる。
In this case, the configuration of the
ここで、関係情報管理サービス上の関係情報を利用する必要があるため、連携部47は、少なくとも当該関係情報管理サービスにユーザとしてログインする機能と、ユーザの関係情報に関する情報を取得する機能とを有する。このとき、関係情報管理サービス上の関係情報と、情報処理装置30内で扱う関係情報との対応付けが必要になる。この対応付けは、両方の管理対象の識別子を対応付ける表を作成し、それを連携部47で管理するようにすれば良い。
Here, since it is necessary to use the relationship information on the relationship information management service, the
また、この表に相当する情報は、ユーザが予め入力して設定しておけば良い。例えば、情報処理装置30に認識対象として顔画像を登録する際に、登録対象の識別子として、関係情報管理サービス上でのユーザ名などの識別子を設定するようにしても良い。両者の対応付けの入力ができない、或いは、入力がなされていない場合であっても、両者で管理しているユーザ名やユーザの属性を使って対応付けを行なっても構わない。この場合、例えば、同一属性に同一の情報が入力されているか否かで対応付けを行なうか否かを判断すれば良い。
Further, information corresponding to this table may be input and set in advance by the user. For example, when registering a face image as a recognition target in the
なお、関係情報管理サービスにおいては、画像から関係情報を生成できない場合も考えられる。このような場合には、関係情報生成部41による処理結果を、連携部47を経由して当該関係情報管理サービスにおける関係情報に追加できるようにしても良い。この場合、連携部47は、関係情報管理サービス上の関係情報を編集する機能を有する。そして、関係情報生成部41により生成されたあるユーザの関係情報を、当該ユーザが対応付けられている関係情報管理サービス上のユーザの関係情報として追加・更新する。
In the related information management service, there may be a case where related information cannot be generated from an image. In such a case, the processing result by the relationship
以上説明したように実施形態3によれば、SNSなどの外部サービスで関係情報の作成及び管理が行なわれている場合にはこれらと連携する。これにより、関係情報の管理が分散せず一元化して行なえることになる。また、このような関係情報を別々で管理する場合に比べて、登録やメンテナンスのコストを下げることができるとともに、相互の登録内容のズレを軽減できる。 As described above, according to the third embodiment, when the creation and management of related information is performed by an external service such as SNS, these are linked. As a result, the management of the related information can be performed in a unified manner without being distributed. In addition, the cost of registration and maintenance can be reduced and the misregistration of mutual registration contents can be reduced as compared with the case where such relationship information is managed separately.
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。以下、いくつか変形例について説明する。 The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. . Hereinafter, some modifications will be described.
(変形例1)
上述した説明では、被写体抽出部36や被写体認識部43において、顔認識処理を実施し、顔画像から人物を特定する場合について説明したが、これに限られない。ペットやオブジェクトを被写体として認識処理を行なっても良い。例えば、実施形態2で説明した例でいえば、旅行の記録においては、旅先のランドマークが認識できれば、当該ランドマークと共起している人物の関係を重み付けすることで、ランドマークと人物とが着目対象となるようにしても良い。
(Modification 1)
In the above description, a case has been described in which the
(変形例2)
上述した説明では、複数の着目対象があった場合に、当該複数の着目対象に焦点が合うように完成画像を生成する場合について説明したが、これに限られない。例えば、着目対象それぞれのフォーカス距離を集計し、当該距離の中間点をフォーカス距離のパラメータとして設定し、且つフォーカス位置からの深度幅が深くなるように開口径のパラメータを絞った値を設定しても良い。このようにすることで、着目対象全体に焦点が合っているような完成画像を生成できる。
(Modification 2)
In the above description, when there are a plurality of objects of interest, a case where a completed image is generated so that the plurality of objects of interest are in focus has been described. However, the present invention is not limited to this. For example, the focus distance of each target object is aggregated, the midpoint of the distance is set as the focus distance parameter, and the aperture diameter parameter is narrowed so that the depth width from the focus position is deep. Also good. By doing in this way, it is possible to generate a completed image in which the entire target object is in focus.
この処理について、図11(a)を用いて更に具体的に説明する。ここで、A及びBは着目対象として選択された被写体を示しており、符号10は、多視点画像を撮影するための撮像装置を示している。この場合、フォーカス位置を符号61のように、A及びBの中間点に設定し、開口径のパラメータを調整して、深度幅62がA及びBをカバーするようにして完成画像を生成する。
This process will be described more specifically with reference to FIG. Here, A and B indicate a subject selected as a target of interest, and
なお、関係情報管理部42に管理された着目対象間の関係情報を取得し、着目対象間に関係がある場合に、図11(a)に示す処理を行なうようにしても構わない。すなわち、複数の着目対象の中から、関係情報に基づいて着目対象の組を生成し、当該組毎に完成画像を生成しても良い。
Note that the relationship information between the target objects managed by the relationship
また、このとき、関係の属性情報として、各着目対象間の共起頻度等のような関係の強さを評価できる情報が得られるのであれば、共起するような関係の被写体同士を優先して、それらの被写体全体に焦点が合った完成画像を生成するようにしても良い。 At this time, if information that can evaluate the strength of the relationship, such as the co-occurrence frequency between each target object, can be obtained as the attribute information of the relationship, the subjects having the co-occurring relationship are prioritized. Thus, a complete image may be generated in which the entire subject is in focus.
また、実施形態2で説明したような関係の重み付けの情報が得られる場合は、コンテキストに沿った重要な関係の被写体全体に焦点が合った完成画像を生成するようにしても構わない。 In addition, when the relationship weighting information as described in the second exemplary embodiment is obtained, a completed image may be generated in which the entire subject having an important relationship along the context is focused.
以上説明したように変形例2によれば、複数の被写体全体に焦点が合っているような完成画像を生成する。これにより、このような画像を利用する場合にも、ユーザが画像を生成する手間を抑制できる。 As described above, according to the second modification, a complete image is generated in which a plurality of subjects are all in focus. Thereby, also when utilizing such an image, the effort which a user produces | generates an image can be suppressed.
(変形例3)
また更に、変形例2の処理に限られず、例えば、複数の着目対象それぞれの座標位置を含む曲面を求め、当該曲面に沿って焦点調整を行なうような技術(従来の技術)を利用しても構わない。
(Modification 3)
Furthermore, the present invention is not limited to the processing of the second modification. For example, a technique (conventional technique) that obtains a curved surface including the coordinate positions of each of a plurality of target objects and performs focus adjustment along the curved surface may be used. I do not care.
この処理について、図11(b)を用いて説明すると、A〜Dまで4つの着目対象がある場合、曲面状仮想的な焦点面70を設定し、この焦点面に合わせて焦点調整を行なった完成画像を生成する。なお、変形例2と同様に、着目対象間の関係情報を見て、着目対象の組み合わせを決めても勿論構わない。
This process will be described with reference to FIG. 11B. When there are four objects of interest from A to D, a curved virtual
以上説明したように変形例3によれば、撮像装置から各着目対象の距離の分布にばらつきがあったとしても、着目対象全体に注目した深度の浅い完成画像を生成できる。 As described above, according to the third modification, even if there is variation in the distance distribution of each target object from the imaging device, it is possible to generate a completed image with a shallow depth focused on the entire target object.
(変形例4)
例えば、被写体抽出部36における認識対象は、画像中のテキストオブジェクトの文字列情報であっても良い。この場合、文字列を認識し、画像中の被写体に関連するテキスト情報であることを判定し、文字列と当該被写体とが関係する場合には、両者に焦点が合うように焦点調整を行なった完成画像を生成する。
(Modification 4)
For example, the recognition target in the
例えば、画像の中に看板が写っており、「入学式」の文字が含まれ、且つ自分の娘が写っていたとする。この状況において、娘の生年月日の情報、画像の撮影日時の情報、「入学式」に関する基本的な知識情報をそれぞれ参照することで、娘の入学時期であった場合、当該娘の顔とその看板両方に焦点を合わせた画像を作るなどしても良い。 For example, it is assumed that a signboard is shown in the image, the letters “entrance ceremony” are included, and the daughter is shown. In this situation, by referring to the daughter's date of birth information, image shooting date / time information, and basic knowledge information about the `` entrance ceremony '' You may make the image which focused on both the signs.
(変形例5)
上述した実施形態においては、撮像装置10により撮像された画像群が情報処理装置30に入力される場合について説明したが、これに限られない。すなわち、情報処理装置30には、焦点調整処理が可能な画像群が入力されれば良い。例えば、レンズが複数でセンサが一つの構成であっても同等の画像群が得られることが知られており、このようにして得られた画像群が情報処理装置30に入力されても良い。
(Modification 5)
In the above-described embodiment, the case where an image group captured by the
(変形例6)
上述した実施形態においては、完成画像生成部45における焦点調整処理として、着目対象に焦点が合うようにする場合を例に挙げて説明したが、それ以外の部分、例えば、背景部分の焦点調整処理については特に言及していない。
(Modification 6)
In the embodiment described above, the focus adjustment process in the completed
この点について説明すると、着目対象以外の範囲については、できる限りぼかした画像にする場合や、それ以外の部分にもできる限りフォーカスが当たっている画像にする場合等が考えられる。例えば、コンテキストによっていずれか決めるようにしても良い。すなわち、コンテキスト取得部46(図8参照)を含む構成で得られたコンテキストによって、着目対象以外の領域をどのように焦点調整するかを関係評価ルールと合わせて管理しておくようにすれば良い。そして、その内容に応じて、完成画像生成部45が、完成画像を生成する。
Explaining this point, the range other than the target of interest may be a blurred image as much as possible, or an image in which other portions are focused as much as possible. For example, either may be determined depending on the context. That is, how to adjust the focus of the area other than the target of interest according to the context obtained by the configuration including the context acquisition unit 46 (see FIG. 8) may be managed together with the relationship evaluation rule. . And according to the content, the completion
或いは、より汎用的な例として、着目対象が人で、ある程度の大きさの顔が画像内で占めており、且つ他に認識できた被写体が無いようなケースでは、ポートレートのような画像をユーザがイメージして撮影した可能性が高い。このような場合は、顔部分を強調するために、背景をぼかした画像を生成する。そういった典型的なルールと、着目対象以外の部分の焦点調整の仕方を対応付けておくことで完成画像を生成するようにしても良い。この場合、当該ルールや着目対象以外の部分の焦点調整の仕方の対応付けの情報は、完成画像生成部45に予め設定しておく等すれば良い。
Alternatively, as a more general example, if the subject of interest is a person, a face of a certain size is occupied in the image, and there is no other recognizable subject, an image such as a portrait is displayed. There is a high possibility that the user has taken an image. In such a case, an image with a blurred background is generated to emphasize the face portion. A completed image may be generated by associating such a typical rule with a focus adjustment method for a portion other than the target object. In this case, it is only necessary to set in advance in the completed
(変形例7)
上述した実施形態においては、処理対象が静止画像である場合を例に挙げて説明したが、これに限られない。例えば、各フレームが多視点画像の情報を有するような動画像であっても良い。その場合は、動画像における1フレーム分を対象として上述した処理を行なえば良い。
(Modification 7)
In the above-described embodiment, the case where the processing target is a still image has been described as an example, but the present invention is not limited to this. For example, a moving image in which each frame has information on a multi-viewpoint image may be used. In that case, the above-described processing may be performed for one frame in the moving image.
但し、動画像として閲覧するには、フレーム毎に着目対象が細かく変動することは好ましくない。動画像は、写真のように瞬間的な場面を捉えたものであるよりも、あるシーンを撮影するケースが多い。よって、シーン全体としての着目対象を決定し、シーン全体に統一感のある着目対象に関する焦点調整を実施することが望ましい。 However, in order to browse as a moving image, it is not preferable that the subject of interest varies minutely for each frame. In many cases, a moving image captures a scene rather than capturing a momentary scene such as a photograph. Therefore, it is desirable to determine a target of interest for the entire scene and perform focus adjustment on the target of interest having a sense of unity throughout the scene.
この場合、上述した画像処理部34内の各構成は、当該シーンを表す時間内のフレーム画像全体に対して処理を行なう。すなわち、シーン内のフレーム全体の被写体を集計し、そこから関係を生成したり、着目対象を決定したりする。
In this case, each component in the
また、動画像としての完成画像は、決定した着目被写体を追尾するような一般的な追尾処理によって、各フレームでの焦点調整を実施する領域を決め、当該領域に焦点が合うように各フレームの完成画像を生成する。 In addition, the completed image as a moving image is determined by a general tracking process that tracks the determined subject of interest, and an area for performing focus adjustment in each frame is determined. A completed image is generated.
なお、着目被写体は、一時的に障害物に隠れたり、フレーム外に出てしまったりして、追尾できないフレームが生じることがある。それによってフォーカス距離が大きく変動することがないように、前後の追尾できているフレームでの被写体の領域及びフォーカス距離から、当該追尾できていないフレームでの被写体の領域及びフォーカス距離を補間するようにしても良い。 Note that the subject of interest may be temporarily hidden behind an obstacle or out of the frame, resulting in a frame that cannot be tracked. So that the focus distance does not fluctuate greatly, the subject area and focus distance in the untracked frame are interpolated from the subject area and focus distance in the frame that can be tracked before and after. May be.
(その他の実施形態)
なお、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
(Other embodiments)
It should be noted that the present invention can also take the form of, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
30 情報処理装置、31 入力部、32 出力部、33 データベース、34 画像処理部、35 画像登録部、36 被写体抽出部 30 Information Processing Device, 31 Input Unit, 32 Output Unit, 33 Database, 34 Image Processing Unit, 35 Image Registration Unit, 36 Subject Extraction Unit
Claims (13)
多視点撮影した画像を保持する画像保持手段と、
前記合成画像の利用者を入力する入力手段と、
被写体に関する情報と、前記合成画像の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持手段と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識手段と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定手段と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成手段と、
を備えることを特徴とする情報処理装置。 An information processing apparatus that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
Image holding means for holding images taken from multiple viewpoints;
Input means for inputting a user of the composite image;
Subject information holding means for holding information about the subject and relationship information indicating a relationship between the user of the composite image and the subject;
Recognizing means for recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
Determining means for determining a subject of interest from the recognized subjects based on the relationship information;
Generating means for generating a composite image focused on the subject of interest from the multi-viewpoint image;
An information processing apparatus comprising:
被写体に関する情報と、前記多視点撮影した画像の撮影者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持手段と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識手段と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定手段と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成手段と、
を備えることを特徴とする情報処理装置。 Image holding means for holding images taken from multiple viewpoints;
Subject information holding means for holding information about the subject and relationship information indicating a relationship between a photographer of the image taken from the multi-viewpoint and the subject;
Recognizing means for recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
Determining means for determining a subject of interest from the recognized subjects based on the relationship information;
Generating means for generating a composite image focused on the subject of interest from the multi-viewpoint image;
An information processing apparatus comprising:
多視点撮影した画像を保持する画像保持手段と、
被写体に関する情報と、前記情報処理装置の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持手段と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識手段と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定手段と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成手段と、
を備えることを特徴とする情報処理装置。 An information processing apparatus that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
Image holding means for holding images taken from multiple viewpoints;
Subject information holding means for holding information about a subject and relationship information indicating a relationship between a user of the information processing apparatus and the subject;
Recognizing means for recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
Determining means for determining a subject of interest from the recognized subjects based on the relationship information;
Generating means for generating a composite image focused on the subject of interest from the multi-viewpoint image;
An information processing apparatus comprising:
前記生成手段は、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から、前記出現頻度が多い順に生成することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 The relationship information includes the appearance frequency of the subject in the multi-viewpoint image,
Said generating means, wherein a composite image focused on the subject of the noted from the multi-viewpoint captured image, in any one of claims 1 to 4, wherein the generating sequentially the occurrence frequency is high Information processing device.
前記生成手段は、前記着目する被写体それぞれのフォーカス距離に基づいたフォーカス距離と深度幅が複数の着目する被写体をカバーする開口径のパラメータとを設定し、複数の着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 When the determining means determines a plurality of subjects as the subject of interest,
The generating means sets a focus distance based on a focus distance of each of the subjects of interest and an aperture diameter parameter that covers a plurality of subjects of interest with a depth width, and combines the plurality of subjects of interest in focus. the information processing apparatus according to any one of claims 1 to 5, characterized in that to generate the image from the multi-view pictures.
画像保持手段が、多視点撮影した画像を保持する工程と、
入力手段が、前記合成画像の利用者を入力する工程と、
被写体情報保持手段が、被写体に関する情報と、前記合成画像の利用者と前記被写体との関係を示す関係情報と、を保持する工程と、
認識手段が、前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する工程と、
決定手段が、前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する工程と、
生成手段が、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する工程と、
を含むことを特徴とする処理方法。 A processing method of an information processing device that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
An image holding means for holding an image taken from multiple viewpoints;
An input means for inputting a user of the composite image;
Subject information holding means, the step of holding the information about the object, and a relation information showing the relation between the object and the user of the composite image,
A step of recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
A step of determining a subject of interest from the recognized subjects based on the relationship information;
A generating unit generating a composite image focused on the subject of interest from the multi-viewpoint captured image;
The processing method characterized by including.
画像保持手段が、多視点撮影した画像を保持する工程と、
被写体情報保持手段が、被写体に関する情報と、前記多視点撮影した画像の撮影者と前記被写体との関係を示す関係情報と、を保持する工程と、
認識手段が、前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する工程と、
決定手段が、前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する工程と、
生成手段が、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する工程と、
を備えることを特徴とする処理方法。 A processing method for an information processing apparatus,
An image holding means for holding an image taken from multiple viewpoints;
Subject information holding means for holding information about the subject and relationship information indicating a relationship between a photographer of the image taken from the multi-viewpoint and the subject;
A step of recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
A step of determining a subject of interest from the recognized subjects based on the relationship information;
A generating unit generating a composite image focused on the subject of interest from the multi-viewpoint captured image;
A processing method comprising:
画像保持手段が、多視点撮影した画像を保持する工程と、
被写体情報保持手段が、被写体に関する情報と、前記情報処理装置の利用者と前記被写体との関係を示す関係情報と、を保持する工程と、
認識手段が、前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する工程と、
決定手段が、前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する工程と、
生成手段が、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する工程と、
を備えることを特徴とする処理方法。 A processing method of an information processing device that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
An image holding means for holding an image taken from multiple viewpoints;
Subject information holding means for holding information about a subject and relationship information indicating a relationship between a user of the information processing apparatus and the subject;
A step of recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
A step of determining a subject of interest from the recognized subjects based on the relationship information;
A generating unit generating a composite image focused on the subject of interest from the multi-viewpoint captured image;
A processing method comprising:
多視点撮影した画像を保持する画像保持工程と、
前記合成画像の利用者を入力する入力工程と、
被写体に関する情報と、前記合成画像の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持工程と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識工程と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定工程と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成工程と、
を実行させるためのプログラム。 In a computer provided in an information processing device that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
An image holding process for holding images taken from multiple viewpoints;
And as the input engineering to enter a user of the composite image,
A subject information holding step for holding information about a subject and relationship information indicating a relationship between a user of the composite image and the subject;
A recognition step for recognizing a subject based on information about the subject with respect to the multi-viewpoint image;
A determining step of determining a subject of interest from the recognized subjects based on the relationship information;
Generating a composite image focused on the subject of interest from the multi-viewpoint image;
A program for running
多視点撮影した画像を保持する画像保持工程と、
被写体に関する情報と、前記多視点撮影した画像の撮影者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持工程と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識工程と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定工程と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成工程と、
を実行させるためのプログラム。 In the computer equipped with the information processing device,
An image holding process for holding images taken from multiple viewpoints;
A subject information holding step for holding information about a subject and relationship information indicating a relationship between a photographer of the image taken from the multi-viewpoint and the subject;
A recognition step for recognizing a subject based on information about the subject with respect to the multi-viewpoint image;
A determining step of determining a subject of interest from the recognized subjects based on the relationship information;
Generating a composite image focused on the subject of interest from the multi-viewpoint image;
A program for running
多視点撮影した画像を保持する画像保持工程と、
被写体に関する情報と、前記情報処理装置の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持工程と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識工程と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定工程と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成工程と、
を実行させるためのプログラム。 In a computer provided in an information processing device that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
An image holding process for holding images taken from multiple viewpoints;
A subject information holding step for holding information about a subject and relationship information indicating a relationship between a user of the information processing apparatus and the subject;
A recognition step for recognizing a subject based on information about the subject with respect to the multi-viewpoint image;
A determining step of determining a subject of interest from the recognized subjects based on the relationship information;
Generating a composite image focused on the subject of interest from the multi-viewpoint image;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018225A JP6082484B2 (en) | 2016-02-02 | 2016-02-02 | Information processing apparatus, processing method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018225A JP6082484B2 (en) | 2016-02-02 | 2016-02-02 | Information processing apparatus, processing method thereof, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012070187A Division JP5882805B2 (en) | 2012-03-26 | 2012-03-26 | Information processing apparatus, processing method thereof, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016119694A JP2016119694A (en) | 2016-06-30 |
JP6082484B2 true JP6082484B2 (en) | 2017-02-15 |
Family
ID=56242491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016018225A Active JP6082484B2 (en) | 2016-02-02 | 2016-02-02 | Information processing apparatus, processing method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6082484B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011022796A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Image processing method and image processor |
JP5413119B2 (en) * | 2009-10-09 | 2014-02-12 | ソニー株式会社 | Imaging apparatus, imaging method, and imaging program |
JP5882805B2 (en) * | 2012-03-26 | 2016-03-09 | キヤノン株式会社 | Information processing apparatus, processing method thereof, and program |
-
2016
- 2016-02-02 JP JP2016018225A patent/JP6082484B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016119694A (en) | 2016-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5882805B2 (en) | Information processing apparatus, processing method thereof, and program | |
US10769590B2 (en) | Systems and methods for sharing images in a social network | |
US10783276B2 (en) | Systems and methods for multiple photo feed stories | |
US8611678B2 (en) | Grouping digital media items based on shared features | |
US20180005040A1 (en) | Event-based image classification and scoring | |
JP5934653B2 (en) | Image classification device, image classification method, program, recording medium, integrated circuit, model creation device | |
US10459968B2 (en) | Image processing system and image processing method | |
KR20130102549A (en) | Automatic media sharing via shutter click | |
JP5667069B2 (en) | Content management apparatus, content management method, content management program, and integrated circuit | |
JP6396897B2 (en) | Search for events by attendees | |
JP6947085B2 (en) | Electronic devices and their control methods | |
US9973649B2 (en) | Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program | |
CN105630791B (en) | Network album browsing method and device | |
US9081801B2 (en) | Metadata supersets for matching images | |
JP5924114B2 (en) | Information processing apparatus, information processing method, computer program, and image display apparatus | |
JP2004280254A (en) | Contents categorizing method and device | |
KR101479260B1 (en) | Method for searching closeness between people based on photos | |
JP2014182650A (en) | Image sharing device, method for controlling image sharing device and program | |
JP6082484B2 (en) | Information processing apparatus, processing method thereof, and program | |
KR101563238B1 (en) | Apparatus and method for creating closeness between people based on photos, and computer-readable recording medium with program therefor | |
JP2014042170A (en) | Photographing system, photographing support method, photographing device and control method of the same, management device and control method of the same, and program | |
JP6071714B2 (en) | Image processing apparatus and control method thereof | |
KR20110013073A (en) | File tagging namer | |
KR20140075903A (en) | Categorization method of social network service archieve | |
JP6159150B2 (en) | Image processing apparatus, control method therefor, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A132 Effective date: 20161118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6082484 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |