JP6082484B2 - Information processing apparatus, processing method thereof, and program - Google Patents

Information processing apparatus, processing method thereof, and program Download PDF

Info

Publication number
JP6082484B2
JP6082484B2 JP2016018225A JP2016018225A JP6082484B2 JP 6082484 B2 JP6082484 B2 JP 6082484B2 JP 2016018225 A JP2016018225 A JP 2016018225A JP 2016018225 A JP2016018225 A JP 2016018225A JP 6082484 B2 JP6082484 B2 JP 6082484B2
Authority
JP
Japan
Prior art keywords
subject
information
image
relationship
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016018225A
Other languages
Japanese (ja)
Other versions
JP2016119694A (en
Inventor
智之 清水
智之 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016018225A priority Critical patent/JP6082484B2/en
Publication of JP2016119694A publication Critical patent/JP2016119694A/en
Application granted granted Critical
Publication of JP6082484B2 publication Critical patent/JP6082484B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報処理装置、その処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, a processing method thereof, and a program.

従来、被写体を多くの視点から撮影した画像をもとに、任意のフォーカス距離や被写界深度を求めたり、複数視点の画像を生成したりする手法が知られている。例えば、非特許文献1では、複数のカメラを2次元平面上に格子状に配置することで、視点の異なる複数の画像を取得する(以下、このような多視点画像を画像群と表記する)。そして、視点、フォーカス距離、開口径をパラメータとして与えることで、それら画像群から計算処理によって画像を生成する(以下、パラメータを与えて生成する画像を完成画像と表記する)。なお、パラメータ指定がなければ、デフォルト値による画像生成を行なう。一方で、特許文献1では、後からユーザが画像群を探し易いような画像を生成するパラメータを自動で設定する方法が開示されている。   2. Description of the Related Art Conventionally, there are known techniques for obtaining an arbitrary focus distance and depth of field, and generating images of a plurality of viewpoints based on images obtained by photographing a subject from many viewpoints. For example, in Non-Patent Document 1, a plurality of images with different viewpoints are acquired by arranging a plurality of cameras in a grid on a two-dimensional plane (hereinafter, such a multi-viewpoint image is referred to as an image group). . Then, by giving the viewpoint, the focus distance, and the aperture diameter as parameters, an image is generated from the image group by calculation processing (hereinafter, an image generated by giving parameters is referred to as a completed image). If no parameter is specified, image generation is performed using default values. On the other hand, Patent Document 1 discloses a method of automatically setting parameters for generating an image that allows a user to easily search for an image group later.

特開2011−22796号公報JP 2011-22796 A

Bennett Wilburn, Neel Joshi, Vaibhav Vaish, Eino-Ville Talvala, Emilio Antunez, Adam Barth, Andrew Adams, Marc Levoy, Mark Horowitz, "High Performance Imaging Using Large Camera Arrays", アメリカ, Proceedings of ACM SIGGRAPH 2005, 765-776頁.Bennett Wilburn, Neel Joshi, Vaibhav Vaish, Eino-Ville Talvala, Emilio Antunez, Adam Barth, Andrew Adams, Marc Levoy, Mark Horowitz, "High Performance Imaging Using Large Camera Arrays", USA, Proceedings of ACM SIGGRAPH 2005, 765-776 page.

しかし、パラメータのデフォルト値や、画像群を探すために設定されたパラメータ値から生成された画像は、誰かにあげたり、仲間や家族と鑑賞したり、記録として整理したりするといった、ユーザにとって良くある利用目的に即したパラメータが与えられた完成画像になるとは限らない。   However, the default values of parameters and images generated from parameter values set to search for images are good for users, such as giving them to someone, viewing with friends and family, and organizing them as records. The completed image is not always given a parameter suitable for a certain purpose of use.

利用目的に即したパラメータが与えられた画像が得られなかった場合、視点、フォーカス距離、深度等のパラメータ調整をユーザが行なう必要があり、手間が掛かる。また、ユーザのスキルによっては、パラメータ指定によってどのような画像を生成し得るか把握できていない場合も考えられ、パラメータ指定操作そのものが困難であることもある。   If an image with parameters suitable for the purpose of use cannot be obtained, it is necessary for the user to adjust parameters such as the viewpoint, focus distance, and depth, which is troublesome. Further, depending on the skill of the user, there may be a case where it is not possible to grasp what kind of image can be generated by parameter designation, and the parameter designation operation itself may be difficult.

そこで、本発明は、上記課題に鑑みてなされたものであり、多視点の画像群からユーザにとって好適な画像を生成する技術を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide a technique for generating an image suitable for a user from a multi-viewpoint image group.

上記課題を解決するため、本発明の一態様による情報処理装置は、以下の構成を備える。すなわち、多視点撮影した画像から、着目する被写体に焦点を合わせた合成画像を生成する情報処理装置であって、多視点撮影した画像を保持する画像保持手段と、前記合成画像の利用者を入力する入力手段と、被写体に関する情報と、前記合成画像の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持手段と、前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識手段と、前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定手段と、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成手段と、を備える。   In order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes the following arrangement. That is, an information processing apparatus that generates a composite image focused on a subject of interest from an image taken from a multi-viewpoint, the image holding means for holding the image taken from a multi-viewpoint, and a user of the composite image Information on the subject, information on the subject, subject information holding means for holding relationship information indicating a relationship between a user of the composite image and the subject, and information on the subject with respect to the multi-viewpointed image. A recognition unit for recognizing a subject based on the image, a determination unit for determining a subject of interest from the recognized subject based on the relationship information, and a composite image focused on the subject of interest was captured from the multi-viewpoint. Generating means for generating from an image.

本発明によれば、多視点の画像群からユーザにとって好適な画像を生成することができる。   According to the present invention, an image suitable for a user can be generated from a multi-viewpoint image group.

本発明の一実施の形態に係わる情報処理装置を配して構成した情報処理システムの構成の一例を示す図。The figure which shows an example of a structure of the information processing system which arranged and comprised the information processing apparatus concerning one embodiment of this invention. 撮像部の構成の一例を示す図。The figure which shows an example of a structure of an imaging part. 情報処理装置30の機能的な構成の一例を示す図。2 is a diagram illustrating an example of a functional configuration of the information processing apparatus 30. FIG. 関係情報の概要を示す図。The figure which shows the outline | summary of related information. 被写体認識部43の処理により得られる画像の概要を示す図。The figure which shows the outline | summary of the image obtained by the process of the to-be-recognized part 43. FIG. 情報処理装置30の処理の流れの一例を示すフローチャート。4 is a flowchart showing an example of a processing flow of the information processing apparatus 30. 情報処理装置30の処理の流れの一例を示すフローチャート。4 is a flowchart showing an example of a processing flow of the information processing apparatus 30. 実施形態2に係わる情報処理装置30の機能的な構成の一例を示す図。FIG. 9 is a diagram illustrating an example of a functional configuration of an information processing apparatus 30 according to the second embodiment. 実施形態3に係わる情報処理装置30の機能的な構成の一例を示す図。FIG. 9 is a diagram illustrating an example of a functional configuration of an information processing apparatus 30 according to a third embodiment. 実施形態3に係わる情報処理装置30の機能的な構成の一例を示す図。FIG. 9 is a diagram illustrating an example of a functional configuration of an information processing apparatus 30 according to a third embodiment. 変形例の概要を示す図。The figure which shows the outline | summary of a modification.

以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

(実施形態1)
図1は、本発明の一実施の形態に係わる情報処理装置を配して構成した情報処理システムの構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram showing an example of a configuration of an information processing system configured by arranging an information processing apparatus according to an embodiment of the present invention.

情報処理システムは、撮像装置10と、情報処理装置30とを具備して構成され、これら装置間は、例えば、USB(Universal Serial Bus)等の通信手段を介して通信可能に接続されている。   The information processing system includes an imaging device 10 and an information processing device 30, and these devices are communicably connected via a communication means such as a USB (Universal Serial Bus).

情報処理装置30は、各種画像(例えば、撮像装置10により撮像された画像)を登録し管理する。情報処理装置30には、例えば、コンピュータが内蔵されている。コンピュータには、CPU(Central Processing Unit)等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、マウスやディスプレイ等の入出力手段、ネットワークカード等の通信手段等も具備されていても良い。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。   The information processing apparatus 30 registers and manages various images (for example, images captured by the imaging apparatus 10). For example, the information processing apparatus 30 includes a computer. The computer includes main control means such as a CPU (Central Processing Unit), and storage means such as ROM (Read Only Memory), RAM (Random Access Memory), and HDD (Hard Disk Drive). In addition, the computer may also include input / output means such as a mouse and a display, communication means such as a network card, and the like. These components are connected by a bus or the like, and are controlled by the main control unit executing a program stored in the storage unit.

撮像装置10は、複数の撮像部を備えた多眼方式が採用されている。ここで、撮像装置10には、複数の撮像部101〜109と、ROM201と、RAM202と、CPU203と、操作部205と、表示制御部207と、表示部206と、撮像部制御部208とを具備して構成される。撮像装置10には、この他、デジタル信号処理部209、エンコーダ部210、外部メモリ制御部211、画像出力部212も設けられる。なお、撮像装置10に設けられるこれら構成は、バス204等を介して通信可能に接続されている。   The imaging apparatus 10 employs a multi-view system including a plurality of imaging units. Here, the imaging apparatus 10 includes a plurality of imaging units 101 to 109, a ROM 201, a RAM 202, a CPU 203, an operation unit 205, a display control unit 207, a display unit 206, and an imaging unit control unit 208. It is provided and configured. In addition to this, the imaging apparatus 10 is also provided with a digital signal processing unit 209, an encoder unit 210, an external memory control unit 211, and an image output unit 212. Note that these components provided in the imaging apparatus 10 are communicably connected via a bus 204 or the like.

CPU(Central Processing Unit)203は、各種入出力の制御やデータ処理等を行い、RAM(Random Access Memory)202は、演算結果やデータを一時的に記憶する。ROM(Read Only Memory)201は、本実施形態に係わる制御を実行するプログラムやデータを記憶する。撮像装置10における各構成は、例えば、CPU203が、RAM202をワーク領域として、ROM201に記憶されたプログラムを実行することで実現される。   A CPU (Central Processing Unit) 203 performs various input / output controls and data processing, and a RAM (Random Access Memory) 202 temporarily stores calculation results and data. A ROM (Read Only Memory) 201 stores a program and data for executing control according to the present embodiment. Each configuration in the imaging apparatus 10 is realized, for example, by the CPU 203 executing a program stored in the ROM 201 using the RAM 202 as a work area.

操作部205は、例えば、ボタンやモードダイヤル等で実現され、ユーザからの各種指示を装置内に入力する。表示部206は、例えば、液晶ディスプレイ等で実現され、各種情報(例えば、撮影画像や文字等)をユーザに向けて表示する。表示制御部207は、各種情報を表示部206に表示制御する。なお、操作部205及び表示部206は、一体的に構成され、タッチスクリーンとして実現されても良い。   The operation unit 205 is realized by, for example, a button or a mode dial, and inputs various instructions from the user into the apparatus. The display unit 206 is realized by, for example, a liquid crystal display or the like, and displays various types of information (for example, photographed images and characters) for the user. The display control unit 207 controls display of various information on the display unit 206. Note that the operation unit 205 and the display unit 206 may be integrally configured and realized as a touch screen.

撮像部制御部208は、撮像系の制御を行なう。例えば、フォーカスの調整、シャッターを開く/閉じる、絞りの調節等を行なう。この制御は、CPU203からの指示に基づいて行なわれる。   The imaging unit control unit 208 controls the imaging system. For example, focus adjustment, shutter opening / closing, aperture adjustment, and the like are performed. This control is performed based on an instruction from the CPU 203.

デジタル信号処理部209は、バス204を介して受信したデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行なう。エンコーダ部210は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する。外部メモリ制御部211は、撮像装置10に挿入された外部メモリとの間の通信を制御する。外部メモリとしては、例えば、情報処理装置(例えば、PC(Personal Computer))の他、メディア(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)等が挙げられる。   The digital signal processing unit 209 performs various processes such as white balance processing, gamma processing, and noise reduction processing on the digital data received via the bus 204. The encoder unit 210 converts the digital data into a file format such as JPEG or MPEG. The external memory control unit 211 controls communication with an external memory inserted in the imaging device 10. Examples of the external memory include information processing apparatuses (for example, PC (Personal Computer)) and media (for example, hard disk, memory card, CF card, SD card, USB memory) and the like.

撮像部101〜109は、カラー画像を取得する。複数の撮像部101〜109は、例えば、図2(a)に示すように、正方格子上に均等に配置されている。ユーザが撮影ボタン21を押下すると、撮像部101〜109は、センサ(撮像素子)において、被写体の光情報を受光する。そして、撮像装置10の内部において、当該受光した信号をA/D変換し、それにより、複数のカラー画像(デジタルデータ)を取得する。このような多眼方式の撮像装置10により、同一の被写体を複数の視点位置から撮像したカラー画像群を得ることができる。   The imaging units 101 to 109 acquire a color image. The plurality of imaging units 101 to 109 are equally arranged on a square lattice, for example, as illustrated in FIG. When the user presses the shooting button 21, the imaging units 101 to 109 receive light information of the subject at the sensor (imaging device). Then, A / D conversion is performed on the received light signal inside the imaging apparatus 10, thereby acquiring a plurality of color images (digital data). With such a multi-lens imaging device 10, it is possible to obtain a color image group obtained by imaging the same subject from a plurality of viewpoint positions.

ここで、撮像部101〜109の構成について更に説明する。なお、撮像部101〜109は、基本的に同じ構成を有するため、代表して撮像部101の構成について説明する。撮像部101は、図2(b)に示すように、複数のレンズ301〜303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310を具備して構成される。   Here, the configuration of the imaging units 101 to 109 will be further described. Since the imaging units 101 to 109 basically have the same configuration, the configuration of the imaging unit 101 will be described as a representative. As shown in FIG. 2B, the imaging unit 101 includes a plurality of lenses 301 to 303, a diaphragm 304, a shutter 305, an optical low-pass filter 306, an iR cut filter 307, a color filter 308, a sensor 309, and an A / D conversion unit. 310 is comprised.

複数のレンズ301〜303は、例えば、ズームレンズ301、フォーカスレンズ302、ぶれ補正レンズ303を含んで構成される。センサ309は、例えば、CMOS(Complimentary Metal Oxide Semiconductor)やCCD(Charge-Coupled Devices)等の撮像素子で実現され、上述した各構成を経由した光を検知する。A/D変換部310は、当該センサ309により検知された光をデジタル値に変換し、それをデジタルデータとしてバス204に供給する。   The plurality of lenses 301 to 303 includes, for example, a zoom lens 301, a focus lens 302, and a shake correction lens 303. The sensor 309 is realized by, for example, an imaging device such as a CMOS (Complimentary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Devices), and detects light passing through each of the above-described configurations. The A / D conversion unit 310 converts the light detected by the sensor 309 into a digital value and supplies it to the bus 204 as digital data.

画像出力部212は、撮像部101〜109で取得されたカラー画像群或いは、デジタル信号処理部209から出力されたカラー画像群を、同一の被写体を撮影した画像群として識別可能な状態で出力する。   The image output unit 212 outputs the color image group acquired by the imaging units 101 to 109 or the color image group output from the digital signal processing unit 209 in a state where it can be identified as an image group obtained by photographing the same subject. .

以上が、撮像装置10における機能的な構成の一例についての説明である。なお、上述した撮像装置10の構成は、あくまで一例であり、上記構成に限定されず、必要に応じて適宜構成の追加や省略等を行なえば良い。   The above is an explanation of an example of a functional configuration of the imaging apparatus 10. Note that the configuration of the imaging apparatus 10 described above is merely an example, and is not limited to the above configuration, and the configuration may be appropriately added or omitted as necessary.

例えば、上述した説明では、撮像部の数が9個である場合を例に挙げて説明したが、撮像部の数は9個に限られない。すなわち、撮像装置が複数の撮像部を備えていれば良く、その数が何個備えられていても良い。また、9個の撮像部が正方格子上に均等に配置される場合を例に挙げて説明したが、これに限られず、撮像部の配置も任意に決めれば良い。例えば、放射状や直線状に配置しても良いし、また、全くランダムに配置しても良い。その他、撮像部101〜109で撮像される画像の一部又はその全てがモノクロ画像であっても良い。その場合には、図2(b)に示すカラーフィルタ308の構成を省略すれば良い。   For example, in the above description, the case where the number of imaging units is nine is described as an example, but the number of imaging units is not limited to nine. That is, the imaging device only needs to include a plurality of imaging units, and any number of imaging units may be provided. Moreover, although the case where nine imaging units are equally arranged on a square lattice has been described as an example, the present invention is not limited to this, and the arrangement of imaging units may be arbitrarily determined. For example, they may be arranged radially or linearly, or may be arranged at random. In addition, some or all of the images captured by the imaging units 101 to 109 may be monochrome images. In that case, the configuration of the color filter 308 shown in FIG.

次に、図3を用いて、図1に示す情報処理装置30の機能的な構成の一例について説明する。   Next, an example of a functional configuration of the information processing apparatus 30 illustrated in FIG. 1 will be described with reference to FIG.

情報処理装置30は、その機能的な構成として、入力部31と、出力部32と、データベース33と、画像処理部34と、画像登録部35とを具備して構成される。   The information processing apparatus 30 includes an input unit 31, an output unit 32, a database 33, an image processing unit 34, and an image registration unit 35 as its functional configuration.

入力部31は、例えば、マウスやキーボード等を介したユーザからの指示を装置内に入力し、出力部32は、例えば、液晶ディスプレイ等に対して各種情報を出力する。   The input unit 31 inputs, for example, an instruction from a user via a mouse or a keyboard into the apparatus, and the output unit 32 outputs various information to, for example, a liquid crystal display.

データベース33は、例えば、RAMや外部記憶装置等で実現され、画像や画像に関する情報を管理する画像管理手段として機能する。より具体的には、画像や、画像に関する属性情報、情報処理装置30を利用しているユーザのユーザ情報等を管理する。   The database 33 is implemented by, for example, a RAM or an external storage device, and functions as an image management unit that manages images and information related to images. More specifically, an image, attribute information about the image, user information of a user who uses the information processing apparatus 30, and the like are managed.

画像登録部35は、データベース33に画像を登録する。画像登録部35には、被写体抽出部36が設けられる。被写体抽出部36は、登録対象となる画像に対して顔認証処理を実施し、それにより、被写体を特定しそれを抽出する。顔認証処理は、一般的な顔特徴による技術を用いて行なえば良く、特定対象となる人物の顔特徴を予め学習しておき、当該顔特徴と類似した特徴を持つ画像内の部分領域を、その人物であると特定する。なお、画像の登録に際しては、被写体抽出部36の顔認識により特定された被写体の情報が被写体情報としてデータベース33に登録される。   The image registration unit 35 registers an image in the database 33. The image registration unit 35 is provided with a subject extraction unit 36. The subject extraction unit 36 performs face authentication processing on the image to be registered, thereby identifying the subject and extracting it. The face authentication process may be performed using a technique based on a general face feature. The face feature of a person to be identified is learned in advance, and a partial region in an image having a feature similar to the face feature is obtained. Identify that person. When registering an image, information on the subject specified by the face recognition of the subject extraction unit 36 is registered in the database 33 as subject information.

画像処理部34は、データベース33に登録された(多視点の)画像群に対して各種画像処理を行なう。画像処理部34には、画像取得部40と、関係情報生成部41と、関係情報管理部42と、被写体認識部43と、着目対象決定部44と、完成画像生成部45とが具備される。   The image processing unit 34 performs various types of image processing on the (multi-viewpoint) image group registered in the database 33. The image processing unit 34 includes an image acquisition unit 40, a relationship information generation unit 41, a relationship information management unit 42, a subject recognition unit 43, a target object determination unit 44, and a completed image generation unit 45. .

画像取得部40は、データベース33から画像群を取得する。関係情報生成部41は、画像取得部40により取得された画像群から被写体間の関係情報を生成する。この関係情報の生成に際しては、例えば、ユーザが管理している画像群全体から被写体を認識し、被写体毎の出現頻度や、同一画像中に共起する被写体の頻度(共起頻度)等を集計する。被写体毎の出現頻度では、例えば、ユーザが管理している画像群内における被写体の出現し易さが分かるので、これを利用してユーザと被写体との間の関係情報を生成することができる。また、被写体の共起頻度では、一緒に写真に写りこむ傾向が分かるので、これを利用して被写体同士の関係情報を生成することができる。なお、出現頻度をそのまま利用するのではなく、画像群の数に対する出現頻度の割合等を求めても良い。   The image acquisition unit 40 acquires an image group from the database 33. The relationship information generation unit 41 generates relationship information between subjects from the image group acquired by the image acquisition unit 40. When generating this relationship information, for example, the subject is recognized from the entire image group managed by the user, and the appearance frequency for each subject, the frequency of the subject that co-occurs in the same image (co-occurrence frequency), and the like are tabulated. To do. With the appearance frequency for each subject, for example, the ease of appearance of the subject in the image group managed by the user can be known, and this can be used to generate the relationship information between the user and the subject. In addition, since the co-occurrence frequency of the subjects shows the tendency of being photographed together, the relationship information between the subjects can be generated using this. Instead of using the appearance frequency as it is, the ratio of the appearance frequency to the number of image groups may be obtained.

なお、関係情報は、単純に関係があるという関係性を示す情報だけであっても良いが、関係が持つ属性情報を含んでいても良い。例えば、上述したような、被写体の出現頻度や共起頻度といった情報は、関係の強度を示す情報といえ、これを属性情報として関係情報に含めても良い。   Note that the relationship information may be only information indicating a relationship that is simply related, but may include attribute information of the relationship. For example, the information such as the appearance frequency and the co-occurrence frequency of the subject as described above is information indicating the strength of the relationship, and may be included in the relationship information as attribute information.

勿論、属性情報は、これに限られない。例えば、ユーザが、情報処理装置30に対して論理的な画像群を指定できるとする(例えば、一度の旅行で撮影した画像をまとめて管理するように指定できる)。この場合、論理的なまとまりの中で出現頻度等の情報を集計し、関係の属性情報として、そのようなまとまり毎に区別したことを示す情報を含めても良い。   Of course, the attribute information is not limited to this. For example, it is assumed that the user can specify a logical image group for the information processing apparatus 30 (for example, it can be specified to collectively manage images taken in one trip). In this case, information such as the appearance frequency in the logical unit may be aggregated, and information indicating that each unit is distinguished may be included as the related attribute information.

その他、被写体間の関係について、お互いにどういう存在であるかといったロールの情報が分かる場合は、それを関係の属性情報として関係情報に含めても良い。例えば、被写体DとMとが親子関係であれば、その情報を関係の属性情報として含めても良い。これらのロール情報は、どのような情報から取得しても良い。例えば、ユーザが情報処理装置30に対して登録した情報から取得しても良い。   In addition, in the case where role information such as the existence of each other regarding the relationship between subjects is known, it may be included in the relationship information as relationship attribute information. For example, if the subjects D and M are in a parent-child relationship, the information may be included as relationship attribute information. Such role information may be acquired from any information. For example, you may acquire from the information which the user registered with respect to the information processing apparatus 30. FIG.

このようにして生成された関係情報は、例えば、図4に示すように、各ユーザや被写体をノードとしたネットワーク構造で表現できる。この場合、ノードUはユーザを示しており、ノードA、B、F及びGはユーザが管理する画像において、出現頻度が予め設定された閾値以上であるといった関係を示している。これに対し、ノードCはユーザが管理する画像群における出現頻度が十分ではないため、ユーザとの関係はない。しかし、ノードCは、ノードA及びBとの共起頻度が、予め設定された閾値以上となるため、ノードA及びBと同時に撮影される関係があることを示している。   For example, as shown in FIG. 4, the relationship information generated in this way can be expressed by a network structure in which each user or subject is a node. In this case, the node U indicates the user, and the nodes A, B, F, and G indicate the relationship that the appearance frequency is equal to or higher than a preset threshold in the image managed by the user. On the other hand, since the appearance frequency in the image group managed by the user is not sufficient, the node C has no relationship with the user. However, since the co-occurrence frequency of the node C and the nodes A and B is equal to or higher than a preset threshold value, the node C indicates that there is a relationship of being photographed simultaneously with the nodes A and B.

なお、関係情報のデータ形式は、上記図4で説明したような構造を表現できる形式であれば良く、どのような形式であっても良い。各関係が、属性情報を含む可能性がある場合には、構造化情報を記述可能なXML形式で関係情報を生成すれば良い。また、例えば、RDF(Resource Description Framework)を利用したXML形式の記述仕様(RDF/XML)などで記述すれば良い。RDFは、人や物といったリソースとその関係とを記述する形式としてW3C(World Wide Web Consortium)で標準化されている。   The data format of the relationship information may be any format that can express the structure as described in FIG. 4 and may be any format. If there is a possibility that each relationship includes attribute information, the relationship information may be generated in an XML format in which structured information can be described. Further, for example, description may be made in XML description specifications (RDF / XML) using RDF (Resource Description Framework). RDF is standardized by the World Wide Web Consortium (W3C) as a format for describing resources such as people and things and their relationships.

関係情報管理部42は、関係情報生成部41により生成された関係情報を管理する。この関係情報管理部42及びデータベース33等を含む構成によって被写体情報管理が行なわれる。関係情報管理部42においては、新たな関係情報の管理に際して、既存の関係情報とマージして管理する。例えば、人物Aについて、新しい人物Xとの関係を検出すれば、既存のAに関する関係の記述部分に、新たな関係とその属性情報、及び対象がXである旨を追記する。   The relationship information management unit 42 manages the relationship information generated by the relationship information generation unit 41. Subject information management is performed by a configuration including the relationship information management unit 42, the database 33, and the like. The relationship information management unit 42 manages new relationship information by merging with existing relationship information. For example, if the relationship between the person A and the new person X is detected, the new relationship, its attribute information, and the fact that the target is X are added to the description part of the relationship related to the existing A.

また、関係情報管理部42は、被写体或いは関係やその属性情報などをキーとして含むクエリに対して、条件に合致する関係情報を検索し、その結果を応答する。クエリとしては、例えば、人物Aについての関係とその関係先となっている人物の検索を指示するようなクエリが挙げられる。この検索には、例えば、W3Cで標準化されたRDF/XML形式のデータを探索するクエリの記述言語であるSPARQL(SPARQL Protocol and RDF Query Language)のようなクエリ言語を用いれば良い。なお、管理している関係情報や、応答する関係情報のデータ形式についても、関係情報生成部41と同様に、例えば、RDF/XML形式のような構造化情報を記述できるものであれば何でも良い。   In addition, the relation information management unit 42 searches for relation information that matches the condition in response to a query including the subject or the relation and its attribute information as a key, and responds with the result. As a query, for example, a query that instructs a search for a relationship related to the person A and a person who is the relationship destination. For this search, for example, a query language such as SPARQL (SPARQL Protocol and RDF Query Language), which is a query description language for searching for data in RDF / XML format standardized by W3C, may be used. As for the relationship information managed and the data format of the relationship information to be responded, any data format can be used as long as it can describe structured information such as the RDF / XML format, as in the relationship information generation unit 41. .

被写体認識部43は、画像取得部40により取得された画像群に対して、焦点調整処理を行ないながら、顔認識処理を実施する。それにより、焦点のあった被写体の画像を取得する。より具体的には、各画像に対して焦点調整処理を行ない、各フォーカス距離にある対象(被写体)に焦点が合った画像を生成する。なお、焦点調整処理は、例えば、予め設定された任意の間隔でフォーカス距離を変更(増加)させるパラメータを設定していくことにより行なえば良い。   The subject recognition unit 43 performs face recognition processing while performing focus adjustment processing on the image group acquired by the image acquisition unit 40. As a result, an image of the focused subject is acquired. More specifically, focus adjustment processing is performed on each image, and an image focused on a target (subject) at each focus distance is generated. Note that the focus adjustment process may be performed, for example, by setting a parameter for changing (increasing) the focus distance at an arbitrary interval set in advance.

ここで、図5(a)〜図5(c)を用いて、この被写体認識部43の処理により得られる画像の概要について説明する。   Here, an outline of an image obtained by the processing of the subject recognition unit 43 will be described with reference to FIGS. 5 (a) to 5 (c).

A〜D51は、被写体を示している。ここでは、図中の下方向に撮像装置10がある場合を示しており、撮像装置10からの相対的な位置を示している。また、符号52は、ある間隔で設定するフォーカス距離を示しており、これらのフォーカス距離をパラメータとした完成画像(パラメータを与えて生成する画像)をそれぞれ生成する。   A to D51 indicate subjects. Here, the case where the imaging device 10 is present in the downward direction in the figure is shown, and the relative position from the imaging device 10 is shown. Reference numeral 52 denotes a focus distance set at a certain interval, and a complete image (an image generated by giving a parameter) using these focus distances as parameters is generated.

符号53は、フォーカス距離を示している。図5(a)のフォーカス距離では、少なくとも被写体Aに焦点が合った完成画像が得られる。同様に、図5(b)のフォーカス距離では、被写体B及びDに焦点があっており、図5(c)のフォーカス距離では、被写体Cに焦点が合っている。   Reference numeral 53 indicates a focus distance. With the focus distance in FIG. 5A, a completed image in which at least the subject A is in focus is obtained. Similarly, the subjects B and D are in focus at the focus distance in FIG. 5B, and the subject C is in focus at the focus distance in FIG.

被写体認識部43においては、このようにして得られた各画像に対して顔認識処理を実施し、図5(d)に示すように、予め設定された閾値よりも高い尤度で特定できた人物のリストを生成する。   In the subject recognition unit 43, face recognition processing is performed on each image obtained in this way, and as shown in FIG. 5 (d), identification can be performed with a likelihood higher than a preset threshold value. Generate a list of people.

着目対象決定部44は、被写体認識部43により特定された被写体の中から、着目する被写体(着目被写体)を決定する。例えば、画像群を登録したユーザにとって好適な完成画像を得る場合には、着目対象決定部44は、当該ユーザを含む関係情報を関係情報管理部42から取得する。そして、被写体認識部43により特定された各人物の中から、当該関係情報に含まれている人物を選択し、当該人物を着目対象とする。   The target object determination unit 44 determines a target subject (target subject) from among the subjects specified by the subject recognition unit 43. For example, when obtaining a completed image suitable for a user who has registered an image group, the target object determination unit 44 acquires relationship information including the user from the relationship information management unit 42. Then, a person included in the related information is selected from the persons specified by the subject recognition unit 43, and the person is set as a target of attention.

このとき、着目対象決定部44により特定される人物(被写体)と、関係情報管理部42により管理されている人物(被写体)とが対応付けられる必要がある。そこで、着目対象決定部44においては、例えば、被写体抽出部36により特定される被写体と、被写体認識部43により特定される被写体との対応関係を保持する。なお、被写体間の対応付けができるのであれば、どのような方法を用いても良い。例えば、着目対象決定部44と被写体抽出部36とにおける顔認識処理を共有することで、両者の特定結果を共通化しても良い。   At this time, it is necessary to associate the person (subject) specified by the target object determination unit 44 with the person (subject) managed by the relationship information management unit 42. Therefore, the target object determination unit 44 holds, for example, the correspondence between the subject specified by the subject extraction unit 36 and the subject specified by the subject recognition unit 43. Note that any method may be used as long as the subjects can be associated with each other. For example, by sharing the face recognition processing in the target object determination unit 44 and the subject extraction unit 36, the identification results of both may be shared.

完成画像生成部45は、着目対象決定部44により決定された着目対象に関して焦点調整を行なった画像を生成する。本実施形態においては、着目対象となる人物を被写体認識部43により特定したときのフォーカス距離情報及び顔位置を保持しておくようにする。そして、当該フォーカス距離を中心として、当該顔位置で焦点が合う距離を決定する。   The completed image generation unit 45 generates an image in which focus adjustment has been performed on the target object determined by the target object determination unit 44. In this embodiment, the focus distance information and the face position when the subject person is identified by the subject recognition unit 43 are retained. Then, the focus distance at the face position is determined around the focus distance.

具体的には、当該フォーカス距離を中心とした画像を生成し、当該画像からフォーカスを得るコントラスト方式のような汎用的なオートフォーカス方式を利用し焦点の合致を判定する。このとき最も焦点が合致した画像を完成画像とする。   Specifically, an image centered on the focus distance is generated, and the focus match is determined using a general-purpose autofocus method such as a contrast method for obtaining focus from the image. At this time, the image with the best focus is set as a completed image.

なお、着目対象が複数の場合は、見つかった着目対象分の完成画像を生成する。勿論、このような方法に限られず、例えば、関係情報管理部42で管理されている関係の属性情報として、頻度情報が得られるのであれば、頻度の多い順に被写体をソートし、その上位の被写体のうち、予め決められた数の完成画像を生成するようにしても良い。   If there are a plurality of target objects, a completed image for the target object found is generated. Of course, the present invention is not limited to such a method. For example, if frequency information is obtained as the attribute information of the relationship managed by the relationship information management unit 42, the subjects are sorted in descending order of frequency, and the higher-order subjects are sorted. Of these, a predetermined number of completed images may be generated.

以上が、情報処理装置30の構成の一例についての説明である。なお、図3に示す情報処理装置30の構成は、あくまで一例であり、この構成は適宜変更しても良い。例えば、画像処理部34に実現される構成の一部又は全てが、外部装置に設けられていても良い(例えば、クラウド形式)。その場合、情報処理装置30においては、当該外部装置から処理結果を受けて各種処理を行なう。   The above is an example of the configuration of the information processing apparatus 30. Note that the configuration of the information processing apparatus 30 illustrated in FIG. 3 is merely an example, and this configuration may be changed as appropriate. For example, a part or all of the configuration realized in the image processing unit 34 may be provided in an external device (for example, a cloud format). In that case, the information processing apparatus 30 performs various processes in response to processing results from the external apparatus.

次に、図6及び図7を用いて、図1に示す情報処理装置30の処理の流れの一例について説明する。まず、図6を用いて、関係情報を取得する際の処理の流れについて説明する。   Next, an example of a processing flow of the information processing apparatus 30 illustrated in FIG. 1 will be described with reference to FIGS. 6 and 7. First, the flow of processing when acquiring the relationship information will be described with reference to FIG.

情報処理装置30は、画像取得部40において、データベース33から画像群を取得する(S101)。本実施形態においては、ユーザが情報処理装置30に対して論理的なまとまりを予め定義しており、当該まとまりに画像が所属するように管理されているものとする。そのため、S101の処理においては、論理的なまとまり毎に画像群が取得される。   The information processing apparatus 30 acquires an image group from the database 33 in the image acquisition unit 40 (S101). In the present embodiment, it is assumed that a logical group is defined in advance for the information processing apparatus 30 by the user, and management is performed so that images belong to the group. Therefore, in the process of S101, an image group is acquired for each logical group.

続いて、情報処理装置30は、画像処理部34において、データベース33から画像群の被写体情報を取得する(S102)。上述した通り、画像の登録に際して、被写体抽出部36の顔認識処理により特定された被写体の被写体情報がデータベース33に登録されている。そのため、S102の処理では、データベース33から当該被写体情報を取得する。   Subsequently, in the image processing unit 34, the information processing apparatus 30 acquires subject information of the image group from the database 33 (S102). As described above, the subject information of the subject specified by the face recognition process of the subject extraction unit 36 is registered in the database 33 when the image is registered. Therefore, in the process of S102, the subject information is acquired from the database 33.

情報処理装置30は、画像処理部34において、S101の処理で取得した画像群を管理しているユーザの情報(ユーザ情報)を取得する(S103)。なお、ここでいうユーザとは、例えば、情報処理装置30を利用しているユーザを指し、このS103の処理では、例えば、ログイン情報等によってユーザ情報を取得すれば良い。勿論、対象となるユーザ情報を個別に入力できる構成であっても良い。   In the image processing unit 34, the information processing apparatus 30 acquires information (user information) of a user who manages the image group acquired in S101 (S103). Note that the user here refers to, for example, a user who uses the information processing apparatus 30. In the process of S103, user information may be acquired based on, for example, login information. Of course, the structure which can input the user information used as object separately may be sufficient.

ユーザ情報の取得が済むと、情報処理装置30は、関係情報生成部41において、S102の処理で取得した被写体情報を集計し、S103の処理で取得したユーザとの関係情報を生成する(S104)。そして、S103の処理で取得した被写体が、同一画像中で共起している頻度から、各被写体間の関係情報を生成する(S105)。その後、情報処理装置30は、関係情報管理部42において、当該生成された関係情報を登録して管理する(S106)。   When the user information is acquired, the information processing apparatus 30 aggregates the subject information acquired in the process of S102 in the relationship information generating unit 41 and generates the relationship information with the user acquired in the process of S103 (S104). . Then, the relationship information between the subjects is generated from the frequency with which the subject acquired in the process of S103 co-occurs in the same image (S105). Thereafter, the information processing apparatus 30 registers and manages the generated relation information in the relation information management unit 42 (S106).

次に、図7を用いて、画像群から完成画像を(自動で)生成する際の処理の流れについて説明する。この図7に示す処理は、例えば、画像登録時に実施され、図6で説明した処理が終わった後、続けて実行される。なお、勿論、ユーザ指示又は任意のタイミングで(自動的に)実施されても良い。   Next, the flow of processing when a completed image is generated (automatically) from an image group will be described with reference to FIG. The process shown in FIG. 7 is performed at the time of image registration, for example, and is subsequently executed after the process described with reference to FIG. Of course, it may be carried out by a user instruction or at an arbitrary timing (automatically).

情報処理装置30は、画像取得部40において、画像群を取得する(S201)。そして、被写体認識部43において、S201の処理で取得した画像群を処理し、焦点調整を行いながら当該画像群から被写体を(網羅的に)認識する(S202)。   The information processing apparatus 30 acquires an image group in the image acquisition unit 40 (S201). Then, the subject recognition unit 43 processes the image group acquired in the process of S201, and recognizes the subject from the image group (exhaustively) while performing focus adjustment (S202).

続いて、情報処理装置30は、画像処理部34において、画像群を処理しようとしているユーザの情報(ユーザ情報)を取得する(S203)。ここでいうユーザとは、例えば、情報処理装置30を利用しているユーザを指し、このS203の処理では、例えば、ログイン情報等によってユーザ情報を取得すれば良い。   Subsequently, in the image processing unit 34, the information processing apparatus 30 acquires information (user information) of a user who is processing an image group (S203). The user here refers to, for example, a user who uses the information processing apparatus 30. In the process of S203, for example, user information may be acquired based on login information or the like.

ユーザ情報の取得が済むと、情報処理装置30は、着目対象決定部44において、S202の処理で認識した被写体の中から、S203の処理で取得したユーザと関係のある被写体を特定し、それを着目対象に決定する(S204)。   After the acquisition of the user information, the information processing apparatus 30 specifies the subject related to the user acquired in the process of S203 from the subjects recognized in the process of S202 in the target object determination unit 44, The target object is determined (S204).

最後に、情報処理装置30は、完成画像生成部45において、S204の処理で決定した着目対象に関して焦点調整を行なった完成画像を取得(生成)する(S205)。   Finally, the information processing apparatus 30 acquires (generates) a completed image in which the focus adjustment is performed on the target of interest determined in the process of S204 in the completed image generation unit 45 (S205).

以上説明したように本実施形態によれば、画像群の登録に際して、着目対象に関して焦点調整が行なわれた完成画像(着目対象に関して焦点調整を行なった画像)が生成される。すなわち、複数の画像(フォーカス距離は様々)に基づいてユーザに関係の深い被写体にフォーカスが合った画像が生成される。そのため、ユーザにとって好適な画像が自動で生成されることになる。   As described above, according to the present embodiment, when an image group is registered, a completed image in which focus adjustment has been performed on the target object (an image on which focus adjustment has been performed on the target object) is generated. That is, based on a plurality of images (various focus distances), an image in which a subject closely related to the user is focused is generated. Therefore, an image suitable for the user is automatically generated.

これにより、パラメータ指定などをして完成画像を生成する際のユーザの手間を抑制できる。例えば、複数の画像群からの知人に関係する画像を送るような場合に、ユーザは、各画像について完成画像を生成するといった煩雑な操作を行なわずに済むので、ユーザの利便性が向上する。   Thereby, the user's effort at the time of generating a completed image by specifying parameters or the like can be suppressed. For example, when an image related to an acquaintance from a plurality of image groups is sent, the user does not have to perform a complicated operation of generating a completed image for each image, so that the convenience for the user is improved.

(実施形態2)
次に、実施形態2について説明する。上述した実施形態1では、着目対象決定部44において、被写体間の関係の有無等に基づいて着目対象を見つける場合を例に挙げて説明したが、これに限られない。その一例として、実施形態2においては、誰が何のために画像を利用するのかといったコンテキストに応じて着目対象の被写体を決定する場合について説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the first embodiment described above, the case in which the target object determination unit 44 finds the target object based on the presence or absence of the relationship between the subjects has been described as an example, but the present invention is not limited to this. As an example, in the second embodiment, a case will be described in which a subject of interest is determined in accordance with a context such as who uses an image for what.

実施形態2に係わる情報処理装置30には、図8に示すように、画像処理部34内にコンテキストを取得するコンテキスト取得部46が新たに設けられる。   As illustrated in FIG. 8, the information processing apparatus 30 according to the second embodiment is newly provided with a context acquisition unit 46 that acquires a context in the image processing unit 34.

コンテキスト取得部46は、例えば、ユーザへの出力機能の操作の過程で得られたコンテキストを取得する。そして、実施形態2に係わる着目対象決定部44においては、当該コンテキストに従って上述した関係情報を評価した結果(重み付けした結果)に基づいて着目対象を決定する。なお、コンテキストに応じた重み付けは、例えば、予め設定されているものとする。コンテキストとしては、例えば、祖父母へのアルバムのプレゼント、結婚する娘の成長記録のスライドショー作成、旅行の写真を同行者達で閲覧、その他一般的な閲覧を補助するための情報が挙げられる。すなわち、コンテキストは、所定の画像群のまとまり毎に設定されている。   The context acquisition unit 46 acquires, for example, the context obtained in the process of operating the output function for the user. Then, in the target object determination unit 44 according to the second embodiment, the target object is determined based on the result (weighted result) of evaluating the relation information described above according to the context. In addition, the weighting according to a context shall be preset, for example. Examples of the context include presents for albums to grandparents, creation of a slide show of growth records of married daughters, travel photos viewed by accompanying people, and other information for assisting general browsing. That is, the context is set for each group of predetermined image groups.

ここで、重み付けは、コンテキスト毎に、ある被写体や関係の属性に基づいて予め設定されている。例えば、祖父母へのアルバムのプレゼントであれば、孫が写っている画像を中心に選ばれることが望まれる。そのため、関係情報としてロール情報が設定されていれば、画像群からは、祖父母から見て孫に当たる被写体が着目対象となるように関係に対して重み付けを行なっておく。   Here, the weighting is set in advance for each context based on a certain subject or a related attribute. For example, when presenting an album to grandparents, it is desirable to select an image centered on the grandchild. Therefore, if roll information is set as the relationship information, the relationship is weighted from the image group so that the subject corresponding to the grandchild as seen from the grandparents becomes the target of attention.

また、結婚する娘の成長記録のスライドショー作成であれば、ユーザから見て娘に当たる被写体を着目対象として含むように重み付けを行なっておく。このとき、ある時期における共起頻度の分布のようなものを関係の属性として管理するようにしておけば、娘とその時期に良く共起している被写体も同時に着目する被写体となるような重み付けを行なうようにしても良い。   In addition, when creating a slide show of a growth record of a married daughter, weighting is performed so as to include a subject corresponding to the daughter as viewed from the user. At this time, if a relationship such as the distribution of co-occurrence frequency at a certain time is managed as a relationship attribute, weighting is performed so that the daughter and the subject who often co-occurs at that time also become the subject of interest at the same time. May be performed.

また、旅行の写真を同行者の一部で集まって閲覧するのであれば、ユーザの知人にあたる関係の被写体のうち、その場にいる人物を着目対象として含むように重み付けを行なう。或いは、一般的な閲覧であれば、コンテキストによらず重要とみなせる関係を重視する。重要とみなせる関係とは、例えば、ユーザにとって近い血縁関係であるとか、完成画像の生成時点から見て近い日時での共起頻度の高い関係であるとかを指す。   In addition, when traveling photographs are gathered and viewed by some of the accompanying persons, weighting is performed so as to include a person who is present on the spot as a target of interest among subjects related to the user's acquaintance. Or, for general browsing, importance is placed on relationships that can be regarded as important regardless of context. The relationship that can be regarded as important indicates, for example, a close blood relationship for the user or a high co-occurrence relationship at a close date and time as viewed from the time when the completed image is generated.

また、画像群が既知の年中行事(例えば、母の日やこどもの日、家族や知人の誕生日)の日程と合致するのであれば、その行事における主役となるような人物との関係を重み付けするようなルールであって良い。例えば、母の日に撮影された画像であれば、母や母と良く共起する被写体が着目対象となるように関係に重みを付ける。同様に、閲覧日が既知の年中行事と一致する際は、当該行事の中心となる被写体について、着目被写体となるように関係を重み付けするようにしても良い。   Also, if the image group matches the schedule of a known annual event (for example, Mother's Day, Children's Day, family or acquaintance's birthday), the relationship with the person who will play a leading role in the event The rule may be weighted. For example, in the case of an image taken on Mother's Day, the relationship is weighted so that the mother or a subject that often co-occurs with the mother becomes the target of attention. Similarly, when the viewing date coincides with a known annual event, the subject that is the center of the event may be weighted so that it becomes the subject of interest.

なお、このような重み付けは、排他的に利用する必要はなく、特に、一般的な閲覧のためのルールとして述べた内容については、特定のコンテキストに依存したものではないため、常に考慮するようにして構わない。   Note that such weighting does not need to be used exclusively. In particular, the content described as a general browsing rule is not dependent on a specific context, so always consider it. It doesn't matter.

以上説明したように実施形態2によれば、コンテキスト依存の処理(アルバム生成やスライドショー生成等)において、より好適な画像が得られる。加えて、好適な完成画像を自動で得られるようになることから、ユーザが介在せずに、アプリケーション等での自動生成処理を実現できる。   As described above, according to the second embodiment, a more suitable image can be obtained in context-dependent processing (album generation, slide show generation, etc.). In addition, since a suitable completed image can be automatically obtained, automatic generation processing by an application or the like can be realized without any user intervention.

(実施形態3)
次に、実施形態3について説明する。上述した実施形態1では、画像取得部40により取得された画像群から関係情報を生成する場合について説明したが、これに限られない。例えば、ソーシャルネットワーキングサービス(以下、SNS)のような関係情報管理サービスに登録されているユーザや被写体の人間関係等の情報を関係情報としても良い。すなわち、ユーザや被写体間の関係情報の生成や管理に関係情報管理サービスを利用しても構わない。
(Embodiment 3)
Next, Embodiment 3 will be described. In the first embodiment described above, the case where the relationship information is generated from the image group acquired by the image acquisition unit 40 has been described. However, the present invention is not limited to this. For example, information such as a user's relationship with a user or a subject registered in a related information management service such as a social networking service (hereinafter referred to as SNS) may be used as the related information. In other words, the relationship information management service may be used for generation and management of relationship information between users and subjects.

この場合、情報処理装置30の構成としては、例えば、図9や図10に示す構成となる。すなわち、画像処理部34内に連携部47が新たに設けられる。連携部47は、情報処理装置30が外部サービスに接続されている場合、当該外部サービスにネットワークインタフェース(不図示)を介してアクセスして連携する。これにより、関係情報生成部41及び関係情報管理部42における一部の機能(図9)又は全ての機能(図10)を、当該関係情報管理サービスを利用して実現することができる。   In this case, the configuration of the information processing apparatus 30 is, for example, the configuration illustrated in FIGS. 9 and 10. That is, a cooperation unit 47 is newly provided in the image processing unit 34. When the information processing apparatus 30 is connected to an external service, the cooperation unit 47 accesses the external service via a network interface (not shown) and cooperates. Thereby, a part of function (FIG. 9) or all the functions (FIG. 10) in the relationship information generation part 41 and the relationship information management part 42 are realizable using the said relationship information management service.

ここで、関係情報管理サービス上の関係情報を利用する必要があるため、連携部47は、少なくとも当該関係情報管理サービスにユーザとしてログインする機能と、ユーザの関係情報に関する情報を取得する機能とを有する。このとき、関係情報管理サービス上の関係情報と、情報処理装置30内で扱う関係情報との対応付けが必要になる。この対応付けは、両方の管理対象の識別子を対応付ける表を作成し、それを連携部47で管理するようにすれば良い。   Here, since it is necessary to use the relationship information on the relationship information management service, the cooperation unit 47 has at least a function of logging in to the relationship information management service as a user and a function of acquiring information about the relationship information of the user. Have. At this time, it is necessary to associate the relationship information on the relationship information management service with the relationship information handled in the information processing apparatus 30. For this association, a table for associating both identifiers to be managed may be created and managed by the linkage unit 47.

また、この表に相当する情報は、ユーザが予め入力して設定しておけば良い。例えば、情報処理装置30に認識対象として顔画像を登録する際に、登録対象の識別子として、関係情報管理サービス上でのユーザ名などの識別子を設定するようにしても良い。両者の対応付けの入力ができない、或いは、入力がなされていない場合であっても、両者で管理しているユーザ名やユーザの属性を使って対応付けを行なっても構わない。この場合、例えば、同一属性に同一の情報が入力されているか否かで対応付けを行なうか否かを判断すれば良い。   Further, information corresponding to this table may be input and set in advance by the user. For example, when registering a face image as a recognition target in the information processing apparatus 30, an identifier such as a user name on the related information management service may be set as the registration target identifier. Even if it is not possible to input the association between the two, or when no input is made, the association may be performed using the user name and the user attribute managed by both. In this case, for example, it may be determined whether or not the association is performed based on whether or not the same information is input to the same attribute.

なお、関係情報管理サービスにおいては、画像から関係情報を生成できない場合も考えられる。このような場合には、関係情報生成部41による処理結果を、連携部47を経由して当該関係情報管理サービスにおける関係情報に追加できるようにしても良い。この場合、連携部47は、関係情報管理サービス上の関係情報を編集する機能を有する。そして、関係情報生成部41により生成されたあるユーザの関係情報を、当該ユーザが対応付けられている関係情報管理サービス上のユーザの関係情報として追加・更新する。   In the related information management service, there may be a case where related information cannot be generated from an image. In such a case, the processing result by the relationship information generation unit 41 may be added to the relationship information in the relationship information management service via the cooperation unit 47. In this case, the cooperation unit 47 has a function of editing the relationship information on the relationship information management service. Then, the relationship information of a certain user generated by the relationship information generation unit 41 is added / updated as the relationship information of the user on the relationship information management service with which the user is associated.

以上説明したように実施形態3によれば、SNSなどの外部サービスで関係情報の作成及び管理が行なわれている場合にはこれらと連携する。これにより、関係情報の管理が分散せず一元化して行なえることになる。また、このような関係情報を別々で管理する場合に比べて、登録やメンテナンスのコストを下げることができるとともに、相互の登録内容のズレを軽減できる。   As described above, according to the third embodiment, when the creation and management of related information is performed by an external service such as SNS, these are linked. As a result, the management of the related information can be performed in a unified manner without being distributed. In addition, the cost of registration and maintenance can be reduced and the misregistration of mutual registration contents can be reduced as compared with the case where such relationship information is managed separately.

以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。以下、いくつか変形例について説明する。   The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. . Hereinafter, some modifications will be described.

(変形例1)
上述した説明では、被写体抽出部36や被写体認識部43において、顔認識処理を実施し、顔画像から人物を特定する場合について説明したが、これに限られない。ペットやオブジェクトを被写体として認識処理を行なっても良い。例えば、実施形態2で説明した例でいえば、旅行の記録においては、旅先のランドマークが認識できれば、当該ランドマークと共起している人物の関係を重み付けすることで、ランドマークと人物とが着目対象となるようにしても良い。
(Modification 1)
In the above description, a case has been described in which the subject extraction unit 36 and the subject recognition unit 43 perform face recognition processing to specify a person from a face image, but the present invention is not limited to this. Recognition processing may be performed using a pet or object as a subject. For example, in the example described in the second embodiment, in the travel record, if the landmark of the destination can be recognized, the relationship between the landmark and the person is weighted by weighting the relationship between the landmark and the person who co-occurs. May be the target of attention.

(変形例2)
上述した説明では、複数の着目対象があった場合に、当該複数の着目対象に焦点が合うように完成画像を生成する場合について説明したが、これに限られない。例えば、着目対象それぞれのフォーカス距離を集計し、当該距離の中間点をフォーカス距離のパラメータとして設定し、且つフォーカス位置からの深度幅が深くなるように開口径のパラメータを絞った値を設定しても良い。このようにすることで、着目対象全体に焦点が合っているような完成画像を生成できる。
(Modification 2)
In the above description, when there are a plurality of objects of interest, a case where a completed image is generated so that the plurality of objects of interest are in focus has been described. However, the present invention is not limited to this. For example, the focus distance of each target object is aggregated, the midpoint of the distance is set as the focus distance parameter, and the aperture diameter parameter is narrowed so that the depth width from the focus position is deep. Also good. By doing in this way, it is possible to generate a completed image in which the entire target object is in focus.

この処理について、図11(a)を用いて更に具体的に説明する。ここで、A及びBは着目対象として選択された被写体を示しており、符号10は、多視点画像を撮影するための撮像装置を示している。この場合、フォーカス位置を符号61のように、A及びBの中間点に設定し、開口径のパラメータを調整して、深度幅62がA及びBをカバーするようにして完成画像を生成する。   This process will be described more specifically with reference to FIG. Here, A and B indicate a subject selected as a target of interest, and reference numeral 10 indicates an imaging device for capturing a multi-viewpoint image. In this case, the focus position is set to an intermediate point between A and B as indicated by reference numeral 61, the aperture diameter parameter is adjusted, and a complete image is generated so that the depth width 62 covers A and B.

なお、関係情報管理部42に管理された着目対象間の関係情報を取得し、着目対象間に関係がある場合に、図11(a)に示す処理を行なうようにしても構わない。すなわち、複数の着目対象の中から、関係情報に基づいて着目対象の組を生成し、当該組毎に完成画像を生成しても良い。   Note that the relationship information between the target objects managed by the relationship information management unit 42 may be acquired, and the process shown in FIG. 11A may be performed when there is a relationship between the target objects. That is, a set of target objects may be generated from a plurality of target objects based on the relationship information, and a completed image may be generated for each set.

また、このとき、関係の属性情報として、各着目対象間の共起頻度等のような関係の強さを評価できる情報が得られるのであれば、共起するような関係の被写体同士を優先して、それらの被写体全体に焦点が合った完成画像を生成するようにしても良い。   At this time, if information that can evaluate the strength of the relationship, such as the co-occurrence frequency between each target object, can be obtained as the attribute information of the relationship, the subjects having the co-occurring relationship are prioritized. Thus, a complete image may be generated in which the entire subject is in focus.

また、実施形態2で説明したような関係の重み付けの情報が得られる場合は、コンテキストに沿った重要な関係の被写体全体に焦点が合った完成画像を生成するようにしても構わない。   In addition, when the relationship weighting information as described in the second exemplary embodiment is obtained, a completed image may be generated in which the entire subject having an important relationship along the context is focused.

以上説明したように変形例2によれば、複数の被写体全体に焦点が合っているような完成画像を生成する。これにより、このような画像を利用する場合にも、ユーザが画像を生成する手間を抑制できる。   As described above, according to the second modification, a complete image is generated in which a plurality of subjects are all in focus. Thereby, also when utilizing such an image, the effort which a user produces | generates an image can be suppressed.

(変形例3)
また更に、変形例2の処理に限られず、例えば、複数の着目対象それぞれの座標位置を含む曲面を求め、当該曲面に沿って焦点調整を行なうような技術(従来の技術)を利用しても構わない。
(Modification 3)
Furthermore, the present invention is not limited to the processing of the second modification. For example, a technique (conventional technique) that obtains a curved surface including the coordinate positions of each of a plurality of target objects and performs focus adjustment along the curved surface may be used. I do not care.

この処理について、図11(b)を用いて説明すると、A〜Dまで4つの着目対象がある場合、曲面状仮想的な焦点面70を設定し、この焦点面に合わせて焦点調整を行なった完成画像を生成する。なお、変形例2と同様に、着目対象間の関係情報を見て、着目対象の組み合わせを決めても勿論構わない。   This process will be described with reference to FIG. 11B. When there are four objects of interest from A to D, a curved virtual focal plane 70 is set, and focus adjustment is performed in accordance with this focal plane. A completed image is generated. Note that, as in the second modification, it is of course possible to determine the combination of the target objects by looking at the relationship information between the target objects.

以上説明したように変形例3によれば、撮像装置から各着目対象の距離の分布にばらつきがあったとしても、着目対象全体に注目した深度の浅い完成画像を生成できる。   As described above, according to the third modification, even if there is variation in the distance distribution of each target object from the imaging device, it is possible to generate a completed image with a shallow depth focused on the entire target object.

(変形例4)
例えば、被写体抽出部36における認識対象は、画像中のテキストオブジェクトの文字列情報であっても良い。この場合、文字列を認識し、画像中の被写体に関連するテキスト情報であることを判定し、文字列と当該被写体とが関係する場合には、両者に焦点が合うように焦点調整を行なった完成画像を生成する。
(Modification 4)
For example, the recognition target in the subject extraction unit 36 may be character string information of a text object in the image. In this case, the character string is recognized, it is determined that the text information is related to the subject in the image, and when the character string and the subject are related, focus adjustment is performed so that both are in focus. A completed image is generated.

例えば、画像の中に看板が写っており、「入学式」の文字が含まれ、且つ自分の娘が写っていたとする。この状況において、娘の生年月日の情報、画像の撮影日時の情報、「入学式」に関する基本的な知識情報をそれぞれ参照することで、娘の入学時期であった場合、当該娘の顔とその看板両方に焦点を合わせた画像を作るなどしても良い。   For example, it is assumed that a signboard is shown in the image, the letters “entrance ceremony” are included, and the daughter is shown. In this situation, by referring to the daughter's date of birth information, image shooting date / time information, and basic knowledge information about the `` entrance ceremony '' You may make the image which focused on both the signs.

(変形例5)
上述した実施形態においては、撮像装置10により撮像された画像群が情報処理装置30に入力される場合について説明したが、これに限られない。すなわち、情報処理装置30には、焦点調整処理が可能な画像群が入力されれば良い。例えば、レンズが複数でセンサが一つの構成であっても同等の画像群が得られることが知られており、このようにして得られた画像群が情報処理装置30に入力されても良い。
(Modification 5)
In the above-described embodiment, the case where an image group captured by the imaging apparatus 10 is input to the information processing apparatus 30 has been described, but the present invention is not limited to this. That is, an image group that can be subjected to a focus adjustment process may be input to the information processing apparatus 30. For example, it is known that an equivalent image group can be obtained even when a plurality of lenses and a single sensor are configured, and the image group obtained in this way may be input to the information processing apparatus 30.

(変形例6)
上述した実施形態においては、完成画像生成部45における焦点調整処理として、着目対象に焦点が合うようにする場合を例に挙げて説明したが、それ以外の部分、例えば、背景部分の焦点調整処理については特に言及していない。
(Modification 6)
In the embodiment described above, the focus adjustment process in the completed image generation unit 45 has been described by taking as an example the case where the target object is focused. However, the focus adjustment process for other parts, for example, the background part Is not specifically mentioned.

この点について説明すると、着目対象以外の範囲については、できる限りぼかした画像にする場合や、それ以外の部分にもできる限りフォーカスが当たっている画像にする場合等が考えられる。例えば、コンテキストによっていずれか決めるようにしても良い。すなわち、コンテキスト取得部46(図8参照)を含む構成で得られたコンテキストによって、着目対象以外の領域をどのように焦点調整するかを関係評価ルールと合わせて管理しておくようにすれば良い。そして、その内容に応じて、完成画像生成部45が、完成画像を生成する。   Explaining this point, the range other than the target of interest may be a blurred image as much as possible, or an image in which other portions are focused as much as possible. For example, either may be determined depending on the context. That is, how to adjust the focus of the area other than the target of interest according to the context obtained by the configuration including the context acquisition unit 46 (see FIG. 8) may be managed together with the relationship evaluation rule. . And according to the content, the completion image generation part 45 produces | generates a completion image.

或いは、より汎用的な例として、着目対象が人で、ある程度の大きさの顔が画像内で占めており、且つ他に認識できた被写体が無いようなケースでは、ポートレートのような画像をユーザがイメージして撮影した可能性が高い。このような場合は、顔部分を強調するために、背景をぼかした画像を生成する。そういった典型的なルールと、着目対象以外の部分の焦点調整の仕方を対応付けておくことで完成画像を生成するようにしても良い。この場合、当該ルールや着目対象以外の部分の焦点調整の仕方の対応付けの情報は、完成画像生成部45に予め設定しておく等すれば良い。   Alternatively, as a more general example, if the subject of interest is a person, a face of a certain size is occupied in the image, and there is no other recognizable subject, an image such as a portrait is displayed. There is a high possibility that the user has taken an image. In such a case, an image with a blurred background is generated to emphasize the face portion. A completed image may be generated by associating such a typical rule with a focus adjustment method for a portion other than the target object. In this case, it is only necessary to set in advance in the completed image generation unit 45 information on the correspondence between the rule and the focus adjustment method of the part other than the target object.

(変形例7)
上述した実施形態においては、処理対象が静止画像である場合を例に挙げて説明したが、これに限られない。例えば、各フレームが多視点画像の情報を有するような動画像であっても良い。その場合は、動画像における1フレーム分を対象として上述した処理を行なえば良い。
(Modification 7)
In the above-described embodiment, the case where the processing target is a still image has been described as an example, but the present invention is not limited to this. For example, a moving image in which each frame has information on a multi-viewpoint image may be used. In that case, the above-described processing may be performed for one frame in the moving image.

但し、動画像として閲覧するには、フレーム毎に着目対象が細かく変動することは好ましくない。動画像は、写真のように瞬間的な場面を捉えたものであるよりも、あるシーンを撮影するケースが多い。よって、シーン全体としての着目対象を決定し、シーン全体に統一感のある着目対象に関する焦点調整を実施することが望ましい。   However, in order to browse as a moving image, it is not preferable that the subject of interest varies minutely for each frame. In many cases, a moving image captures a scene rather than capturing a momentary scene such as a photograph. Therefore, it is desirable to determine a target of interest for the entire scene and perform focus adjustment on the target of interest having a sense of unity throughout the scene.

この場合、上述した画像処理部34内の各構成は、当該シーンを表す時間内のフレーム画像全体に対して処理を行なう。すなわち、シーン内のフレーム全体の被写体を集計し、そこから関係を生成したり、着目対象を決定したりする。   In this case, each component in the image processing unit 34 described above performs processing on the entire frame image within the time representing the scene. That is, the subject of the whole frame in a scene is totaled, a relationship is produced | generated from there, or the attention object is determined.

また、動画像としての完成画像は、決定した着目被写体を追尾するような一般的な追尾処理によって、各フレームでの焦点調整を実施する領域を決め、当該領域に焦点が合うように各フレームの完成画像を生成する。   In addition, the completed image as a moving image is determined by a general tracking process that tracks the determined subject of interest, and an area for performing focus adjustment in each frame is determined. A completed image is generated.

なお、着目被写体は、一時的に障害物に隠れたり、フレーム外に出てしまったりして、追尾できないフレームが生じることがある。それによってフォーカス距離が大きく変動することがないように、前後の追尾できているフレームでの被写体の領域及びフォーカス距離から、当該追尾できていないフレームでの被写体の領域及びフォーカス距離を補間するようにしても良い。   Note that the subject of interest may be temporarily hidden behind an obstacle or out of the frame, resulting in a frame that cannot be tracked. So that the focus distance does not fluctuate greatly, the subject area and focus distance in the untracked frame are interpolated from the subject area and focus distance in the frame that can be tracked before and after. May be.

(その他の実施形態)
なお、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
(Other embodiments)
It should be noted that the present invention can also take the form of, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

30 情報処理装置、31 入力部、32 出力部、33 データベース、34 画像処理部、35 画像登録部、36 被写体抽出部 30 Information Processing Device, 31 Input Unit, 32 Output Unit, 33 Database, 34 Image Processing Unit, 35 Image Registration Unit, 36 Subject Extraction Unit

Claims (13)

多視点撮影した画像から、着目する被写体に焦点を合わせた合成画像を生成する情報処理装置であって、
多視点撮影した画像を保持する画像保持手段と、
前記合成画像の利用者を入力する入力手段と、
被写体に関する情報と、前記合成画像の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持手段と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識手段と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定手段と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成手段と、
を備えることを特徴とする情報処理装置。
An information processing apparatus that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
Image holding means for holding images taken from multiple viewpoints;
Input means for inputting a user of the composite image;
Subject information holding means for holding information about the subject and relationship information indicating a relationship between the user of the composite image and the subject;
Recognizing means for recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
Determining means for determining a subject of interest from the recognized subjects based on the relationship information;
Generating means for generating a composite image focused on the subject of interest from the multi-viewpoint image;
An information processing apparatus comprising:
多視点撮影した画像を保持する画像保持手段と、
被写体に関する情報と、前記多視点撮影した画像の撮影者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持手段と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識手段と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定手段と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成手段と、
を備えることを特徴とする情報処理装置。
Image holding means for holding images taken from multiple viewpoints;
Subject information holding means for holding information about the subject and relationship information indicating a relationship between a photographer of the image taken from the multi-viewpoint and the subject;
Recognizing means for recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
Determining means for determining a subject of interest from the recognized subjects based on the relationship information;
Generating means for generating a composite image focused on the subject of interest from the multi-viewpoint image;
An information processing apparatus comprising:
多視点撮影した画像から、着目する被写体に焦点を合わせた合成画像を生成する情報処理装置であって、
多視点撮影した画像を保持する画像保持手段と、
被写体に関する情報と、前記情報処理装置の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持手段と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識手段と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定手段と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成手段と、
を備えることを特徴とする情報処理装置。
An information processing apparatus that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
Image holding means for holding images taken from multiple viewpoints;
Subject information holding means for holding information about a subject and relationship information indicating a relationship between a user of the information processing apparatus and the subject;
Recognizing means for recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
Determining means for determining a subject of interest from the recognized subjects based on the relationship information;
Generating means for generating a composite image focused on the subject of interest from the multi-viewpoint image;
An information processing apparatus comprising:
前記被写体に関する情報は、予め学習された被写体の特徴情報であることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 Information relating to the subject, an information processing apparatus according to any one of claims 1 to 3, characterized in that the characteristic information learned in advance the subject. 前記関係情報は、多視点撮影した画像における被写体の出現頻度を含み、
前記生成手段は、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から、前記出現頻度が多い順に生成することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
The relationship information includes the appearance frequency of the subject in the multi-viewpoint image,
Said generating means, wherein a composite image focused on the subject of the noted from the multi-viewpoint captured image, in any one of claims 1 to 4, wherein the generating sequentially the occurrence frequency is high Information processing device.
前記決定手段が、複数の被写体を前記着目する被写体として決定した場合、
前記生成手段は、前記着目する被写体それぞれのフォーカス距離に基づいたフォーカス距離と深度幅が複数の着目する被写体をカバーする開口径のパラメータとを設定し、複数の着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
When the determining means determines a plurality of subjects as the subject of interest,
The generating means sets a focus distance based on a focus distance of each of the subjects of interest and an aperture diameter parameter that covers a plurality of subjects of interest with a depth width, and combines the plurality of subjects of interest in focus. the information processing apparatus according to any one of claims 1 to 5, characterized in that to generate the image from the multi-view pictures.
前記被写体間の関係を示す情報を管理する外部サービスに前記情報処理装置が接続されている場合、該外部サービスにより管理された関係情報と、前記被写体情報保持手段により管理された関係情報とを連携させる連携手段を更に具備することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 When the information processing apparatus is connected to an external service that manages information indicating the relationship between the subjects, the relationship information managed by the external service and the relationship information managed by the subject information holding unit are linked. the information processing apparatus according to any one of claims 1 to 6, characterized by further comprising a linkage means for. 多視点撮影した画像から、着目する被写体に焦点を合わせた合成画像を生成する情報処理装置の処理方法であって、
画像保持手段が、多視点撮影した画像を保持する工程と、
入力手段が、前記合成画像の利用者を入力する工程と、
被写体情報保持手段が被写体に関する情報と、前記合成画像の利用者と前記被写体との関係を示す関係情報と、を保持する工程と、
認識手段が、前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する工程と、
決定手段が、前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する工程と、
生成手段が、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する工程と、
を含むことを特徴とする処理方法。
A processing method of an information processing device that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
An image holding means for holding an image taken from multiple viewpoints;
An input means for inputting a user of the composite image;
Subject information holding means, the step of holding the information about the object, and a relation information showing the relation between the object and the user of the composite image,
A step of recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
A step of determining a subject of interest from the recognized subjects based on the relationship information;
A generating unit generating a composite image focused on the subject of interest from the multi-viewpoint captured image;
The processing method characterized by including.
情報処理装置の処理方法であって、
画像保持手段が、多視点撮影した画像を保持する工程と、
被写体情報保持手段が、被写体に関する情報と、前記多視点撮影した画像の撮影者と前記被写体との関係を示す関係情報と、を保持する工程と、
認識手段が、前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する工程と、
決定手段が、前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する工程と、
生成手段が、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する工程と、
を備えることを特徴とする処理方法。
A processing method for an information processing apparatus,
An image holding means for holding an image taken from multiple viewpoints;
Subject information holding means for holding information about the subject and relationship information indicating a relationship between a photographer of the image taken from the multi-viewpoint and the subject;
A step of recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
A step of determining a subject of interest from the recognized subjects based on the relationship information;
A generating unit generating a composite image focused on the subject of interest from the multi-viewpoint captured image;
A processing method comprising:
多視点撮影した画像から、着目する被写体に焦点を合わせた合成画像を生成する情報処理装置の処理方法であって、
画像保持手段が、多視点撮影した画像を保持する工程と、
被写体情報保持手段が、被写体に関する情報と、前記情報処理装置の利用者と前記被写体との関係を示す関係情報と、を保持する工程と、
認識手段が、前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する工程と、
決定手段が、前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する工程と、
生成手段が、前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する工程と、
を備えることを特徴とする処理方法。
A processing method of an information processing device that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
An image holding means for holding an image taken from multiple viewpoints;
Subject information holding means for holding information about a subject and relationship information indicating a relationship between a user of the information processing apparatus and the subject;
A step of recognizing a subject based on information on the subject with respect to the multi-viewpoint image;
A step of determining a subject of interest from the recognized subjects based on the relationship information;
A generating unit generating a composite image focused on the subject of interest from the multi-viewpoint captured image;
A processing method comprising:
多視点撮影した画像から、着目する被写体に焦点を合わせた合成画像を生成する情報処理装置に備えられたコンピュータに、
多視点撮影した画像を保持する画像保持工程と、
前記合成画像の利用者を入力する入力
被写体に関する情報と、前記合成画像の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持工程と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識工程と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定工程と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成工程と、
を実行させるためのプログラム。
In a computer provided in an information processing device that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
An image holding process for holding images taken from multiple viewpoints;
And as the input engineering to enter a user of the composite image,
A subject information holding step for holding information about a subject and relationship information indicating a relationship between a user of the composite image and the subject;
A recognition step for recognizing a subject based on information about the subject with respect to the multi-viewpoint image;
A determining step of determining a subject of interest from the recognized subjects based on the relationship information;
Generating a composite image focused on the subject of interest from the multi-viewpoint image;
A program for running
情報処理装置に備えられたコンピュータに、
多視点撮影した画像を保持する画像保持工程と、
被写体に関する情報と、前記多視点撮影した画像の撮影者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持工程と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識工程と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定工程と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成工程と、
を実行させるためのプログラム。
In the computer equipped with the information processing device,
An image holding process for holding images taken from multiple viewpoints;
A subject information holding step for holding information about a subject and relationship information indicating a relationship between a photographer of the image taken from the multi-viewpoint and the subject;
A recognition step for recognizing a subject based on information about the subject with respect to the multi-viewpoint image;
A determining step of determining a subject of interest from the recognized subjects based on the relationship information;
Generating a composite image focused on the subject of interest from the multi-viewpoint image;
A program for running
多視点撮影した画像から、着目する被写体に焦点を合わせた合成画像を生成する情報処理装置に備えられたコンピュータに、
多視点撮影した画像を保持する画像保持工程と、
被写体に関する情報と、前記情報処理装置の利用者と前記被写体との関係を示す関係情報と、を保持する被写体情報保持工程と、
前記多視点撮影した画像に対し前記被写体に関する情報に基づいて被写体を認識する認識工程と、
前記関係情報に基づいて、前記認識された被写体から着目する被写体を決定する決定工程と、
前記着目する被写体に焦点を合わせた合成画像を前記多視点撮影した画像から生成する生成工程と、
を実行させるためのプログラム。
In a computer provided in an information processing device that generates a composite image focused on a subject of interest from an image taken from multiple viewpoints,
An image holding process for holding images taken from multiple viewpoints;
A subject information holding step for holding information about a subject and relationship information indicating a relationship between a user of the information processing apparatus and the subject;
A recognition step for recognizing a subject based on information about the subject with respect to the multi-viewpoint image;
A determining step of determining a subject of interest from the recognized subjects based on the relationship information;
Generating a composite image focused on the subject of interest from the multi-viewpoint image;
A program for running
JP2016018225A 2016-02-02 2016-02-02 Information processing apparatus, processing method thereof, and program Active JP6082484B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016018225A JP6082484B2 (en) 2016-02-02 2016-02-02 Information processing apparatus, processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016018225A JP6082484B2 (en) 2016-02-02 2016-02-02 Information processing apparatus, processing method thereof, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012070187A Division JP5882805B2 (en) 2012-03-26 2012-03-26 Information processing apparatus, processing method thereof, and program

Publications (2)

Publication Number Publication Date
JP2016119694A JP2016119694A (en) 2016-06-30
JP6082484B2 true JP6082484B2 (en) 2017-02-15

Family

ID=56242491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016018225A Active JP6082484B2 (en) 2016-02-02 2016-02-02 Information processing apparatus, processing method thereof, and program

Country Status (1)

Country Link
JP (1) JP6082484B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP5413119B2 (en) * 2009-10-09 2014-02-12 ソニー株式会社 Imaging apparatus, imaging method, and imaging program
JP5882805B2 (en) * 2012-03-26 2016-03-09 キヤノン株式会社 Information processing apparatus, processing method thereof, and program

Also Published As

Publication number Publication date
JP2016119694A (en) 2016-06-30

Similar Documents

Publication Publication Date Title
JP5882805B2 (en) Information processing apparatus, processing method thereof, and program
US10769590B2 (en) Systems and methods for sharing images in a social network
US10783276B2 (en) Systems and methods for multiple photo feed stories
US8611678B2 (en) Grouping digital media items based on shared features
US20180005040A1 (en) Event-based image classification and scoring
JP5934653B2 (en) Image classification device, image classification method, program, recording medium, integrated circuit, model creation device
US10459968B2 (en) Image processing system and image processing method
KR20130102549A (en) Automatic media sharing via shutter click
JP5667069B2 (en) Content management apparatus, content management method, content management program, and integrated circuit
JP6396897B2 (en) Search for events by attendees
JP6947085B2 (en) Electronic devices and their control methods
US9973649B2 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
CN105630791B (en) Network album browsing method and device
US9081801B2 (en) Metadata supersets for matching images
JP5924114B2 (en) Information processing apparatus, information processing method, computer program, and image display apparatus
JP2004280254A (en) Contents categorizing method and device
KR101479260B1 (en) Method for searching closeness between people based on photos
JP2014182650A (en) Image sharing device, method for controlling image sharing device and program
JP6082484B2 (en) Information processing apparatus, processing method thereof, and program
KR101563238B1 (en) Apparatus and method for creating closeness between people based on photos, and computer-readable recording medium with program therefor
JP2014042170A (en) Photographing system, photographing support method, photographing device and control method of the same, management device and control method of the same, and program
JP6071714B2 (en) Image processing apparatus and control method thereof
KR20110013073A (en) File tagging namer
KR20140075903A (en) Categorization method of social network service archieve
JP6159150B2 (en) Image processing apparatus, control method therefor, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20161118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170120

R151 Written notification of patent or utility model registration

Ref document number: 6082484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151