JP2017184021A - Content providing device and content providing program - Google Patents

Content providing device and content providing program Download PDF

Info

Publication number
JP2017184021A
JP2017184021A JP2016068589A JP2016068589A JP2017184021A JP 2017184021 A JP2017184021 A JP 2017184021A JP 2016068589 A JP2016068589 A JP 2016068589A JP 2016068589 A JP2016068589 A JP 2016068589A JP 2017184021 A JP2017184021 A JP 2017184021A
Authority
JP
Japan
Prior art keywords
scene
content
information
evaluation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016068589A
Other languages
Japanese (ja)
Inventor
義隆 井上
Yoshitaka Inoue
義隆 井上
山田 和宏
Kazuhiro Yamada
和宏 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2016068589A priority Critical patent/JP2017184021A/en
Publication of JP2017184021A publication Critical patent/JP2017184021A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a content suitable for a user for each photographic scene.SOLUTION: A content providing device 10 comprises an image acquisition unit 11 that acquires a target image as an image to be processed, an evaluation information acquisition unit 13 that acquires evaluation information associated with a plurality of evaluation items including a photographic scene to the target image, a scene dependent user information extraction unit 17 that extracts scene dependent user information being information associated with a user for each photographic scene on the basis of the evaluation information, a content storage unit 19 that stores a plurality of contents associated with imaging, a content selection unit 20 that selects the content from the plurality of contents stored in the content storage unit 19 on the basis of the scene dependent user information, and an output unit 22 that outputs the content selected by the content selection unit 20.SELECTED DRAWING: Figure 1

Description

本発明は、コンテンツ提供装置及びコンテンツ提供プログラムに関する。   The present invention relates to a content providing apparatus and a content providing program.

従来、ユーザの撮影技術を向上するために、ユーザによって撮影された画像に基づいて、アドバイスを提供する手法がある。例えば、特許文献1には、撮影アドバイスを初級者用、中級者用、及び上級者用に分け、ユーザの撮影レベルに応じた撮影アドバイスを表示するカメラが記載されている。   Conventionally, in order to improve a user's photographing technique, there is a method of providing advice based on an image photographed by a user. For example, Patent Document 1 describes a camera that divides shooting advice for beginners, intermediate users, and advanced users and displays shooting advice according to the shooting level of the user.

特開2000−333045号公報JP 2000-333045 A

しかしながら、撮影シーンによって、ユーザの撮影技術及びユーザの嗜好等が異なることがある。例えば、風景の撮影が得意であるが、ポートレイトの撮影は苦手であるユーザが存在することがある。また、ユーザが好きな写真家が風景の写真と夜景の写真とで異なることもある。特許文献1に記載のカメラでは、撮影シーンごとのユーザの撮影技術及び嗜好等が考慮されていない。このため、ユーザに適したアドバイスが表示されないおそれがある。本技術分野では、撮影シーンごとにユーザに適したアドバイス等のコンテンツを提供することが望まれている。   However, the user's shooting technique, user's preference, and the like may differ depending on the shooting scene. For example, there may be a user who is good at shooting landscapes but is not good at portrait shooting. In addition, a photographer who likes the user may differ between a landscape photograph and a night view photograph. In the camera described in Patent Literature 1, the user's shooting technique and preference for each shooting scene are not considered. For this reason, there is a possibility that advice suitable for the user may not be displayed. In this technical field, it is desired to provide content such as advice suitable for the user for each shooting scene.

本発明は、撮影シーンごとにユーザに適したコンテンツを提供可能なコンテンツ提供装置及びコンテンツ提供プログラムを提供する。   The present invention provides a content providing apparatus and a content providing program capable of providing content suitable for a user for each shooting scene.

本発明の一側面に係るコンテンツ提供装置は、処理対象の画像である対象画像を取得する画像取得手段と、画像取得手段によって取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段と、評価情報取得手段によって取得された評価情報に基づいて、撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報を抽出する抽出手段と、撮影に関する複数のコンテンツを格納するコンテンツ格納手段と、抽出手段によって抽出されたシーン別ユーザ情報に基づいて、コンテンツ格納手段に格納されている複数のコンテンツからコンテンツを選択する選択手段と、選択手段によって選択されたコンテンツを出力する出力手段と、を備える。   A content providing apparatus according to an aspect of the present invention relates to an image acquisition unit that acquires a target image that is an image to be processed, and a plurality of evaluation items that include a shooting scene with respect to the target image acquired by the image acquisition unit. Evaluation information acquisition means for acquiring evaluation information, extraction means for extracting user information by scene, which is information relating to the user for each shooting scene, based on the evaluation information acquired by the evaluation information acquisition means, and a plurality of contents relating to shooting Content storage means for storing the content, selection means for selecting content from a plurality of contents stored in the content storage means based on the user information for each scene extracted by the extraction means, and the content selected by the selection means Output means for outputting.

本発明の別の側面に係るコンテンツ提供プログラムは、処理対象の画像である対象画像を取得する画像取得手段と、画像取得手段によって取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段と、評価情報取得手段によって取得された評価情報に基づいて、撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報を抽出する抽出手段と、抽出手段によって抽出されたシーン別ユーザ情報に基づいて、撮影に関する複数のコンテンツからコンテンツを選択する選択手段と、選択手段によって選択されたコンテンツを出力する出力手段と、してコンピュータを機能させる。   A content providing program according to another aspect of the present invention includes an image acquisition unit that acquires a target image that is a processing target image, and a plurality of evaluation items that include a shooting scene with respect to the target image acquired by the image acquisition unit. The evaluation information acquisition means for acquiring the evaluation information regarding, the extraction means for extracting user information for each scene, which is information about the user for each shooting scene, based on the evaluation information acquired by the evaluation information acquisition means, and the extraction means Based on the scene-specific user information, the computer functions as a selection unit that selects content from a plurality of content related to shooting and an output unit that outputs the content selected by the selection unit.

このコンテンツ提供装置及びコンテンツ提供プログラムでは、取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報が取得され、評価情報に基づいて、撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報が抽出される。そして、シーン別ユーザ情報に基づいて、撮影に関する複数のコンテンツからコンテンツが選択されて出力される。これにより、撮影シーンに応じたユーザに関する情報が考慮されてコンテンツが選択されるので、撮影シーンごとにユーザに適したコンテンツを提供することが可能となる。   In the content providing apparatus and the content providing program, evaluation information regarding a plurality of evaluation items including a photographic scene is acquired for the acquired target image, and a scene that is information regarding a user for each photographic scene based on the evaluation information. Another user information is extracted. Then, based on the user information for each scene, the content is selected from a plurality of contents related to shooting and output. As a result, the content is selected in consideration of information related to the user according to the shooting scene, so that it is possible to provide content suitable for the user for each shooting scene.

評価情報は、予め定められた評価基準に基づいて算出される評価値を含んでもよい。抽出手段は、評価情報取得手段によって取得された評価値を撮影シーンごとに集計することによって、撮影シーンごとの評価値であるシーン別評価値を算出し、シーン別評価値をシーン別ユーザ情報として抽出してもよい。シーン別評価値は、撮影シーンごとのユーザの撮影技術を反映した値とみなされ得る。このため、撮影シーンごとのユーザの撮影技術が考慮されてコンテンツが選択されるので、撮影シーンごとのユーザの撮影技術に応じたコンテンツを提供することが可能となる。   The evaluation information may include an evaluation value calculated based on a predetermined evaluation criterion. The extraction means calculates the evaluation value for each scene, which is the evaluation value for each shooting scene, by counting the evaluation values acquired by the evaluation information acquisition means for each shooting scene, and uses the evaluation value for each scene as the user information for each scene. It may be extracted. The evaluation value for each scene can be regarded as a value reflecting the user's shooting technique for each shooting scene. For this reason, the content is selected in consideration of the user's shooting technique for each shooting scene, and therefore it is possible to provide content according to the user's shooting technique for each shooting scene.

抽出手段は、複数の写真家のうち撮影シーンごとにユーザが好む写真家を示すシーン別嗜好情報をシーン別ユーザ情報として抽出してもよい。シーン別嗜好情報は、撮影シーンごとのユーザの嗜好を表す。このため、撮影シーンごとのユーザの嗜好が考慮されてコンテンツが選択されるので、撮影シーンごとのユーザの嗜好に応じたコンテンツを提供することが可能となる。   The extraction means may extract the preference information by scene indicating the photographer preferred by the user for each shooting scene among the plurality of photographers as the user information by scene. The scene-specific preference information represents the user's preference for each shooting scene. For this reason, since the user's preference for each shooting scene is taken into consideration, the content is selected according to the user's preference for each shooting scene.

抽出手段は、複数の写真家のそれぞれについて当該写真家が撮影する撮影シーンの傾向を示す特徴情報と、複数の写真家のうちユーザが好む写真家を示す嗜好情報と、に基づいて、シーン別嗜好情報を算出してもよい。この場合、撮影シーンごとにユーザが好む写真家を逐一選択することなく、シーン別嗜好情報を得ることができる。   The extraction unit is configured to analyze each scene based on feature information indicating a tendency of a shooting scene taken by the photographer for each of the plurality of photographers and preference information indicating a photographer preferred by the user among the plurality of photographers. Preference information may be calculated. In this case, the preference information for each scene can be obtained without selecting the photographer preferred by the user for each shooting scene.

上記コンテンツ提供装置は、シーン別嗜好情報を更新する更新手段を更に備えてもよい。この場合、ユーザの嗜好の変化に応じて、選択されるコンテンツを変更することができる。   The content providing apparatus may further include update means for updating the preference information for each scene. In this case, the selected content can be changed according to a change in the user's preference.

上記コンテンツ提供装置は、シーン別ユーザ情報に基づいて、選択手段によって選択されたコンテンツを編集する編集手段を更に備えてもよい。出力手段は、編集手段によって編集されたコンテンツを出力してもよい。この場合、例えば、撮影シーンごとのユーザに関する情報をコンテンツに反映させることによって、ユーザの興味を惹くことができる。これにより、提供されたコンテンツに対するユーザの閲覧率を向上することが可能となる。   The content providing apparatus may further include an editing unit that edits the content selected by the selection unit based on the scene-specific user information. The output unit may output the content edited by the editing unit. In this case, for example, the user's interest can be attracted by reflecting the information about the user for each shooting scene in the content. Thereby, it becomes possible to improve a user's browsing rate with respect to the provided content.

本発明によれば、撮影シーンごとにユーザに適したコンテンツを提供することができる。   According to the present invention, it is possible to provide content suitable for the user for each shooting scene.

第1実施形態に係るコンテンツ提供装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the content provision apparatus which concerns on 1st Embodiment. 図1のコンテンツ提供装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the content provision apparatus of FIG. 評価情報の一例を示す図である。It is a figure which shows an example of evaluation information. ユーザ嗜好情報の一例を示す図である。It is a figure which shows an example of user preference information. 写真家情報の一例を示す図である。It is a figure which shows an example of photographer information. シーン別評価テーブルの一例を示す図である。It is a figure which shows an example of the evaluation table classified by scene. シーン別嗜好写真家テーブルの一例を示す図である。It is a figure which shows an example of the preference photographer table classified by scene. コンテンツテーブルの一例を示す図である。It is a figure which shows an example of a content table. 図1のコンテンツ提供装置によって出力された合成画像の例を示す図である。It is a figure which shows the example of the synthesized image output by the content provision apparatus of FIG. 図1のコンテンツ提供装置によって出力された合成画像の例を示す図である。It is a figure which shows the example of the synthesized image output by the content provision apparatus of FIG. 図1のコンテンツ提供装置によって出力された合成画像の例を示す図である。It is a figure which shows the example of the synthesized image output by the content provision apparatus of FIG. 図1のコンテンツ提供装置によって出力された合成画像の例を示す図である。It is a figure which shows the example of the synthesized image output by the content provision apparatus of FIG. 図1のコンテンツ提供装置によって出力された合成画像の例を示す図である。It is a figure which shows the example of the synthesized image output by the content provision apparatus of FIG. 図1のユーザ嗜好情報更新部によって更新された嗜好写真家テーブルの一例を示す図である。It is a figure which shows an example of the preference photographer table updated by the user preference information update part of FIG. 図1のコンテンツ提供装置が行うコンテンツ提供方法の一連の処理を示すフローチャートである。It is a flowchart which shows a series of processes of the content provision method which the content provision apparatus of FIG. 1 performs. コンテンツ提供プログラムを説明するための図である。It is a figure for demonstrating a content provision program. 第2実施形態に係るコンテンツ提供装置を含むコンテンツ配信システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the content delivery system containing the content provision apparatus which concerns on 2nd Embodiment.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(第1実施形態)
第1実施形態に係るコンテンツ提供装置について説明する。図1は、第1実施形態のコンテンツ提供装置の機能構成を示すブロック図である。図1に示されるコンテンツ提供装置10は、ユーザによって用いられる装置である。コンテンツ提供装置10は、例えば、デジタルカメラ、携帯電話機、スマートフォン、タブレット端末及びPC(Personal Computer)を含む端末装置である。なお、以降の説明においては、コンテンツ提供装置10は、カメラ機能を有するスマートフォン等の端末であることを主に想定して説明を行うが、コンテンツ提供装置10は、カメラ機能を有する端末に限定されない。
(First embodiment)
A content providing apparatus according to the first embodiment will be described. FIG. 1 is a block diagram illustrating a functional configuration of the content providing apparatus according to the first embodiment. A content providing apparatus 10 shown in FIG. 1 is an apparatus used by a user. The content providing device 10 is a terminal device including, for example, a digital camera, a mobile phone, a smartphone, a tablet terminal, and a PC (Personal Computer). In the following description, the content providing apparatus 10 will be described mainly assuming that the content providing apparatus 10 is a terminal such as a smartphone having a camera function. However, the content providing apparatus 10 is not limited to a terminal having a camera function. .

コンテンツ提供装置10は、処理対象の画像である対象画像に対して、撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報に基づいて、コンテンツを選択し、選択したコンテンツを提供する装置である。対象画像としては、例えば、人物、動物、及び風景等の被写体を含んだ写真等が挙げられる。撮影シーンとは、例えば、風景、ポートレイト、飛行機、水中、天体、マクロ、及び夜景等である。提供されるコンテンツは、撮影に関するコンテンツであり、コンテンツの種類には例えば、アドバイス、記事、広告、及び写真等がある。コンテンツ提供装置10は、例えば、図2に示されるハードウェアによって構成されている。   The content providing apparatus 10 is an apparatus that selects content based on scene-specific user information that is information related to a user for each shooting scene, and provides the selected content with respect to a target image that is a processing target image. Examples of the target image include photographs including subjects such as people, animals, and landscapes. Shooting scenes include, for example, landscapes, portraits, airplanes, underwater, celestial bodies, macros, and night views. The provided content is content related to shooting, and examples of content types include advice, articles, advertisements, and photos. The content providing apparatus 10 is configured by, for example, hardware shown in FIG.

図2は、コンテンツ提供装置10のハードウェア構成を示す図である。図2に示されるように、コンテンツ提供装置10は、物理的には、1又は複数のCPU(Central Processing Unit)101と、主記憶装置であるRAM(RandomAccess Memory)102及びROM(Read Only Memory)103と、データ送受信デバイスである通信モジュール104と、ハードディスク及び半導体メモリ等の補助記憶装置105と、入力キー及びタッチセンサ等のユーザの入力を受け付ける入力装置106と、ディスプレイ等の出力装置107と、カメラモジュール108と、を備えるコンピュータとして構成されている。図1に示されるコンテンツ提供装置10の各機能は、CPU101、RAM102等のハードウェア上に1又は複数の所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール104、入力装置106、出力装置107、及びカメラモジュール108を動作させるとともに、RAM102及び補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。   FIG. 2 is a diagram illustrating a hardware configuration of the content providing apparatus 10. As shown in FIG. 2, the content providing apparatus 10 physically includes one or more CPUs (Central Processing Units) 101, a RAM (Random Access Memory) 102 and a ROM (Read Only Memory) that are main storage devices. 103, a communication module 104 that is a data transmission / reception device, an auxiliary storage device 105 such as a hard disk and a semiconductor memory, an input device 106 that accepts user input such as input keys and touch sensors, an output device 107 such as a display, And a camera module 108. Each function of the content providing apparatus 10 shown in FIG. 1 is configured such that one or a plurality of predetermined computer software is read on hardware such as the CPU 101 and the RAM 102, so that the communication module 104 and the input device are controlled under the control of the CPU 101. 106, the output device 107, and the camera module 108 are operated, and data is read and written in the RAM 102 and the auxiliary storage device 105.

再び図1を参照して、コンテンツ提供装置10の各機能の詳細を説明する。コンテンツ提供装置10は、機能的には、画像取得部11と、画像情報格納部12と、評価情報取得部13と、評価情報格納部14と、ユーザ嗜好情報格納部15と、写真家情報格納部16と、シーン別ユーザ情報抽出部17と、シーン別ユーザ情報格納部18と、コンテンツ格納部19と、コンテンツ選択部20と、コンテンツ編集部21と、出力部22と、ユーザ嗜好情報更新部23と、を備えている。   With reference to FIG. 1 again, details of each function of the content providing apparatus 10 will be described. Functionally, the content providing apparatus 10 functionally includes an image acquisition unit 11, an image information storage unit 12, an evaluation information acquisition unit 13, an evaluation information storage unit 14, a user preference information storage unit 15, and photographer information storage. Unit 16, scene-specific user information extraction unit 17, scene-specific user information storage unit 18, content storage unit 19, content selection unit 20, content editing unit 21, output unit 22, and user preference information update unit 23.

画像取得部11は、対象画像を取得する画像取得手段として機能する。画像取得部11は、例えばカメラモジュール108によって実現される。具体的には、画像取得部11は、レンズ及び光学素子等の複数の光学系の部品と、それらを駆動制御する複数の制御系の回路と、受光素子によって取得された対象画像を表す電気信号をデジタル信号である画像信号に変換する信号処理系の回路部と、を含む。画像取得部11は、画像信号を含む画像情報を画像情報格納部12に格納する。取得される画像情報は、動画像の情報であってもよいし、静止画像の情報であってもよい。   The image acquisition unit 11 functions as an image acquisition unit that acquires a target image. The image acquisition unit 11 is realized by the camera module 108, for example. Specifically, the image acquisition unit 11 includes a plurality of optical system components such as lenses and optical elements, a plurality of control system circuits that drive and control them, and an electrical signal that represents a target image acquired by the light receiving element. A signal processing system circuit unit for converting the signal into an image signal which is a digital signal. The image acquisition unit 11 stores image information including an image signal in the image information storage unit 12. The acquired image information may be moving image information or still image information.

コンテンツ提供装置10がカメラ機能を有しない場合、画像取得部11は、例えば、他の装置(例えば上述したカメラ機能を有する端末等)によって撮影された画像を当該他の装置から受け取ることにより、対象画像を取得する。例えば、コンテンツ提供装置10が他の装置から通信ネットワークを介して画像ファイルを受信する場合、画像ファイルの受信処理を行う部分(通信モジュール104等)が画像取得部11として機能する。画像取得部11により取得される対象画像(動画像の場合には各フレーム)は、例えば、各画素(ピクセル)の画素値(例えば、輝度、明度及び色彩等の画素に関する数値)を示す画像情報として取得される。画像取得部11は、このような画像情報を画像情報格納部12に出力して格納する。   When the content providing apparatus 10 does not have a camera function, the image acquisition unit 11 receives, for example, an image captured by another apparatus (for example, a terminal having the camera function described above) from the other apparatus. Get an image. For example, when the content providing apparatus 10 receives an image file from another apparatus via a communication network, a part that performs image file reception processing (such as the communication module 104) functions as the image acquisition unit 11. The target image (each frame in the case of a moving image) acquired by the image acquisition unit 11 is, for example, image information indicating a pixel value of each pixel (for example, a numerical value related to a pixel such as luminance, brightness, and color). Get as. The image acquisition unit 11 outputs and stores such image information to the image information storage unit 12.

画像情報格納部12は、画像取得部11によって取得された画像情報を格納する画像情報格納手段として機能する。画像情報格納部12に格納されている画像情報は、評価情報取得部13及び出力部22により参照される。   The image information storage unit 12 functions as an image information storage unit that stores the image information acquired by the image acquisition unit 11. The image information stored in the image information storage unit 12 is referred to by the evaluation information acquisition unit 13 and the output unit 22.

評価情報取得部13は、画像取得部11によって取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段として機能する。評価情報には、対象画像の画像全体の見栄えの良し悪しに関する評価値、対象画像の撮影条件に関する撮影情報、及び対象画像の撮影シーンを示す撮影シーン情報が含まれる。評価値は、複数の評価項目のそれぞれについて予め定められた評価基準に基づいて算出される。   The evaluation information acquisition unit 13 functions as an evaluation information acquisition unit that acquires evaluation information regarding a plurality of evaluation items including a shooting scene for the target image acquired by the image acquisition unit 11. The evaluation information includes an evaluation value related to the overall appearance of the target image, shooting information related to the shooting conditions of the target image, and shooting scene information indicating the shooting scene of the target image. The evaluation value is calculated based on an evaluation criterion that is predetermined for each of the plurality of evaluation items.

図3は、評価情報の一例を示す図である。図3に示される例では、評価項目には、「総合スコア」、「Comp」、「Noise」、「Pint」、「Vivid」、「Cont」、「F」、「Ss」、「Iso」、「焦点距離」、「ボディ名称」、及び「撮影シーン」が含まれる。   FIG. 3 is a diagram illustrating an example of the evaluation information. In the example shown in FIG. 3, the evaluation items include “total score”, “Comp”, “Noise”, “Pint”, “Vivid”, “Cont”, “F”, “Ss”, “Iso”, “Focal distance”, “Body name”, and “Shooting scene” are included.

「総合スコア」は、対象画像の総合的な評価についての評価項目である。「総合スコア」の評価情報は、「Comp」、「Noise」、「Pint」、「Vivid」、及び「Cont」の評価値を合計した評価値である。「Comp」は、対象画像が予め設定された構図パターンに忠実であるか否かについての評価項目である。「Comp」の評価情報は、例えば+100〜−100の値を取り得る評価値である。「Noise」は、対象画像に不要な映り込みがないか否かについての評価項目である。「Noise」の評価情報は、例えば+100〜−100の値を取り得る評価値である。「Pint」は、対象画像のピントが合っているか(被写体がぶれていないか)否かについての評価項目である。「Pint」の評価情報は、例えば+100〜−100の値を取り得る評価値である。「Vivid」は、対象画像の色が適度に鮮やかであるか否かについての評価項目である。「Vivid」の評価情報は、例えば+100〜−100の値を取り得る評価値である。「Cont」は、対象画像のコントラストが適正であるか否かについての評価項目である。「Cont」の評価情報は、例えば+100〜−100の値を取り得る評価値である。   The “total score” is an evaluation item for comprehensive evaluation of the target image. The evaluation information of “total score” is an evaluation value obtained by summing evaluation values of “Comp”, “Noise”, “Pint”, “Vivid”, and “Cont”. “Comp” is an evaluation item as to whether or not the target image is faithful to a preset composition pattern. The evaluation information “Comp” is an evaluation value that can take a value of +100 to −100, for example. “Noise” is an evaluation item as to whether or not there is an unnecessary reflection in the target image. The evaluation information of “Noise” is an evaluation value that can take a value of +100 to −100, for example. “Pint” is an evaluation item as to whether or not the target image is in focus (the subject is not blurred). The evaluation information of “Pint” is an evaluation value that can take a value of +100 to −100, for example. “Vivid” is an evaluation item as to whether or not the color of the target image is moderately vivid. The evaluation information “Vivid” is, for example, an evaluation value that can take a value of +100 to −100. “Cont” is an evaluation item as to whether or not the contrast of the target image is appropriate. The evaluation information “Cont” is an evaluation value that can take a value of +100 to −100, for example.

「F」は、カメラのレンズの絞りについての評価項目である。「F」の評価情報は、対象画像を撮影したカメラが有するレンズの絞りに対する設定値(F値)であり、例えば1.4、2.0、2.8、4.0、及び5.6等に設定される。「Ss」は、カメラのシャッタースピードについての評価項目である。「Ss」の評価情報は、対象画像を撮影したカメラのシャッタースピードに対する設定値である。「Iso」は、カメラのISO感度についての評価項目である。「Iso」の評価情報は、対象画像を撮影したカメラのISO感度に対する設定値である。「焦点距離」は、カメラの撮像面から焦点までの距離についての評価項目である。「焦点距離」の評価情報は、対象画像を撮影したカメラの撮像面から焦点までの距離に対する設定値であり、広角であれば短く設定され、望遠であれば長く設定される。「ボディ名称」は、カメラ本体の名称についての評価項目である。「ボディ名称」の評価情報は、対象画像を撮影したカメラ本体の名称を示す文字列である。「撮影シーン」は、対象画像の撮影シーンについての評価項目である。「撮影シーン」の評価情報は、対象画像の撮影シーンを示す撮影シーン情報である。   “F” is an evaluation item for the aperture of the lens of the camera. The evaluation information “F” is a set value (F value) with respect to the aperture of the lens of the camera that captured the target image. For example, 1.4, 2.0, 2.8, 4.0, and 5.6. Etc. “Ss” is an evaluation item for the shutter speed of the camera. The evaluation information “Ss” is a set value for the shutter speed of the camera that captured the target image. “Iso” is an evaluation item for the ISO sensitivity of the camera. The evaluation information “Iso” is a set value for the ISO sensitivity of the camera that has captured the target image. “Focal distance” is an evaluation item for the distance from the imaging surface of the camera to the focal point. The evaluation information of “focal length” is a set value with respect to the distance from the imaging surface of the camera that captured the target image to the focal point, and is set to be short for a wide angle and set to be long for a telephoto. “Body name” is an evaluation item for the name of the camera body. The evaluation information of “body name” is a character string indicating the name of the camera body that captured the target image. The “shooting scene” is an evaluation item for the shooting scene of the target image. The evaluation information of “shooting scene” is shooting scene information indicating the shooting scene of the target image.

まず、対象画像についての評価値を取得する処理の一例について説明する。評価情報取得部13は、例えば、対象画像を部分領域に分割する。部分領域は、任意の領域分割の手法を用いて対象画像を分割して得られる領域である。領域分割の手法自体は公知であるため詳細な説明を省略するが、例えば、評価情報取得部13は、画像情報格納部12に格納されている画像情報を参照し、各画素の画素値に基づいてエッジ検出等の処理を実行する。このような領域分割の処理を実行することにより、評価情報取得部13は、各部分領域が予め定められた一様性の基準を満たし、且つ、隣接する2つの部分領域の和集合が上記一様性の基準を満たさないように、画像を互いに重ならない複数の部分領域に分割する。   First, an example of processing for acquiring an evaluation value for a target image will be described. For example, the evaluation information acquisition unit 13 divides the target image into partial regions. The partial area is an area obtained by dividing the target image using an arbitrary area dividing method. Since the method of area division itself is known, detailed description thereof is omitted. For example, the evaluation information acquisition unit 13 refers to the image information stored in the image information storage unit 12 and based on the pixel value of each pixel. To execute processing such as edge detection. By executing such region division processing, the evaluation information acquisition unit 13 satisfies the uniformity criteria set in advance for each partial region, and the union of two adjacent partial regions is the above one. The image is divided into a plurality of partial regions that do not overlap with each other so as not to satisfy the criteria for the appearance.

評価情報取得部13は、分割した部分領域の各々について、領域情報を算出する。領域情報は、対象画像の各画素を識別するピクセル座標と画素が属する部分領域を識別する領域ID(Identification)とを関連付けた情報である。ピクセル座標は、例えば、対象画像の横方向をX軸方向、対象画像の縦方向をY軸方向として規定したXY座標により表現される。本実施形態では一例として、ピクセル座標は、対象画像の左上隅の画素の座標を原点座標(0,0)とし、対象画像の右方向をX軸の正方向とし、対象画像の下方向をY軸の正方向とした場合のXY座標として表現される。   The evaluation information acquisition unit 13 calculates area information for each of the divided partial areas. The area information is information in which pixel coordinates that identify each pixel of the target image are associated with an area ID (Identification) that identifies a partial area to which the pixel belongs. The pixel coordinates are expressed by, for example, XY coordinates that define the horizontal direction of the target image as the X-axis direction and the vertical direction of the target image as the Y-axis direction. As an example in the present embodiment, the pixel coordinates are the coordinates of the pixel at the upper left corner of the target image as the origin coordinates (0, 0), the right direction of the target image is the positive direction of the X axis, and the downward direction of the target image is Y It is expressed as XY coordinates when the axis is in the positive direction.

評価情報取得部13は、部分領域毎に、複数の評価項目の各々のスコアを算出する。本実施形態では一例として、評価情報取得部13は、部分領域i毎に、Comp(i,j)、Noise(i)、Pint(i)、Vivid(i)、Cont(i)を算出する。   The evaluation information acquisition unit 13 calculates each score of a plurality of evaluation items for each partial region. In this embodiment, as an example, the evaluation information acquisition unit 13 calculates Comp (i, j), Noise (i), Pint (i), Vivid (i), and Cont (i) for each partial region i.

評価情報取得部13は、部分領域iの領域情報から、部分領域iに含まれる画素(ピクセル座標)を抽出する。これにより、評価情報取得部13は、対象画像において部分領域iが占める範囲を把握する。また、評価情報取得部13は、画像情報格納部12に格納されている画像情報を参照することで、部分領域iに含まれる画素の画素値を把握する。評価情報取得部13は、対象画像において部分領域iが占める範囲、及び部分領域iに含まれる各画素の画素値に基づいて、上述した各評価項目のスコアを算出する。以下、各評価項目のスコアの算出手法の一例について説明する。   The evaluation information acquisition unit 13 extracts pixels (pixel coordinates) included in the partial area i from the area information of the partial area i. Thereby, the evaluation information acquisition unit 13 grasps the range occupied by the partial area i in the target image. Further, the evaluation information acquisition unit 13 grasps the pixel values of the pixels included in the partial region i by referring to the image information stored in the image information storage unit 12. The evaluation information acquisition unit 13 calculates the score of each evaluation item described above based on the range occupied by the partial area i in the target image and the pixel value of each pixel included in the partial area i. Hereinafter, an example of a method for calculating the score of each evaluation item will be described.

Comp(i,j)は、部分領域iが予め設定された構図パターンj(例えばデフォルト設定又はユーザ設定により選択された構図パターン)に忠実であるか否かについての評価項目のスコアである。例えば、評価情報取得部13は、構図パターンj(例えば三分割構図等)の評価ロジックを示す構図パターン情報を予め保持しており、当該構図パターン情報を用いることにより、部分領域iのComp(i,j)を算出する。ここで、評価ロジックとは、部分領域iが構図パターンjに忠実である度合いである構図に関するスコアを算出するために利用される評価関数(計算式)等の情報である。   Comp (i, j) is a score of an evaluation item regarding whether or not the partial area i is faithful to a composition pattern j set in advance (for example, a composition pattern selected by default setting or user setting). For example, the evaluation information acquisition unit 13 holds in advance composition pattern information indicating the evaluation logic of the composition pattern j (for example, a three-part composition). By using the composition pattern information, Comp (i , J). Here, the evaluation logic is information such as an evaluation function (calculation formula) used to calculate a score related to the composition, which is the degree that the partial area i is faithful to the composition pattern j.

以下、構図パターンjが三分割構図である場合を具体例として説明する。被写体の重心が対象画像を縦横に三分割する仮想線の交点(縦方向に延びる仮想線と横方向に延びる仮想線との交点)に近いほど三分割構図に忠実であるといえる。このため、三分割構図の構図パターン情報として、部分領域iの重心と上記交点との距離が小さいほど値が大きくなるような評価関数が利用され得る。また、例えば海及び空等の背景部分の輪郭(例えば水平線及び地平線等)が上記仮想線に一致している場合にも、三分割構図に忠実であるといえる。このため、三分割構図の構図パターン情報として、部分領域iの輪郭と上記仮想線との一致度が高いほど値が大きくなるような評価関数も利用され得る。   Hereinafter, a case where the composition pattern j is a three-part composition will be described as a specific example. The closer the center of gravity of the subject is to the intersection of virtual lines that divide the target image vertically and horizontally (intersection of virtual lines extending in the vertical direction and virtual lines extending in the horizontal direction), the more faithful to the three-division composition. For this reason, as the composition pattern information of the three-part composition, an evaluation function can be used such that the value increases as the distance between the center of gravity of the partial region i and the intersection point decreases. Further, for example, when the outline of a background portion such as the sea and the sky (for example, a horizontal line and a horizon line) matches the virtual line, it can be said to be faithful to the three-part composition. Therefore, an evaluation function that increases as the degree of coincidence between the contour of the partial region i and the virtual line can be used as the composition pattern information of the three-part composition.

Noise(i)は、部分領域iが不要な映り込みではないか否かについての評価項目のスコアである。Noise(i)は、部分領域iが不要な映り込みでない場合に大きくなり、部分領域iが不要な映り込みである場合に小さくなるように算出される。例えば、評価情報取得部13は、部分領域iの領域情報から抽出された部分領域iが占める範囲に基づいて、部分領域iが対象画像の端に接しているか否かを判定する。具体的には、評価情報取得部13は、部分領域iに、対象画像の端のピクセル座標に対応する画素が含まれているか否かを判定し、含まれている場合に部分領域iが対象画像の端に接していると判定する。評価情報取得部13は、部分領域iが対象画像の端に接していないと判定された場合、部分領域iは不要な映り込みではないと判定する。一方、評価情報取得部13は、部分領域iが対象画像の端に接していると判定された場合(すなわち、部分領域iに対応する被写体の一部が対象画像の外に出ていることが想定される場合)、部分領域iは不要な映り込みであると判定する。   Noise (i) is a score of an evaluation item regarding whether or not the partial area i is not an unnecessary reflection. Noise (i) is calculated to be large when the partial area i is not an unnecessary reflection, and to be small when the partial area i is an unnecessary reflection. For example, the evaluation information acquisition unit 13 determines whether or not the partial area i is in contact with the end of the target image based on the range occupied by the partial area i extracted from the area information of the partial area i. Specifically, the evaluation information acquisition unit 13 determines whether or not the partial area i includes a pixel corresponding to the pixel coordinate at the end of the target image. It is determined that it touches the edge of the image. When it is determined that the partial area i is not in contact with the end of the target image, the evaluation information acquisition unit 13 determines that the partial area i is not an unnecessary reflection. On the other hand, the evaluation information acquisition unit 13 determines that the partial area i is in contact with the end of the target image (that is, that a part of the subject corresponding to the partial area i is outside the target image. If it is assumed), it is determined that the partial area i is an unnecessary reflection.

ここで、部分領域iが不要な映り込みである場合、当該部分領域iの面積が大きいほど、当該部分領域iが対象画像の見栄えに悪影響を与えている可能性が高いと考えられる。そこで、評価情報取得部13は、部分領域iが不要な映り込みであると判定された場合、当該部分領域iの面積が大きいほどNoise(i)が小さくなるように、Noise(i)を算出する。なお、背景部分は、対象画像の端に接しているが、不要な映り込みとはいえない。そこで、評価情報取得部13は、このような背景部分を不要な映り込みであると判定する対象から除外すべく、例えば対象画像の4辺(或いは3辺以上)に接している部分領域i(背景部分である可能性が高い部分領域i)については、不要な映り込みではないと判定してもよい。   Here, when the partial area i is unnecessary reflection, it is considered that the larger the area of the partial area i, the higher the possibility that the partial area i has an adverse effect on the appearance of the target image. Therefore, when it is determined that the partial area i is an unnecessary reflection, the evaluation information acquisition unit 13 calculates Noise (i) so that the larger the area of the partial area i is, the smaller Noise (i) is. To do. Note that the background portion is in contact with the edge of the target image, but it cannot be said to be an unnecessary reflection. Therefore, the evaluation information acquisition unit 13 excludes such a background portion from an object to be determined as unnecessary reflection, for example, a partial area i (in contact with four sides (or more than three sides) of the target image). It may be determined that the partial area i) that is likely to be a background part is not an unnecessary reflection.

Pint(i)は、部分領域iに対してピントが合っているか(部分領域iがぶれていないか)否かについての評価項目のスコアである。例えば、評価情報取得部13は、部分領域iに含まれる画素の画素値から、部分領域iにおける空間周波数を算出する。一般にピントが合っておらず画像がぼやけている領域において、空間周波数が低くなる傾向がある。そこで、評価情報取得部13は、空間周波数が高いほどPint(i)が大きくなるように、Pint(i)を算出する。   Pint (i) is a score of an evaluation item regarding whether or not the partial area i is in focus (whether the partial area i is not blurred). For example, the evaluation information acquisition unit 13 calculates the spatial frequency in the partial region i from the pixel values of the pixels included in the partial region i. In general, the spatial frequency tends to be low in a region where the image is out of focus and the image is blurred. Therefore, the evaluation information acquisition unit 13 calculates Pint (i) so that Pint (i) increases as the spatial frequency increases.

Vivid(i)は、部分領域iの色が適度に鮮やかであるか否かについての評価項目のスコアである。例えば、評価情報取得部13は、部分領域iに含まれる画素の彩度(Saturation)の代表値(例えば平均値等)と予め設定された適正レベル(適正値)との誤差が小さいほどVivid(i)の値が大きくなるように、Vivid(i)を算出する。なお、画像情報格納部12に格納されている画像情報(各画素の画素値)がRGB色空間により表現されている場合、評価情報取得部13は、RGB色空間からHSV色空間への公知の変換処理を行うことで、HSV色空間の一成分である彩度(S)の情報を得てもよい。   Vivid (i) is a score of an evaluation item regarding whether or not the color of the partial area i is moderately vivid. For example, the evaluation information acquisition unit 13 increases the Vivid (Saturation) representative value (for example, an average value) of a pixel included in the partial area i and the smaller the error between a preset appropriate level (appropriate value). Vivid (i) is calculated so that the value of i) increases. In addition, when the image information (pixel value of each pixel) stored in the image information storage unit 12 is expressed in the RGB color space, the evaluation information acquisition unit 13 is a well-known one from the RGB color space to the HSV color space. Information on saturation (S), which is one component of the HSV color space, may be obtained by performing the conversion process.

Cont(i)は、部分領域iが対象画像のコントラストの適正化に寄与しているか否かについての評価項目のスコアである。評価情報取得部13は、部分領域iが対象画像のコントラストの適正化に寄与している程度が大きいほどCont(i)が大きくなるように、Cont(i)を算出する。例えば、評価情報取得部13は、対象画像のコントラスト値Cnt1を計算するとともに、対象画像から部分領域iを除外した場合の対象画像のコントラスト値Cnt2を計算する。ここで、予め設定された適正コントラストレベル(適正値)Cnt0とコントラスト値Cnt1との差の絶対値A1(=|Cnt1−Cnt0|)が、適正コントラストレベルCnt0とコントラスト値Cnt2との差の絶対値A2(=|Cnt2−Cnt0|)よりも小さい場合、部分領域iは、対象画像のコントラストの適正化に寄与しているといえる。つまり、部分領域iが存在することにより、対象画像のコントラストが適正値に近付いているといえる。また、絶対値A1と絶対値A2との差(A2−A1)が大きいほど、部分領域iが対象画像のコントラストの適正化に寄与している程度が大きいといえる。そこで、評価情報取得部13は、絶対値A1と絶対値A2との差(A2−A1)に基づいて、当該差が大きいほどCont(i)が大きくなるように、Cont(i)を算出してもよい。   Cont (i) is a score of an evaluation item regarding whether or not the partial area i contributes to the optimization of the contrast of the target image. The evaluation information acquisition unit 13 calculates Cont (i) so that Cont (i) increases as the degree to which the partial region i contributes to optimization of the contrast of the target image is larger. For example, the evaluation information acquisition unit 13 calculates the contrast value Cnt1 of the target image and calculates the contrast value Cnt2 of the target image when the partial region i is excluded from the target image. Here, the absolute value A1 (= | Cnt1-Cnt0 |) of the difference between the preset appropriate contrast level (proper value) Cnt0 and the contrast value Cnt1 is the absolute value of the difference between the appropriate contrast level Cnt0 and the contrast value Cnt2. If it is smaller than A2 (= | Cnt2-Cnt0 |), it can be said that the partial region i contributes to optimization of the contrast of the target image. That is, it can be said that the presence of the partial region i brings the contrast of the target image close to an appropriate value. In addition, it can be said that the greater the difference (A2−A1) between the absolute value A1 and the absolute value A2, the greater the extent that the partial region i contributes to the optimization of the contrast of the target image. Therefore, the evaluation information acquisition unit 13 calculates Cont (i) based on the difference (A2−A1) between the absolute value A1 and the absolute value A2 so that the larger the difference is, the larger Cont (i) is. May be.

評価情報取得部13は、各部分領域のComp(i,j)、Noise(i)、Pint(i)、Vivid(i)、及びCont(i)をそれぞれ評価項目ごとに合算することによって、Comp、Noise、Pint、Vivid、及びContの各評価項目に対する評価値を取得する。   The evaluation information acquisition unit 13 adds Comp (i, j), Noise (i), Pint (i), Vivid (i), and Cont (i) of each partial area for each evaluation item, and thereby Comp Evaluation values for evaluation items of, Noise, Pint, Vivid, and Cont are acquired.

対象画像の撮影条件に関する撮影情報は、カメラモジュール108がEXIF(Exchangeableimage file format)規格に準拠している場合、対象画像にメタデータとして添付される。評価情報取得部13は、このメタデータから撮影情報を取得する。評価情報取得部13は、カメラモジュール108から撮影情報を取得してもよい。   When the camera module 108 conforms to the EXIF (Exchangeable image file format) standard, the shooting information regarding the shooting condition of the target image is attached as metadata to the target image. The evaluation information acquisition unit 13 acquires shooting information from the metadata. The evaluation information acquisition unit 13 may acquire shooting information from the camera module 108.

評価情報取得部13は、公知のシーン認識技術によって対象画像の撮影シーン情報を取得する。評価情報取得部13は、例えば、対象画像の画像情報に基づいて、対象画像の特徴量を抽出し、対象画像の特徴量を各撮影シーンの特徴量と比較することによって、撮影シーンを認識する。評価情報取得部13は、対象画像の評価情報を評価情報格納部14に出力し、格納する。   The evaluation information acquisition unit 13 acquires shooting scene information of the target image by a known scene recognition technique. For example, the evaluation information acquisition unit 13 extracts the feature amount of the target image based on the image information of the target image, and recognizes the shooting scene by comparing the feature amount of the target image with the feature amount of each shooting scene. . The evaluation information acquisition unit 13 outputs the evaluation information of the target image to the evaluation information storage unit 14 and stores it.

評価情報格納部14は、評価情報取得部13によって取得された評価情報を格納する評価情報格納手段として機能する。評価情報格納部14に格納されている評価情報は、シーン別ユーザ情報抽出部17、コンテンツ選択部20、及びコンテンツ編集部21によって参照される。   The evaluation information storage unit 14 functions as an evaluation information storage unit that stores the evaluation information acquired by the evaluation information acquisition unit 13. The evaluation information stored in the evaluation information storage unit 14 is referred to by the scene-specific user information extraction unit 17, the content selection unit 20, and the content editing unit 21.

ユーザ嗜好情報格納部15は、ユーザ嗜好情報を格納するユーザ嗜好情報格納手段として機能する。ユーザ嗜好情報は、ユーザの写真に関する嗜好を示す嗜好情報である。図4は、ユーザ嗜好情報の一例を示す図である。図4に示される例では、ユーザ嗜好情報は、複数の写真家のうちユーザが好む写真家を示す嗜好情報であり、「写真家」及び「嗜好度」を有する。「写真家」は、写真家を一意に識別するための識別情報である。「嗜好度」は、各写真家に対応付けて割り当てられており、ユーザが当該写真家(写真家が撮影する写真)を好む程度を示す値である。写真家の嗜好度が大きいほど、ユーザがその写真家を好むことを示す。この例では、ユーザの写真家の好みは「写真家1」、「写真家2」、及び「写真家3」の順である。   The user preference information storage unit 15 functions as a user preference information storage unit that stores user preference information. The user preference information is preference information indicating a preference relating to a user's photograph. FIG. 4 is a diagram illustrating an example of user preference information. In the example shown in FIG. 4, the user preference information is preference information indicating a photographer preferred by the user among a plurality of photographers, and has “photographer” and “preference level”. “Photographer” is identification information for uniquely identifying a photographer. The “preference level” is assigned to each photographer and is a value indicating the degree to which the user likes the photographer (photographed by the photographer). It shows that a user likes the photographer, so that a photographer's preference degree is large. In this example, the photographer's preference of the user is in the order of “Photographer 1”, “Photographer 2”, and “Photographer 3”.

ユーザ嗜好情報は、ユーザによってコンテンツ提供装置10に予め入力され、ユーザ嗜好情報格納部15に格納される。ユーザ嗜好情報格納部15に格納されているユーザ嗜好情報は、シーン別ユーザ情報抽出部17によって参照される。   The user preference information is input in advance to the content providing apparatus 10 by the user and stored in the user preference information storage unit 15. The user preference information stored in the user preference information storage unit 15 is referred to by the scene-specific user information extraction unit 17.

また、コンテンツ提供装置10は、不図示のユーザ嗜好情報取得部を備えてもよい。ユーザ嗜好情報取得部は、複数の写真家をディスプレイ(出力装置107)に表示させ、ユーザに、好みの写真家に対して点数(数値)を分配して直接入力させもよい。この場合、ユーザ嗜好情報取得部は、合計が100点となるように、ユーザに点数を入力させてもよい。また、ユーザ嗜好情報取得部は、各写真家に対応付けられた写真群をディスプレイ(出力装置107)に表示させ、ユーザの好みの写真をユーザに選択させるようにしてもよい。この場合、ユーザ嗜好情報取得部は、写真家ごとに選択された写真の枚数を数値化することによって、ユーザ嗜好情報を取得してもよい。例えば、10枚の写真が選択され、そのうち写真家1に対応付けられた6枚の写真が選択され、写真家2に対応付けられた3枚の写真が選択され、写真家3に対応付けられた1枚の写真が選択された場合には、ユーザ嗜好情報取得部は、写真家1の嗜好度を60とし、写真家2の嗜好度を30とし、写真家3の嗜好度を10とする。また、ユーザ嗜好情報取得部は、表示された写真群の中からユーザに3枚の写真を選択させ、選択した写真に優先順位を付けさせるようにしてもよい。例えば、ユーザ嗜好情報取得部は、優先順位が1番高い写真に対応付けられた写真家の嗜好度を60とし、優先順位が2番目に高い写真に対応付けられた写真家の嗜好度を30とし、優先順位が3番目に高い写真に対応付けられた写真家の嗜好度を10とする。   Further, the content providing apparatus 10 may include a user preference information acquisition unit (not shown). The user preference information acquisition unit may display a plurality of photographers on the display (output device 107), and allow the user to directly input the points (numerical values) distributed to the favorite photographers. In this case, the user preference information acquisition unit may cause the user to input a score so that the total is 100 points. The user preference information acquisition unit may display a group of photos associated with each photographer on the display (output device 107), and allow the user to select a user's favorite photo. In this case, the user preference information acquisition unit may acquire user preference information by digitizing the number of photos selected for each photographer. For example, ten photos are selected, of which six photos associated with photographer 1 are selected, and three photos associated with photographer 2 are selected and associated with photographer 3. When one photograph is selected, the user preference information acquisition unit sets the preference level of the photographer 1 to 60, the preference level of the photographer 2 to 30, and the preference level of the photographer 3 to 10. . In addition, the user preference information acquisition unit may allow the user to select three photos from the displayed photo group and give priority to the selected photos. For example, the user preference information acquisition unit sets the preference degree of a photographer associated with the photograph with the highest priority to 60, and sets the preference degree of the photographer associated with the photograph with the second highest priority to 30. And the preference of the photographer associated with the photograph with the third highest priority is 10.

写真家情報格納部16は、写真家情報を格納する写真家情報格納手段として機能する。写真家情報は、複数の写真家のそれぞれについて当該写真家が撮影する撮影シーンの傾向を示す特徴情報である。図5は、写真家情報の一例を示す図である。図5に示される例では、「撮影シーン」は、撮影シーンを一意に識別するための識別情報である。撮影シーンとして、風景、ポートレイト、飛行機、水中、天体、及びマクロが挙げられている。写真家情報では、各写真家について、100点の特徴値が割り当てられており、当該写真家が撮影する撮影シーンに対して特徴値が分配されている。特徴値が大きいほど、写真家がその撮影シーンの撮影を頻繁に行っている(つまり、得意である)ことを示す。この例では、写真家1は、ポートレイトの写真を最も頻繁に撮影し、次に風景の写真を撮影する。つまり、写真家1は、ポートレイトの写真撮影が最も得意で、次に風景の写真撮影が得意であるともいえる。   The photographer information storage unit 16 functions as a photographer information storage unit that stores photographer information. The photographer information is characteristic information indicating a tendency of a shooting scene taken by the photographer for each of a plurality of photographers. FIG. 5 is a diagram illustrating an example of photographer information. In the example shown in FIG. 5, “shooting scene” is identification information for uniquely identifying a shooting scene. Examples of shooting scenes include landscapes, portraits, airplanes, underwater, celestial bodies, and macros. In the photographer information, 100 feature values are assigned to each photographer, and the feature values are distributed to the shooting scenes photographed by the photographer. The larger the feature value, the more the photographer frequently photographs the scene (that is, he is good at it). In this example, photographer 1 takes portrait photos most frequently and then takes landscape photos. In other words, it can be said that the photographer 1 is best at taking portrait photographs and then at landscape photography.

写真家情報は、予め設定されている。例えば、写真家情報は、写真家ごとに得意な撮影シーンの調査結果に基づいて、手作業で設定されてもよい。また、写真家ごとに、写真集及び雑誌等に掲載された写真が収集され、手作業又は撮影シーンの解析技術で各写真が撮影シーンに分類されることによって、撮影シーンごとの写真の枚数が得られる。写真家情報は、この撮影シーンごとの写真の枚数に基づいて手作業で設定されてもよい。写真家情報格納部16に格納されている写真家情報は、シーン別ユーザ情報抽出部17によって参照される。   The photographer information is set in advance. For example, the photographer information may be manually set based on the result of the investigation of the shooting scene that is good for each photographer. In addition, for each photographer, photographs published in photo collections and magazines are collected, and each photograph is classified into a photographing scene by manual or photographing scene analysis technology, so that the number of photographs per photographing scene can be reduced. can get. The photographer information may be manually set based on the number of photographs for each shooting scene. The photographer information stored in the photographer information storage unit 16 is referred to by the scene-specific user information extraction unit 17.

シーン別ユーザ情報抽出部17は、評価情報取得部13によって取得された評価情報に基づいて、シーン別ユーザ情報を抽出する抽出手段として機能する。シーン別ユーザ情報は、撮影シーンごとのユーザに関する情報である。シーン別ユーザ情報としては、シーン別評価値、及びシーン別嗜好情報が挙げられる。シーン別評価値は、撮影シーンごとの評価値である。シーン別嗜好情報は、複数の写真家のうち撮影シーンごとにユーザが好む写真家を示す情報である。   The scene-specific user information extraction unit 17 functions as an extraction unit that extracts scene-specific user information based on the evaluation information acquired by the evaluation information acquisition unit 13. The user information for each scene is information regarding the user for each shooting scene. The scene-specific user information includes scene-specific evaluation values and scene-specific preference information. The evaluation value for each scene is an evaluation value for each shooting scene. The preference information for each scene is information indicating a photographer preferred by the user for each shooting scene among a plurality of photographers.

シーン別ユーザ情報抽出部17は、シーン別評価値をシーン別ユーザ情報として抽出する。シーン別ユーザ情報抽出部17は、評価情報取得部13により取得された評価値を撮影シーンごとに集計することによって、シーン別評価値を算出する。具体的には、シーン別ユーザ情報抽出部17は、シーン別ユーザ情報格納部18に格納されているシーン別評価テーブルを読み出し、シーン別評価テーブルにおいて、評価情報取得部13によって取得された撮影シーンに対応する値に、評価情報取得部13によって取得された評価値をそれぞれ加算することによってシーン別評価値を算出する。   The scene-specific user information extraction unit 17 extracts scene-specific evaluation values as scene-specific user information. The scene-specific user information extraction unit 17 calculates the scene-specific evaluation value by counting the evaluation values acquired by the evaluation information acquisition unit 13 for each shooting scene. Specifically, the scene-specific user information extraction unit 17 reads the scene-specific evaluation table stored in the scene-specific user information storage unit 18, and the shooting scene acquired by the evaluation information acquisition unit 13 in the scene-specific evaluation table. The evaluation value for each scene is calculated by adding the evaluation value acquired by the evaluation information acquisition unit 13 to the value corresponding to.

図6は、シーン別評価テーブルの一例を示す図である。図6に示される例では、撮影シーンごとに、「総合スコア累積」、「Comp累積」、「Noise累積」、「Pint累積」、「Vivid累積」、「Cont累積」、及び「F1.4撮影回数」等が格納されている。「総合スコア累積」の値は、複数の対象画像を撮影シーンごとに分類し、各撮影シーンの対象画像の「総合スコア」の評価値を累積したシーン別評価値である。「Comp累積」の値は、各撮影シーンの対象画像の「Comp」の評価値を累積したシーン別評価値である。「Noise累積」の値は、各撮影シーンの対象画像の「Noise」の評価値を累積したシーン別評価値である。「Pint累積」の値は、各撮影シーンの対象画像の「Pint」の評価値を累積したシーン別評価値である。「Vivid累積」の値は、各撮影シーンの対象画像の「Vivid」の評価値を累積したシーン別評価値である。「Cont累積」の値は、各撮影シーンの対象画像の「Cont」の評価値を累積したシーン別評価値である。「F1.4撮影回数」は、複数の対象画像のうち、F値が1.4である対象画像の枚数を示すシーン別評価値である。   FIG. 6 is a diagram illustrating an example of the scene-specific evaluation table. In the example shown in FIG. 6, “total score accumulation”, “Comp accumulation”, “Noise accumulation”, “Pint accumulation”, “Vivid accumulation”, “Cont accumulation”, and “F1.4 shooting” are taken for each shooting scene. The “number of times” and the like are stored. The “total score accumulation” value is an evaluation value for each scene obtained by classifying a plurality of target images for each shooting scene and accumulating the evaluation value of the “total score” of the target images of each shooting scene. The value of “Comp cumulative” is an evaluation value for each scene obtained by accumulating the evaluation value of “Comp” of the target image of each shooting scene. The value of “Noise accumulation” is an evaluation value for each scene obtained by accumulating the evaluation values of “Noise” of the target image of each shooting scene. The value of “Pint accumulation” is an evaluation value for each scene obtained by accumulating the evaluation value of “Pint” of the target image of each shooting scene. The value of “Vivid accumulation” is an evaluation value for each scene obtained by accumulating the evaluation value of “Vivid” of the target image of each shooting scene. The value of “Cont accumulation” is an evaluation value for each scene obtained by accumulating the evaluation values of “Cont” of the target image of each shooting scene. “F1.4 number of photographing” is an evaluation value for each scene indicating the number of target images having an F value of 1.4 among a plurality of target images.

シーン別ユーザ情報抽出部17は、例えば、シーン別評価テーブルのうち、図3に示される「撮影シーン」に対応する「総合スコア累積」、「Comp累積」、「Noise累積」、「Pint累積」、「Vivid累積」、及び「Cont累積」の値に、図3に示される「総合スコア」、「Comp」、「Noise」、「Pint」、「Vivid」、及び「Cont」の評価項目の評価値をそれぞれ加算する。シーン別ユーザ情報抽出部17は、図3に示される「F」が1.4である場合に、シーン別評価テーブルのうち、図3に示される「撮影シーン」に対応する「F1.4撮影回数」の値を1つ増加する。シーン別ユーザ情報抽出部17は、更新したシーン別評価テーブルをシーン別ユーザ情報格納部18に格納する。   The scene-specific user information extraction unit 17, for example, “total score accumulation”, “Comp accumulation”, “Noise accumulation”, “Pint accumulation” corresponding to the “shooting scene” shown in FIG. , “Vivid Accumulation”, and “Cont Accumulation” values are evaluated in the evaluation items of “Comprehensive Score”, “Comp”, “Noise”, “Pint”, “Vivid”, and “Cont” shown in FIG. Add each value. When “F” shown in FIG. 3 is 1.4, the scene-specific user information extraction unit 17 performs “F1.4 shooting corresponding to“ shooting scene ”shown in FIG. Increase the number of times by one. The scene-specific user information extraction unit 17 stores the updated scene-specific evaluation table in the scene-specific user information storage unit 18.

シーン別ユーザ情報抽出部17は、シーン別嗜好情報をシーン別ユーザ情報として抽出する。シーン別ユーザ情報抽出部17は、ユーザ嗜好情報格納部15に格納されているユーザ嗜好情報と、写真家情報格納部16に格納されている写真家情報と、に基づいて、シーン別嗜好情報を算出する。シーン別嗜好情報では、撮影シーンごとに、各写真家にシーン別嗜好度が割り当てられている。シーン別ユーザ情報抽出部17は、例えば、ユーザ嗜好情報において各写真家に割り当てられている嗜好度と、写真家情報における当該写真家の撮影シーンの特徴値とを乗算することによって、シーン別嗜好度を算出する。シーン別嗜好度は、ユーザが各撮影シーンにおいて当該写真家(写真家が撮影する写真)を好む程度を示す値である。写真家のシーン別嗜好度が大きいほど、その撮影シーンにおいてユーザがその写真家を好むことを示す。シーン別ユーザ情報抽出部17は、シーン別嗜好情報をシーン別嗜好写真家テーブルの形式でシーン別ユーザ情報格納部18に格納する。   The scene-specific user information extraction unit 17 extracts scene-specific preference information as scene-specific user information. The scene-specific user information extraction unit 17 obtains scene-specific preference information based on the user preference information stored in the user preference information storage unit 15 and the photographer information stored in the photographer information storage unit 16. calculate. In the preference information by scene, the preference by scene is assigned to each photographer for each shooting scene. The scene-specific user information extraction unit 17 multiplies the preference level assigned to each photographer in the user preference information by the feature value of the photographed scene of the photographer in the photographer information, for example. Calculate the degree. The preference for each scene is a value indicating the degree to which the user likes the photographer (photographed by the photographer) in each shooting scene. The greater the photographer's preference for each scene, the more the user likes the photographer in the shooting scene. The scene-specific user information extraction unit 17 stores the scene-specific preference information in the scene-specific user information storage unit 18 in the form of a scene-specific preference photographer table.

図7は、シーン別嗜好写真家テーブルの一例を示す図である。図7に示される例では、例えば、ユーザは、風景の写真について写真家1の写真を最も好み、次に写真家3の写真を好む。   FIG. 7 is a diagram illustrating an example of a scene-specific preference photographer table. In the example shown in FIG. 7, for example, the user likes the photographer 1's photograph most about the landscape photograph, and then likes the photographer 3 photograph.

シーン別ユーザ情報格納部18は、シーン別ユーザ情報を格納するシーン別ユーザ情報格納手段として機能する。シーン別ユーザ情報格納部18は、シーン別ユーザ情報として、例えば、シーン別評価値及びシーン別嗜好情報を格納している。つまり、シーン別ユーザ情報格納部18は、シーン別評価テーブル及びシーン別嗜好写真家テーブルを格納している。シーン別ユーザ情報格納部18に格納されているシーン別ユーザ情報は、シーン別ユーザ情報抽出部17、コンテンツ選択部20、及びコンテンツ編集部21によって参照される。   The scene-specific user information storage unit 18 functions as a scene-specific user information storage unit that stores scene-specific user information. The scene-specific user information storage unit 18 stores, for example, scene-specific evaluation values and scene-specific preference information as scene-specific user information. That is, the scene-specific user information storage unit 18 stores a scene-specific evaluation table and a scene-specific preference photographer table. The scene-specific user information stored in the scene-specific user information storage unit 18 is referred to by the scene-specific user information extraction unit 17, the content selection unit 20, and the content editing unit 21.

コンテンツ格納部19は、複数のコンテンツを格納するコンテンツ格納手段として機能する。コンテンツ格納部19に格納されるコンテンツは、上述のように、撮影に関するコンテンツであり、コンテンツの種類には例えば、アドバイス、記事、広告、及び写真等がある。より具体的には、予め設定された文書、外部サイトのリンク情報、写真群、対象画像と同じ場所で過去に撮影された写真、画像の加工及び修正等の編集方法、編集された写真、画像加工フィルタ、対象画像の撮影に用いられたカメラのボディに互換性のあるレンズの広告、並びに、ユーザが所有している機材群に関する情報等がある。コンテンツ格納部19は、複数のコンテンツをコンテンツテーブルによって管理している。   The content storage unit 19 functions as a content storage unit that stores a plurality of contents. As described above, the content stored in the content storage unit 19 is content related to shooting, and examples of content types include advice, articles, advertisements, and photos. More specifically, a preset document, link information of an external site, a group of photos, a photo taken in the past at the same location as the target image, an editing method such as image processing and correction, an edited photo, an image There are processing filters, advertisements for lenses compatible with the body of the camera used to capture the target image, information about the equipment group owned by the user, and the like. The content storage unit 19 manages a plurality of contents using a content table.

図8は、コンテンツ格納部19に格納されているコンテンツテーブルの一例を示す図である。図8に示される例では、各コンテンツは、「条件」、「コンテンツID」、「タイトル」、「種類」、及び「内容」によって管理されている。「条件」は、コンテンツ選択部20によってコンテンツが選択されるための条件を示す情報である。「コンテンツID」は、コンテンツを一意に識別するための識別情報である。「タイトル」は、コンテンツのタイトルを示す文字列である。「種類」は、コンテンツの種類を示す情報である。「内容」は、コンテンツの内容を示す情報である。例えば、コンテンツIDが「1」のコンテンツは、「三分割法で撮ってみよう」というタイトルを有し、コンテンツの種類は「アドバイス」である。このコンテンツは、対象画像の撮影シーンが「風景」であり、かつ、Comp累積の合計が2000未満である場合に選択される。   FIG. 8 is a diagram illustrating an example of a content table stored in the content storage unit 19. In the example shown in FIG. 8, each content is managed by “condition”, “content ID”, “title”, “type”, and “content”. “Condition” is information indicating a condition for selecting content by the content selection unit 20. “Content ID” is identification information for uniquely identifying a content. “Title” is a character string indicating the title of the content. “Type” is information indicating the type of content. “Content” is information indicating the content. For example, the content with the content ID “1” has a title “Let's take a picture by the three-division method”, and the content type is “advice”. This content is selected when the shooting scene of the target image is “landscape” and the total of Comp accumulation is less than 2000.

コンテンツ選択部20は、シーン別ユーザ情報抽出部17によって抽出されたシーン別ユーザ情報に基づいて、コンテンツ格納部19に格納されている複数のコンテンツからコンテンツを選択する選択手段として機能する。コンテンツ選択部20は、評価情報格納部14に格納されている評価情報と、シーン別ユーザ情報格納部18に格納されているシーン別ユーザ情報と、に基づいて、コンテンツテーブルに示される条件を満たすコンテンツを選択する。例えば、図3に示される評価情報では、「撮影シーン」が「ポートレイト」であり、図7に示されるシーン別嗜好情報では、写真家1のシーン別嗜好度の合計が6000であり、図6に示されるポートレイトの総合スコア累積のシーン別評価値が9000であることから、コンテンツIDが「8」のコンテンツが選択される。コンテンツ選択部20は、選択したコンテンツをコンテンツ編集部21に出力する。   The content selection unit 20 functions as a selection unit that selects content from a plurality of contents stored in the content storage unit 19 based on the scene-specific user information extracted by the scene-specific user information extraction unit 17. The content selection unit 20 satisfies the conditions shown in the content table based on the evaluation information stored in the evaluation information storage unit 14 and the scene-specific user information stored in the scene-specific user information storage unit 18. Select content. For example, in the evaluation information shown in FIG. 3, “shooting scene” is “portrait”, and in the preference information by scene shown in FIG. 7, the total degree of preference by scene of photographer 1 is 6000. Since the evaluation value by scene of the total score accumulation of the portrait shown in FIG. 6 is 9000, the content with the content ID “8” is selected. The content selection unit 20 outputs the selected content to the content editing unit 21.

コンテンツテーブルに示される条件に合致するコンテンツの数が2以上である場合、コンテンツ選択部20は、選択した複数のコンテンツのそれぞれに優先順位を割り当てる。コンテンツ選択部20は、例えばユーザ全体におけるコンテンツの人気順に基づいて、コンテンツの優先順位を決定する。例えば、各ユーザのコンテンツ閲覧履歴が、不図示のサーバ装置に格納され、集計されることによって、ユーザ全体におけるコンテンツの人気順が算出される。閲覧回数が多いほど人気が高い、つまり人気順が高いことを示すように、人気順が設定されてもよい。コンテンツ選択部20は、例えば、コンテンツの人気順が高いほど当該コンテンツの優先順位を高くする。   When the number of contents that match the conditions shown in the content table is 2 or more, the content selection unit 20 assigns a priority to each of the selected plurality of contents. The content selection unit 20 determines the priority order of the content based on, for example, the popularity order of the content for the entire user. For example, the content browsing history of each user is stored in a server device (not shown) and aggregated to calculate the popularity order of the content for the entire user. The popularity order may be set so as to indicate that the more the number of browsing times, the higher the popularity, that is, the higher the popularity order. For example, the content selection unit 20 increases the priority of the content as the popularity of the content increases.

コンテンツ編集部21は、シーン別ユーザ情報に基づいて、コンテンツ選択部20によって選択されたコンテンツを編集する編集手段として機能する。コンテンツ編集部21は、例えば、コンテンツ選択部20によって選択されたコンテンツの種類がアドバイスであった場合、「{写真家}先生の写真がお好きな{撮影シーン}撮影{ユーザの撮影技術}向けのアドバイスです。」といったテンプレート文章を、コンテンツ選択部20によって選択されたコンテンツに付加する。なお、{}の部分は、評価情報及びシーン別ユーザ情報が反映される。コンテンツ編集部21は、評価情報格納部14に格納されている評価情報から取得された撮影シーン情報に基づいて、撮影シーンを示す文字列を{撮影シーン}に追加する。コンテンツ選択部20に格納されているコンテンツが、評価情報及びシーン別ユーザ情報が反映されるテンプレートを含むこともある。   The content editing unit 21 functions as an editing unit that edits the content selected by the content selection unit 20 based on the scene-specific user information. For example, if the type of content selected by the content selection unit 20 is advice, the content editing unit 21 is for “{photographer} who likes the photograph of {photographer} {photographing scene} photographing {user's photographing technology}” Is added to the content selected by the content selection unit 20. In addition, evaluation information and scene-specific user information are reflected in the portion {}. The content editing unit 21 adds a character string indicating the shooting scene to {shooting scene} based on the shooting scene information acquired from the evaluation information stored in the evaluation information storage unit 14. The content stored in the content selection unit 20 may include a template in which evaluation information and scene-specific user information are reflected.

コンテンツ編集部21は、シーン別ユーザ情報格納部18に格納されているシーン別嗜好情報に基づいて、評価情報から取得された撮影シーン情報が示す撮影シーンに対して、最もシーン別嗜好度が大きい写真家を抽出する。コンテンツ編集部21は、抽出した写真家を示す文字列を{写真家}に追加する。コンテンツ編集部21は、評価情報から取得された撮影シーン情報が示す撮影シーンに対して、シーン別ユーザ情報格納部18に格納されている総合スコア累積のシーン別評価値を読み出し、ユーザの撮影技術を判定する。コンテンツ編集部21は、例えば、予め設定された閾値に基づいて、初級レベル、中級レベル、及び上級レベルのいずれであるかを判定する。コンテンツ編集部21は、判定した撮影技術を{ユーザの撮影技術}に追加する。コンテンツ編集部21は、編集したコンテンツを出力部22に出力する。   Based on the scene-specific preference information stored in the scene-specific user information storage unit 18, the content editing unit 21 has the highest scene-specific preference level for the shooting scene indicated by the shooting scene information acquired from the evaluation information. Extract photographers. The content editing unit 21 adds a character string indicating the extracted photographer to {photographer}. The content editing unit 21 reads out the scene-specific evaluation value of the total score accumulated in the scene-specific user information storage unit 18 for the shooting scene indicated by the shooting scene information acquired from the evaluation information, and the shooting technique of the user Determine. For example, the content editing unit 21 determines whether the level is an elementary level, an intermediate level, or an advanced level based on a preset threshold value. The content editing unit 21 adds the determined shooting technique to {user shooting technique}. The content editing unit 21 outputs the edited content to the output unit 22.

出力部22は、コンテンツ編集部21によって編集されたコンテンツを出力する出力手段として機能する。出力部22は、出力装置107によって実現される。また、コンテンツ提供装置10がデジタルカメラ等のファインダーを有する装置である場合には、出力部22は、ファインダー内部に設けられる液晶ディスプレイ等の表示装置によって実現されてもよい。具体的には、出力部22は、コンテンツ編集部21によって編集されたコンテンツと画像取得部11によって取得された対象画像とに基づいて合成画像を生成し、合成画像を出力画像として表示する。   The output unit 22 functions as an output unit that outputs the content edited by the content editing unit 21. The output unit 22 is realized by the output device 107. When the content providing device 10 is a device having a finder such as a digital camera, the output unit 22 may be realized by a display device such as a liquid crystal display provided inside the finder. Specifically, the output unit 22 generates a composite image based on the content edited by the content editing unit 21 and the target image acquired by the image acquisition unit 11, and displays the composite image as an output image.

なお、出力部22は、コンテンツ提供装置10において評価モードがONになっていない場合には、画像取得部11により取得された対象画像を出力画像として表示する。評価モードとは、評価情報取得部13、シーン別ユーザ情報抽出部17、コンテンツ選択部20、及びコンテンツ編集部21の処理を実行して合成画像を出力するモードである。出力部22は、例えば、写真管理ソフトウェア及びWebサービスを用いて出力画像を表示してもよい。また、コンテンツ提供装置10がディスプレイ等の表示機能を有しない場合、出力部22は、例えば、他の装置(例えば上述したディスプレイを有する端末等)に出力画像を出力する。例えば、コンテンツ提供装置10が他の装置に通信ネットワークを介して出力画像を送信する場合、出力画像の送信処理を行う部分(通信モジュール104等)が出力部22として機能する。   The output unit 22 displays the target image acquired by the image acquisition unit 11 as an output image when the evaluation mode is not ON in the content providing apparatus 10. The evaluation mode is a mode in which the processes of the evaluation information acquisition unit 13, the scene-specific user information extraction unit 17, the content selection unit 20, and the content editing unit 21 are executed to output a composite image. The output unit 22 may display the output image using, for example, photo management software and a web service. When the content providing apparatus 10 does not have a display function such as a display, the output unit 22 outputs an output image to, for example, another apparatus (for example, a terminal having the above-described display). For example, when the content providing apparatus 10 transmits an output image to another apparatus via a communication network, a part (communication module 104 or the like) that performs output image transmission processing functions as the output unit 22.

図9〜図13は、コンテンツ提供装置によって出力された合成画像の例を示す図である。図9の(a)に示されるように、出力部22は、対象画像Poを縮小し、コンテンツCを縮小された対象画像Poとは異なる領域に配置することによって合成画像Gを生成し、合成画像Gを表示してもよい。図9の(b)に示されるように、コンテンツが構図のアドバイスである場合には、構図のパターン及びアドバイスを対象画像に重ね合わせることによって、合成画像Gを生成し、合成画像Gを表示してもよい。図10の(a)に示されるように、出力部22は、対象画像Poにコンテンツ表示用のアイコンVを重ね合わせることによって合成画像Gを生成し、合成画像Gを表示してもよい。この場合、ユーザがアイコンVをクリックしたことに応じて、図10の(b)に示されるように、出力部22はコンテンツCを表示してもよい。   9 to 13 are diagrams illustrating examples of composite images output by the content providing apparatus. As shown in FIG. 9A, the output unit 22 generates the composite image G by reducing the target image Po and arranging the content C in a different area from the reduced target image Po. The image G may be displayed. As shown in FIG. 9B, when the content is composition advice, the composition image G is generated by superimposing the composition pattern and advice on the target image, and the composition image G is displayed. May be. As illustrated in FIG. 10A, the output unit 22 may generate the composite image G by superimposing the content display icon V on the target image Po and display the composite image G. In this case, in response to the user clicking on the icon V, the output unit 22 may display the content C as shown in FIG.

コンテンツ選択部20によって複数のコンテンツが選択された場合には、図11に示されるように、出力部22は、複数のコンテンツC1,C2を組み合わせて表示してもよい。また、図12の(a)〜(c)に示されるように、出力部22は、複数のコンテンツC1,C2,C3の優先順位に基づいて、コンテンツC1、コンテンツC2、及びコンテンツC3を1つずつ順に表示してもよい。   When a plurality of contents are selected by the content selection unit 20, the output unit 22 may display a combination of the plurality of contents C1 and C2, as shown in FIG. Also, as shown in FIGS. 12A to 12C, the output unit 22 provides one content C1, one content C2, and one content C3 based on the priority order of the plurality of contents C1, C2, and C3. You may display in order.

図13の(a)に示されるように、出力部22は、撮影終了時にコンテンツCを表示してもよい。出力部22は、例えば、評価モードがOFFにされたことによって撮影終了と判定する。また、コンテンツ提供装置10が外部のカメラから対象画像を取得する場合には、出力部22は、外部のカメラとの接続が切断されたことを検出することによって撮影終了と判定してもよい。また、図13の(b)に示されるように、出力部22は、撮影済みの写真を対象画像Poとし、対象画像Poの閲覧時にコンテンツCを表示してもよい。つまり、出力部22は、対象画像Poを縮小し、コンテンツCを縮小された対象画像Poとは異なる領域に配置することによって合成画像Gを生成し、合成画像Gを表示してもよい。   As shown in FIG. 13A, the output unit 22 may display the content C at the end of shooting. For example, the output unit 22 determines that the photographing has ended when the evaluation mode is turned off. Further, when the content providing apparatus 10 acquires a target image from an external camera, the output unit 22 may determine that the shooting has ended by detecting that the connection with the external camera has been disconnected. Further, as illustrated in FIG. 13B, the output unit 22 may display a content C when viewing the target image Po by setting the photographed photograph as the target image Po. That is, the output unit 22 may generate the composite image G by reducing the target image Po and arranging the content C in a different area from the reduced target image Po, and display the composite image G.

ユーザ嗜好情報更新部23は、シーン別嗜好情報を更新する更新手段として機能する。ユーザ嗜好情報更新部23は、例えば、ユーザ嗜好情報格納部15に格納されているユーザ嗜好情報を更新することによって、シーン別ユーザ情報格納部18に格納されているシーン別嗜好情報を更新する。例えば、出力部22によって出力されたコンテンツが複数の写真家のうちのいずれかの写真家に関連するコンテンツである場合、ユーザ嗜好情報更新部23は、ユーザによって当該コンテンツが閲覧されたことを検出すると、ユーザ嗜好情報において、コンテンツに関連する写真家に対する嗜好度を増加する。図14に示されるように、写真家1のコンテンツが閲覧された場合に、ユーザ嗜好情報更新部23は、例えば、ユーザ更新情報において写真家1の嗜好度を1つ増加する。これにより、次の対象画像の処理において、シーン別ユーザ情報抽出部17が、更新されたユーザ嗜好情報を用いてシーン別嗜好情報を算出するので、シーン別嗜好情報を更新することができる。   The user preference information updating unit 23 functions as an updating unit that updates the scene-specific preference information. The user preference information update unit 23 updates the preference information for each scene stored in the user information storage unit for each scene 18 by updating the user preference information stored in the user preference information storage unit 15, for example. For example, when the content output by the output unit 22 is content related to one of a plurality of photographers, the user preference information update unit 23 detects that the content has been browsed by the user Then, in the user preference information, the degree of preference for the photographer related to the content is increased. As illustrated in FIG. 14, when the content of the photographer 1 is browsed, the user preference information update unit 23 increases the preference level of the photographer 1 by one in the user update information, for example. Thereby, in the process of the next target image, the scene-specific user information extraction unit 17 calculates the scene-specific preference information using the updated user preference information, so that the scene-specific preference information can be updated.

なお、コンテンツが閲覧されたことの検出は、例えば、入力装置106によって、コンテンツ表示用のアイコン(図10の(a)、図13の(a)及び図13の(b)参照)が押下されたか否かによって行われる。また、コンテンツに外部サイトへのリンク情報が含まれる場合には、コンテンツが閲覧されたことの検出は、当該外部サイトにアクセスしたか否かによって行われてもよい。   For example, the content display icon (see FIG. 10A, FIG. 13A, and FIG. 13B) is pressed by the input device 106 to detect that the content has been browsed. It is done depending on whether or not. When the content includes link information to an external site, detection that the content has been browsed may be performed based on whether or not the external site has been accessed.

次に、図15を参照して、コンテンツ提供装置10におけるコンテンツ提供方法の一連の処理を説明する。図15は、コンテンツ提供方法の一連の処理を示すフローチャートである。ここでは、ユーザがコンテンツ提供装置10(一例としてカメラ機能付きスマートフォン)のカメラ機能(カメラアプリケーション及びカメラモジュール108)を利用して写真を撮影する場合を例に挙げて説明する。図15に示される一連の処理は、例えば、ユーザがカメラアプリケーションを起動することを契機として開始される。   Next, a series of processes of the content providing method in the content providing apparatus 10 will be described with reference to FIG. FIG. 15 is a flowchart showing a series of processes of the content providing method. Here, a case where the user takes a picture using the camera function (camera application and camera module 108) of the content providing apparatus 10 (a smartphone with a camera function as an example) will be described as an example. The series of processes shown in FIG. 15 is started when the user activates the camera application, for example.

まず、画像取得部11が、対象画像を取得する(ステップS01)。具体的には、ユーザがコンテンツ提供装置10のカメラアプリケーションを起動した後に、レンズが向けられている方向の画像が対象画像として取得される。取得された対象画像の画像情報は、画像情報格納部12に一時的に格納される。   First, the image acquisition unit 11 acquires a target image (step S01). Specifically, after the user activates the camera application of the content providing apparatus 10, an image in the direction in which the lens is directed is acquired as the target image. The acquired image information of the target image is temporarily stored in the image information storage unit 12.

続いて、コンテンツ提供装置10において評価モードがONにされているか否かが判定される(ステップS02)。評価モードがONにされていると判定された場合(ステップS02:YES)、コンテンツ提供に係る処理(ステップS03〜ステップS07)が実行される。   Subsequently, it is determined whether or not the evaluation mode is turned on in the content providing apparatus 10 (step S02). When it is determined that the evaluation mode is ON (step S02: YES), processing related to content provision (step S03 to step S07) is executed.

以下、評価モードがONにされていると判定された場合(ステップS02:YES)の処理について説明する。まず、評価情報取得部13が、画像取得部11によって取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する(ステップS03)。そして、評価情報取得部13は、対象画像の評価情報を評価情報格納部14に出力し、格納する。   Hereinafter, a process when it is determined that the evaluation mode is ON (step S02: YES) will be described. First, the evaluation information acquisition unit 13 acquires evaluation information regarding a plurality of evaluation items including a photographic scene with respect to the target image acquired by the image acquisition unit 11 (step S03). Then, the evaluation information acquisition unit 13 outputs the evaluation information of the target image to the evaluation information storage unit 14 and stores it.

続いて、シーン別ユーザ情報抽出部17は、評価情報取得部13によって取得された評価情報に基づいて、シーン別ユーザ情報を抽出する(ステップS04)。シーン別ユーザ情報には、シーン別評価値及びシーン別嗜好情報が含まれる。具体的には、シーン別ユーザ情報抽出部17は、シーン別ユーザ情報格納部18に格納されているシーン別評価テーブルを読み出し、シーン別評価テーブルにおいて、評価情報取得部13によって取得された撮影シーンに対応する値に、評価情報取得部13によって取得された評価値をそれぞれ加算することによってシーン別評価値を算出する。そして、シーン別ユーザ情報抽出部17は、更新したシーン別評価テーブルをシーン別ユーザ情報格納部18に格納する。   Subsequently, the scene-specific user information extraction unit 17 extracts scene-specific user information based on the evaluation information acquired by the evaluation information acquisition unit 13 (step S04). The scene-specific user information includes scene-specific evaluation values and scene-specific preference information. Specifically, the scene-specific user information extraction unit 17 reads the scene-specific evaluation table stored in the scene-specific user information storage unit 18, and the shooting scene acquired by the evaluation information acquisition unit 13 in the scene-specific evaluation table. The evaluation value for each scene is calculated by adding the evaluation value acquired by the evaluation information acquisition unit 13 to the value corresponding to. Then, the scene-specific user information extraction unit 17 stores the updated scene-specific evaluation table in the scene-specific user information storage unit 18.

また、シーン別ユーザ情報抽出部17は、ユーザ嗜好情報格納部15に格納されているユーザ嗜好情報と、写真家情報格納部16に格納されている写真家情報と、に基づいて、シーン別嗜好情報を算出する。例えば、シーン別ユーザ情報抽出部17は、ユーザ嗜好情報において各写真家に割り当てられている嗜好度と、写真家情報における当該写真家の撮影シーンの特徴値とを乗算することによって、シーン別嗜好度を算出する。そして、シーン別ユーザ情報抽出部17は、シーン別嗜好情報をシーン別嗜好写真家テーブルの形式でシーン別ユーザ情報格納部18に格納する。   The scene-specific user information extraction unit 17 also selects the scene-specific preference based on the user preference information stored in the user preference information storage unit 15 and the photographer information stored in the photographer information storage unit 16. Calculate information. For example, the scene-specific user information extraction unit 17 multiplies the preference level assigned to each photographer in the user preference information by the feature value of the photographed scene of the photographer in the photographer information, thereby obtaining the scene-specific preference. Calculate the degree. The scene-specific user information extraction unit 17 stores the scene-specific preference information in the scene-specific user information storage unit 18 in the form of a scene-specific preference photographer table.

続いて、コンテンツ選択部20は、シーン別ユーザ情報抽出部17によって抽出されたシーン別ユーザ情報に基づいて、コンテンツ格納部19に格納されている複数のコンテンツからコンテンツを選択する(ステップS05)。具体的には、コンテンツ選択部20は、評価情報格納部14に格納されている評価情報と、シーン別ユーザ情報格納部18に格納されているシーン別ユーザ情報と、に基づいて、コンテンツテーブルの条件を満たすコンテンツを選択する。そして、コンテンツ選択部20は、選択したコンテンツをコンテンツ編集部21に出力する。   Subsequently, the content selection unit 20 selects content from the plurality of contents stored in the content storage unit 19 based on the scene-specific user information extracted by the scene-specific user information extraction unit 17 (step S05). Specifically, the content selection unit 20 is based on the evaluation information stored in the evaluation information storage unit 14 and the user information by scene stored in the user information storage unit 18 by scene. Select content that meets the conditions. Then, the content selection unit 20 outputs the selected content to the content editing unit 21.

続いて、コンテンツ編集部21は、シーン別ユーザ情報に基づいて、コンテンツ選択部20によって選択されたコンテンツを編集する(ステップS06)。そして、コンテンツ編集部21は、編集したコンテンツを出力部22に出力する。   Subsequently, the content editing unit 21 edits the content selected by the content selection unit 20 based on the scene-specific user information (step S06). Then, the content editing unit 21 outputs the edited content to the output unit 22.

続いて、出力部22は、コンテンツ編集部21によって編集されたコンテンツを出力する(ステップS07)。具体的には、出力部22は、コンテンツ編集部21によって編集されたコンテンツと画像取得部11によって取得された対象画像とに基づいて合成画像を生成し、合成画像を出力画像として出力する。なお、本実施形態では、出力部22は、出力画像を表示する。   Subsequently, the output unit 22 outputs the content edited by the content editing unit 21 (step S07). Specifically, the output unit 22 generates a composite image based on the content edited by the content editing unit 21 and the target image acquired by the image acquisition unit 11, and outputs the composite image as an output image. In the present embodiment, the output unit 22 displays an output image.

一方、ステップS02において、評価モードがONにされていないと判定された場合(ステップS2:NO)、出力部22は、ステップS01で取得された対象画像を出力画像として出力する(ステップS08)。なお、本実施形態では、出力部22は、出力画像を表示する。   On the other hand, when it is determined in step S02 that the evaluation mode is not turned on (step S2: NO), the output unit 22 outputs the target image acquired in step S01 as an output image (step S08). In the present embodiment, the output unit 22 displays an output image.

その後、ステップS07又はステップS08で出力された出力画像がユーザ(撮影者)によって確認され、所定の決定操作がなされると、コンテンツ提供装置10は、対象画像を撮影及び記録する(ステップS09)。   Thereafter, when the output image output in step S07 or step S08 is confirmed by the user (photographer) and a predetermined determination operation is performed, the content providing apparatus 10 captures and records the target image (step S09).

続いて、コンテンツ提供装置10において、ユーザから撮影処理の終了を受け付けたか否かが判定される(ステップS10)。具体的には、カメラアプリケーションの終了操作を受け付けたか否かが判定される。撮影処理の終了を受け付けていないと判定された場合(ステップS10:NO)、ステップS1〜ステップS10の処理が繰り返し実行され、2枚目以降の対象画像の処理が実行される。一方、ステップS10において、撮影処理の終了を受け付けたと判定された場合(ステップS10:YES)、コンテンツ提供装置10の動作(ここでは一例としてカメラアプリケーションによる写真撮影の処理)を終了する。このようにして、コンテンツ提供方法の一連の処理が終了する。   Subsequently, in the content providing apparatus 10, it is determined whether or not the end of the shooting process has been received from the user (step S10). Specifically, it is determined whether an end operation of the camera application has been accepted. If it is determined that the end of the shooting process has not been received (step S10: NO), the processes of step S1 to step S10 are repeatedly executed, and the process of the second and subsequent target images is executed. On the other hand, if it is determined in step S10 that the end of the photographing process has been received (step S10: YES), the operation of the content providing apparatus 10 (here, the photographing process by the camera application as an example) is terminated. In this way, a series of processing of the content providing method ends.

上記一連の処理は、定期的に又はレンズが向けられている方向が変化したタイミング等で、繰り返し実行されてもよい。これにより、現時点で撮影可能な画像について、コンテンツを含む合成画像が、ほぼリアルタイムに更新されながらユーザに提示される。この場合、ユーザは、例えば合成画像を確認して、アドバイスに従って構図等の調整を行い得る。   The series of processes may be repeatedly executed periodically or at a timing when the direction in which the lens is directed changes. As a result, a composite image including content is presented to the user while being updated almost in real time for the image that can be captured at the current time. In this case, the user can confirm the composite image, for example, and adjust the composition or the like according to the advice.

次に、図16を参照して、コンピュータをコンテンツ提供装置10として機能させるためのコンテンツ提供プログラムPについて説明する。   Next, a content providing program P for causing a computer to function as the content providing apparatus 10 will be described with reference to FIG.

コンテンツ提供プログラムPは、メインモジュールP10、画像取得モジュールP11、評価情報取得モジュールP13、シーン別ユーザ情報抽出モジュールP17、コンテンツ選択モジュールP20、コンテンツ編集モジュールP21、出力モジュールP22、及びユーザ嗜好情報更新モジュールP23を備える。メインモジュールP10は、コンテンツ提供に係る処理を統括的に制御する部分である。画像取得モジュールP11、評価情報取得モジュールP13、シーン別ユーザ情報抽出モジュールP17、コンテンツ選択モジュールP20、コンテンツ編集モジュールP21、出力モジュールP22、及びユーザ嗜好情報更新モジュールP23を実行することにより実現される機能はそれぞれ、上記実施形態における画像取得部11、評価情報取得部13、シーン別ユーザ情報抽出部17、コンテンツ選択部20、コンテンツ編集部21、出力部22、及びユーザ嗜好情報更新部23の機能と同様である。   The content providing program P includes a main module P10, an image acquisition module P11, an evaluation information acquisition module P13, a scene-specific user information extraction module P17, a content selection module P20, a content editing module P21, an output module P22, and a user preference information update module P23. Is provided. The main module P10 is a part that comprehensively controls processing related to content provision. The functions realized by executing the image acquisition module P11, the evaluation information acquisition module P13, the scene-specific user information extraction module P17, the content selection module P20, the content editing module P21, the output module P22, and the user preference information update module P23. The functions of the image acquisition unit 11, the evaluation information acquisition unit 13, the scene-specific user information extraction unit 17, the content selection unit 20, the content editing unit 21, the output unit 22, and the user preference information update unit 23 in the above embodiment, respectively. It is.

コンテンツ提供プログラムPは、CD−ROM(Compact DiskRead Only Memory)、DVD−ROM(Digital Versatile Disk ReadOnly Memory)、及び半導体メモリ等の有形の記録媒体に固定的に記録された状態で提供されてもよい。または、コンテンツ提供プログラムPは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。   The content providing program P may be provided in a state of being fixedly recorded on a tangible recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only Memory), and a semiconductor memory. . Alternatively, the content providing program P may be provided via a communication network as a data signal superimposed on a carrier wave.

以上説明したコンテンツ提供装置10及びコンテンツ提供プログラムPでは、取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報が取得され、評価情報に基づいてシーン別ユーザ情報が抽出される。そして、シーン別ユーザ情報に基づいて、撮影に関する複数のコンテンツからコンテンツが選択されて出力される。これにより、撮影シーンに応じたユーザに関する情報が考慮されてコンテンツが選択されるので、撮影シーンごとにユーザに適したコンテンツを提供することが可能となる。   In the content providing apparatus 10 and the content providing program P described above, evaluation information regarding a plurality of evaluation items including a photographic scene is acquired for the acquired target image, and user information for each scene is extracted based on the evaluation information. The Then, based on the user information for each scene, the content is selected from a plurality of contents related to shooting and output. As a result, the content is selected in consideration of information related to the user according to the shooting scene, so that it is possible to provide content suitable for the user for each shooting scene.

また、シーン別ユーザ情報抽出部17は、評価情報取得部13によって取得された評価値を撮影シーンごとに集計することによって、シーン別評価値を算出し、シーン別評価値をシーン別ユーザ情報として抽出する。このシーン別評価値は、撮影シーンごとのユーザの撮影技術を反映した値とみなされ得る。このため、撮影シーンごとのユーザの撮影技術が考慮されてコンテンツが選択されるので、撮影シーンごとのユーザの撮影技術に応じたコンテンツを提供することが可能となる。   Further, the scene-specific user information extraction unit 17 calculates the scene-specific evaluation value by counting the evaluation values acquired by the evaluation information acquisition unit 13 for each shooting scene, and uses the scene-specific evaluation value as the scene-specific user information. Extract. This scene-specific evaluation value can be regarded as a value reflecting the user's shooting technique for each shooting scene. For this reason, the content is selected in consideration of the user's shooting technique for each shooting scene, and therefore it is possible to provide content according to the user's shooting technique for each shooting scene.

また、シーン別ユーザ情報抽出部17は、シーン別嗜好情報をシーン別ユーザ情報として抽出する。このシーン別嗜好情報は、撮影シーンごとのユーザの嗜好を表す。このため、撮影シーンごとのユーザの嗜好が考慮されてコンテンツが選択されるので、撮影シーンごとのユーザの嗜好に応じたコンテンツを提供することが可能となる。   The scene-specific user information extraction unit 17 extracts scene-specific preference information as scene-specific user information. This scene-specific preference information represents the user's preference for each shooting scene. For this reason, since the user's preference for each shooting scene is taken into consideration, the content is selected according to the user's preference for each shooting scene.

また、シーン別ユーザ情報抽出部17は、複数の写真家のそれぞれについて当該写真家が撮影する撮影シーンの傾向を示す写真家情報と、複数の写真家のうちユーザが好む写真家を示すユーザ嗜好情報と、に基づいて、シーン別嗜好情報を算出する。このため、撮影シーンごとにユーザが好む写真家を逐一選択することなく、シーン別嗜好情報を得ることができる。   The scene-specific user information extraction unit 17 also includes photographer information indicating a tendency of a shooting scene taken by the photographer for each of a plurality of photographers, and a user preference indicating a photographer preferred by the user among the plurality of photographers. Based on the information, the preference information for each scene is calculated. Therefore, it is possible to obtain scene-specific preference information without selecting a photographer preferred by the user for each shooting scene.

また、ユーザ嗜好情報更新部23は、シーン別嗜好情報を更新する。ユーザ嗜好情報更新部23は、例えば、ユーザによって閲覧されたコンテンツに応じて、シーン別嗜好情報を更新することにより、ユーザの嗜好の変化を反映することができる。このため、ユーザの嗜好の変化に応じて、選択されるコンテンツを変更することが可能となる。   Moreover, the user preference information update part 23 updates the preference information classified by scene. For example, the user preference information update unit 23 can reflect the change in the preference of the user by updating the preference information for each scene according to the content browsed by the user. For this reason, it becomes possible to change the selected content according to a change in the user's preference.

また、コンテンツ編集部21は、シーン別ユーザ情報に基づいて、コンテンツ選択部20によって選択されたコンテンツを編集する。このため、例えば、撮影シーンごとのユーザに関する情報をコンテンツに反映させることによって、ユーザの興味を惹くように、コンテンツを編集することができる。これにより、提供されたコンテンツに対するユーザの理解度を高めることができ、提供されたコンテンツに対するユーザの閲覧率を向上することが可能となる。   Further, the content editing unit 21 edits the content selected by the content selection unit 20 based on the scene-specific user information. For this reason, for example, the content can be edited so as to attract the user's interest by reflecting the information about the user for each shooting scene in the content. Thereby, a user's understanding degree with respect to the provided content can be raised, and a user's browsing rate with respect to the provided content can be improved.

(第2実施形態)
第2実施形態に係るコンテンツ提供装置について説明する。図17は、第2実施形態のコンテンツ提供装置の機能構成を示すブロック図である。図17に示されるように、第2実施形態に係るコンテンツ提供装置10Aは、第1実施形態に係るコンテンツ提供装置10と比較して、コンテンツ提供装置10Aがサーバ装置2A及び端末装置3Aを含む点で主に相違する。サーバ装置2Aは、例えば、端末装置3Aにコンテンツを配信するサーバである。端末装置3Aは、ユーザによって携帯されて用いられる装置である。端末装置3Aは、例えば、デジタルカメラ、携帯電話機、スマートフォン、タブレット端末及びPCを含む端末装置である。端末装置3Aは、サーバ装置2Aからコンテンツを取得し、取得したコンテンツを表示する。サーバ装置2Aと端末装置3Aとは、例えば、移動体通信網等のネットワークを介して互いに通信可能に接続されている。複数の端末装置3Aがサーバ装置2Aと通信可能に接続されてもよい。
(Second Embodiment)
A content providing apparatus according to the second embodiment will be described. FIG. 17 is a block diagram illustrating a functional configuration of the content providing apparatus according to the second embodiment. As illustrated in FIG. 17, the content providing apparatus 10A according to the second embodiment includes the server apparatus 2A and the terminal apparatus 3A as compared to the content providing apparatus 10 according to the first embodiment. The main difference. The server device 2A is, for example, a server that distributes content to the terminal device 3A. The terminal device 3A is a device that is carried and used by a user. The terminal device 3A is a terminal device including a digital camera, a mobile phone, a smartphone, a tablet terminal, and a PC, for example. The terminal device 3A acquires content from the server device 2A and displays the acquired content. The server device 2A and the terminal device 3A are connected to be communicable with each other via a network such as a mobile communication network. A plurality of terminal devices 3A may be communicably connected to the server device 2A.

端末装置3Aは、画像取得部11と、画像情報格納部12と、評価情報取得部13と、評価情報格納部14と、ユーザ嗜好情報格納部15と、写真家情報格納部16と、シーン別ユーザ情報抽出部17と、シーン別ユーザ情報格納部18と、出力部22と、ユーザ嗜好情報更新部23と、通信制御部31と、を備えている。通信制御部31は、サーバ装置2Aに対するデータの送受信を制御する。サーバ装置2Aは、コンテンツ格納部19と、コンテンツ選択部20と、コンテンツ編集部21と、通信制御部24と、を備えている。通信制御部24は、端末装置3Aに対するデータの送受信を制御する。   The terminal device 3A includes an image acquisition unit 11, an image information storage unit 12, an evaluation information acquisition unit 13, an evaluation information storage unit 14, a user preference information storage unit 15, a photographer information storage unit 16, A user information extraction unit 17, a scene-specific user information storage unit 18, an output unit 22, a user preference information update unit 23, and a communication control unit 31 are provided. The communication control unit 31 controls transmission / reception of data to / from the server device 2A. The server device 2 </ b> A includes a content storage unit 19, a content selection unit 20, a content editing unit 21, and a communication control unit 24. The communication control unit 24 controls transmission / reception of data to / from the terminal device 3A.

評価情報格納部14に格納されている評価情報及びシーン別ユーザ情報格納部18に格納されているシーン別ユーザ情報は、通信制御部31及び通信制御部24を介してコンテンツ選択部20及びコンテンツ編集部21に送信される。また、コンテンツ編集部21によって編集されたコンテンツは、通信制御部24及び通信制御部31を介して出力部22に送信される。なお、通信制御部31は、端末装置3Aを一意に識別するための端末IDとともに評価情報及びシーン別ユーザ情報をサーバ装置2Aに送信する。通信制御部24は、評価情報及びシーン別ユーザ情報とともに送信された端末IDに基づいて、評価情報及びシーン別ユーザ情報を送信した端末装置3Aにコンテンツを送信する。   Evaluation information stored in the evaluation information storage unit 14 and scene-specific user information stored in the scene-specific user information storage unit 18 are transmitted to the content selection unit 20 and the content editing unit via the communication control unit 31 and the communication control unit 24. Is transmitted to the unit 21. Further, the content edited by the content editing unit 21 is transmitted to the output unit 22 via the communication control unit 24 and the communication control unit 31. The communication control unit 31 transmits evaluation information and scene-specific user information to the server device 2A together with a terminal ID for uniquely identifying the terminal device 3A. Based on the terminal ID transmitted together with the evaluation information and the user information for each scene, the communication control unit 24 transmits the content to the terminal device 3A that has transmitted the evaluation information and the user information for each scene.

以上の第2実施形態のコンテンツ提供装置10Aによっても、上述した第1実施形態のコンテンツ提供装置10と同様の効果が奏される。   The content providing apparatus 10A according to the second embodiment described above also provides the same effects as those of the content providing apparatus 10 according to the first embodiment described above.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されない。例えば、画像取得部11は、インターネット上の画像を対象画像として取得してもよい。また、画像取得部11は、SNS(Social Networking Service)において、ユーザが興味を示す画像を対象画像として取得してもよい。例えば、画像取得部11は、フェイスブック及びインスタグラム等において、ユーザが「いいね」フラグを付した画像を対象画像として取得する。画像取得部11は、例えば、公開されているアカウント、及びユーザが閲覧可能なオープン型のSNSから、上記フラグを付した画像を取得する。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment. For example, the image acquisition unit 11 may acquire an image on the Internet as a target image. Moreover, the image acquisition part 11 may acquire the image which a user shows interest as a target image in SNS (Social Networking Service). For example, the image acquisition unit 11 acquires, as a target image, an image with a “Like” flag by the user in Facebook, Instagram, or the like. The image acquisition unit 11 acquires the image with the flag from, for example, a public account and an open SNS that can be browsed by the user.

また、コンテンツ提供装置10,10Aでは、単に撮影回数が多いユーザの撮影技術が上級であると判定されることがある。これに対し、シーン別ユーザ情報抽出部17は、対象画像の処理時から直近に撮影された所定枚数(例えば、5000枚)の写真を対象として、シーン別評価値を算出してもよく、対象画像の処理時から所定の期間(例えば、半年間)前から対象画像の処理時までに撮影された写真を対象として、シーン別評価値を算出してもよい。このようにすることで、ユーザの撮影技術の判定精度を向上することが可能となる。   Further, in the content providing apparatuses 10 and 10A, it may be determined that the shooting technique of a user who simply has a large number of shootings is advanced. On the other hand, the scene-specific user information extraction unit 17 may calculate a scene-specific evaluation value for a predetermined number of photographs (for example, 5000) taken most recently since the processing of the target image. The scene-by-scene evaluation value may be calculated for photos taken from a predetermined period (for example, half a year) before the processing of the image to the processing of the target image. By doing in this way, it becomes possible to improve the determination precision of a user's imaging technique.

また、コンテンツ格納部19は、撮影済みの対象画像に対応付けられたコンテンツ群と、撮影中の対象画像に対応付けられたコンテンツ群と、を格納していてもよい。この場合、コンテンツ選択部20は、対象画像が撮影済みの画像であるか撮影中の画像であるかに応じて、選択対象となるコンテンツ群からコンテンツを選択してもよい。   Further, the content storage unit 19 may store a content group associated with the captured target image and a content group associated with the target image being captured. In this case, the content selection unit 20 may select content from the content group to be selected depending on whether the target image is a captured image or an image being captured.

また、コンテンツ格納部19は、ユーザごとに選択対象のコンテンツを格納していてもよい。また、コンテンツ格納部19には、ユーザによって選択されたコンテンツが格納されてもよい。また、コンテンツ格納部19に格納されているコンテンツは、コンテンツの利用傾向に応じて更新されてもよい。この利用傾向は、ユーザが閲覧したことを示す閲覧情報に基づいて定められる。閲覧情報は、例えば、ユーザがコンテンツを閲覧した回数、コンテンツを評価した回数、コンテンツに従って撮影を行った回数、及びコンテンツに従って撮影技術が向上したことを示す情報を含む。   Further, the content storage unit 19 may store content to be selected for each user. The content storage unit 19 may store content selected by the user. Further, the content stored in the content storage unit 19 may be updated according to the usage tendency of the content. This usage tendency is determined based on browsing information indicating that the user has browsed. The browsing information includes, for example, the number of times the user has browsed the content, the number of times the content has been evaluated, the number of times that shooting has been performed according to the content, and information indicating that the shooting technique has been improved according to the content.

また、コンテンツ選択部20は、協調フィルタリングによって、コンテンツ格納部19に格納されている複数のコンテンツからコンテンツを選択してもよい。また、コンテンツ選択部20は、回帰式又は判別式に基づいて、コンテンツ格納部19に格納されている複数のコンテンツからコンテンツを選択してもよい。回帰式は、例えば重回帰分析によって算出される。判別式は、例えばロジスティック回帰、及びサポートベクタマシンによって算出される。この場合、コンテンツ選択部20は、ユーザ本人への適合スコアに基づいて、コンテンツの優先順位を決定してもよい。   The content selection unit 20 may select content from a plurality of contents stored in the content storage unit 19 by collaborative filtering. In addition, the content selection unit 20 may select content from a plurality of contents stored in the content storage unit 19 based on a regression equation or a discriminant. The regression equation is calculated by, for example, multiple regression analysis. The discriminant is calculated by, for example, logistic regression and a support vector machine. In this case, the content selection unit 20 may determine the priority order of the content based on the fitness score for the user.

例えば、コンテンツ選択部20によって2つのコンテンツ(コンテンツID=101,102)が選択されたとして説明する。コンテンツIDが101のコンテンツが、F値が1.4の場合に+40、撮影シーンがポートレイトの場合に+30という回帰係数を有しており、コンテンツIDが102のコンテンツが、F値が1.4の場合に+40、撮影シーンがポートレイトの場合に−10という回帰係数を有しているとする。このとき、対象画像のF値が1.4で、撮影シーンがポートレイトである場合、コンテンツIDが101のコンテンツの適合スコアは70となり、コンテンツIDが102のコンテンツの適合スコアは30となる。このため、コンテンツ選択部20は、コンテンツIDが102のコンテンツよりも、コンテンツIDが101のコンテンツに、高い優先順位を割り当てる。   For example, it is assumed that two contents (content ID = 101, 102) are selected by the content selection unit 20. The content with the content ID 101 has a regression coefficient of +40 when the F value is 1.4 and +30 when the shooting scene is a portrait, and the content with the content ID 102 has an F value of 1. It is assumed that it has a regression coefficient of +40 in the case of 4 and −10 in the case where the shooting scene is a portrait. At this time, when the F value of the target image is 1.4 and the shooting scene is a portrait, the fitness score of the content with the content ID 101 is 70, and the fitness score of the content with the content ID 102 is 30. For this reason, the content selection unit 20 assigns a higher priority to the content with the content ID 101 than the content with the content ID 102.

コンテンツ選択部20は、SNSで人気のコンテンツに対して、高い優先順位を割り当ててもよい。   The content selection unit 20 may assign a high priority to content popular in SNS.

また、コンテンツ編集部21は、例えば「{時間}の{撮影シーン}写真の撮影お疲れ様でした。今回の{構図}を活かした撮影で、{撮影シーン}写真の腕前が{ユーザの撮影技術}にレベルアップいたしました。さらに{ユーザの撮影技術+1}を目指すあなたに、{写真家}先生から魚眼レンズを使った{撮影シーン}写真撮影テクニックのご紹介があります。」といったテンプレート文章をコンテンツに付加してもよい。評価情報として撮影時刻が含まれる場合には、コンテンツ編集部21は、例えば、評価情報から一連の撮影を行った時間を取得することが可能である。コンテンツ編集部21は、取得した時間に応じた文字列を{時間}に追加する。コンテンツ編集部21は、例えば、一連の撮影のうち、1枚目の画像の撮影時刻が23時であり、最後の画像の撮影時刻が5時である場合には、「深夜から早朝までの長時間」という文字列を追加する。コンテンツ編集部21は、{ユーザの撮影技術+1}には、現在のユーザの撮影技術の1つ上のレベルを示す文字列を追加する。評価情報として「Comp」に代えて「Comp(j)」が含まれており、一連の撮影において他の評価項目の評価値よりもComp(j)の評価値が高かった場合には、コンテンツ編集部21は、構図パターンjを示す文字列を{構図}に追加する。この場合、ユーザの撮影履歴、好み、及び撮影技術等に対応した文章がコンテンツに付加されるので、出力部22によって出力されたコンテンツをユーザが閲覧する可能性を高めることができる。   In addition, the content editing unit 21 is, for example, “Thanks for taking the {shooting scene} photo of {time}. Taking advantage of this {composition}, {shooting scene} the skill of the photo is {user's shooting technique} In addition, the template text such as “The photographer} has introduced the {shooting scene} photography technique using a fisheye lens to you, who is aiming for {user's shooting technique + 1}." It may be added. When the shooting time is included as the evaluation information, the content editing unit 21 can acquire, for example, the time when a series of shooting was performed from the evaluation information. The content editing unit 21 adds a character string corresponding to the acquired time to {time}. For example, when the shooting time of the first image is 23:00 and the shooting time of the last image is 5 o'clock in a series of shootings, the content editing unit 21 reads “Long time from midnight to early morning”. Add the string “time”. The content editing unit 21 adds a character string indicating a level higher than the current user's imaging technique to {user's imaging technique + 1}. If the evaluation information includes “Comp (j)” instead of “Comp” and the evaluation value of Comp (j) is higher than the evaluation value of the other evaluation items in a series of shooting, the content is edited. The unit 21 adds a character string indicating the composition pattern j to {composition}. In this case, since the text corresponding to the user's shooting history, preference, shooting technique, and the like is added to the content, the possibility that the user views the content output by the output unit 22 can be increased.

また、出力部22は、コンテンツ編集部21によってコンテンツを編集することなく、コンテンツ選択部20によって選択されたコンテンツを出力してもよい。   The output unit 22 may output the content selected by the content selection unit 20 without editing the content by the content editing unit 21.

10,10A…コンテンツ提供装置、11…画像取得部(画像取得手段)、13…評価情報取得部(評価情報取得手段)、17…シーン別ユーザ情報抽出部(抽出手段)、19…コンテンツ格納部(コンテンツ格納手段)、20…コンテンツ選択部(選択手段)、21…コンテンツ編集部(編集手段)、22…出力部(出力手段)、23…ユーザ嗜好情報更新部(更新手段)、P…コンテンツ提供プログラム。   DESCRIPTION OF SYMBOLS 10,10A ... Content provision apparatus, 11 ... Image acquisition part (image acquisition means), 13 ... Evaluation information acquisition part (evaluation information acquisition means), 17 ... Scene-specific user information extraction part (extraction means), 19 ... Content storage part (Content storage means), 20 ... content selection section (selection means), 21 ... content editing section (editing means), 22 ... output section (output means), 23 ... user preference information update section (update means), P ... content Offer program.

Claims (7)

処理対象の画像である対象画像を取得する画像取得手段と、
前記画像取得手段によって取得された前記対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段と、
前記評価情報取得手段によって取得された前記評価情報に基づいて、前記撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報を抽出する抽出手段と、
撮影に関する複数のコンテンツを格納するコンテンツ格納手段と、
前記抽出手段によって抽出された前記シーン別ユーザ情報に基づいて、前記コンテンツ格納手段に格納されている前記複数のコンテンツからコンテンツを選択する選択手段と、
前記選択手段によって選択された前記コンテンツを出力する出力手段と、
を備えるコンテンツ提供装置。
Image acquisition means for acquiring a target image that is an image to be processed;
Evaluation information acquisition means for acquiring evaluation information regarding a plurality of evaluation items including a shooting scene for the target image acquired by the image acquisition means;
Based on the evaluation information acquired by the evaluation information acquisition means, extraction means for extracting user information by scene, which is information related to the user for each shooting scene,
Content storage means for storing a plurality of contents related to shooting;
Selection means for selecting content from the plurality of contents stored in the content storage means based on the scene-specific user information extracted by the extraction means;
Output means for outputting the content selected by the selection means;
A content providing apparatus comprising:
前記評価情報は、予め定められた評価基準に基づいて算出される評価値を含み、
前記抽出手段は、前記評価情報取得手段によって取得された前記評価値を前記撮影シーンごとに集計することによって、前記撮影シーンごとの前記評価値であるシーン別評価値を算出し、前記シーン別評価値を前記シーン別ユーザ情報として抽出する、請求項1に記載のコンテンツ提供装置。
The evaluation information includes an evaluation value calculated based on a predetermined evaluation criterion,
The extraction means calculates the evaluation value for each scene, which is the evaluation value for each shooting scene, by summing up the evaluation values acquired by the evaluation information acquisition means for each shooting scene. The content providing apparatus according to claim 1, wherein a value is extracted as the user information for each scene.
前記抽出手段は、複数の写真家のうち前記撮影シーンごとに前記ユーザが好む写真家を示すシーン別嗜好情報を前記シーン別ユーザ情報として抽出する、請求項1又は請求項2に記載のコンテンツ提供装置。   The content provision according to claim 1, wherein the extraction unit extracts, as the user information by scene, scene-specific preference information indicating a photographer preferred by the user for each shooting scene among a plurality of photographers. apparatus. 前記抽出手段は、前記複数の写真家のそれぞれについて当該写真家が撮影する前記撮影シーンの傾向を示す特徴情報と、前記複数の写真家のうち前記ユーザが好む写真家を示す嗜好情報と、に基づいて、前記シーン別嗜好情報を算出する、請求項3に記載のコンテンツ提供装置。   The extraction means includes, for each of the plurality of photographers, feature information indicating a tendency of the shooting scene taken by the photographer, and preference information indicating a photographer preferred by the user among the plurality of photographers. The content providing apparatus according to claim 3, wherein the scene preference information is calculated based on the scene information. 前記シーン別嗜好情報を更新する更新手段を更に備える、請求項3又は請求項4に記載のコンテンツ提供装置。   The content providing apparatus according to claim 3, further comprising updating means for updating the scene-specific preference information. 前記シーン別ユーザ情報に基づいて、前記選択手段によって選択された前記コンテンツを編集する編集手段を更に備え、
前記出力手段は、前記編集手段によって編集された前記コンテンツを出力する、請求項1〜請求項5のいずれか一項に記載のコンテンツ提供装置。
An editing unit that edits the content selected by the selection unit based on the scene-specific user information,
The content providing apparatus according to claim 1, wherein the output unit outputs the content edited by the editing unit.
処理対象の画像である対象画像を取得する画像取得手段と、
前記画像取得手段によって取得された前記対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段と、
前記評価情報取得手段によって取得された前記評価情報に基づいて、前記撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報を抽出する抽出手段と、
前記抽出手段によって抽出された前記シーン別ユーザ情報に基づいて、撮影に関する複数のコンテンツからコンテンツを選択する選択手段と、
前記選択手段によって選択された前記コンテンツを出力する出力手段と、
してコンピュータを機能させる、コンテンツ提供プログラム。
Image acquisition means for acquiring a target image that is an image to be processed;
Evaluation information acquisition means for acquiring evaluation information regarding a plurality of evaluation items including a shooting scene for the target image acquired by the image acquisition means;
Based on the evaluation information acquired by the evaluation information acquisition means, extraction means for extracting user information by scene, which is information related to the user for each shooting scene,
Selection means for selecting content from a plurality of contents related to shooting based on the user information by scene extracted by the extraction means;
Output means for outputting the content selected by the selection means;
Content providing program that allows computers to function.
JP2016068589A 2016-03-30 2016-03-30 Content providing device and content providing program Pending JP2017184021A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016068589A JP2017184021A (en) 2016-03-30 2016-03-30 Content providing device and content providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016068589A JP2017184021A (en) 2016-03-30 2016-03-30 Content providing device and content providing program

Publications (1)

Publication Number Publication Date
JP2017184021A true JP2017184021A (en) 2017-10-05

Family

ID=60008725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016068589A Pending JP2017184021A (en) 2016-03-30 2016-03-30 Content providing device and content providing program

Country Status (1)

Country Link
JP (1) JP2017184021A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110336945A (en) * 2019-07-09 2019-10-15 上海泰大建筑科技有限公司 A kind of intelligence assisted tomography patterning process and system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110336945A (en) * 2019-07-09 2019-10-15 上海泰大建筑科技有限公司 A kind of intelligence assisted tomography patterning process and system

Similar Documents

Publication Publication Date Title
KR102598109B1 (en) Electronic device and method for providing notification relative to image displayed via display and image stored in memory based on image analysis
CN107820020A (en) Method of adjustment, device, storage medium and the mobile terminal of acquisition parameters
US20120321131A1 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
KR101725884B1 (en) Automatic processing of images
KR20180116466A (en) Use of camera metadata for recommendations
US20160179846A1 (en) Method, system, and computer readable medium for grouping and providing collected image content
KR20090087670A (en) Method and system for extracting the photographing information
JP2015002423A (en) Image processing apparatus, server and storage medium
KR20100003898A (en) Method of controlling image processing apparatus, image processing apparatus and image file
CN107787463A (en) The capture of optimization focusing storehouse
WO2015145769A1 (en) Imaging device, information processing device, photography assistance system, photography assistance program, and photography assistance method
CN104866520A (en) Methods, devices and systems for context-sensitive organization of media files
CN102496147A (en) Image processing device, image processing method and image processing system
CN108513069A (en) Image processing method, device, storage medium and electronic equipment
JP5878523B2 (en) Content processing apparatus and integrated circuit, method and program thereof
CN112017137A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP6230386B2 (en) Image processing apparatus, image processing method, and image processing program
WO2015196681A1 (en) Picture processing method and electronic device
JP6323548B2 (en) Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method
US11238622B2 (en) Method of providing augmented reality contents and electronic device therefor
JP5381498B2 (en) Image processing apparatus, image processing program, and image processing method
CN107343142A (en) The image pickup method and filming apparatus of a kind of photo
JP2013149034A (en) Image display apparatus, image display method, and program
JP2017184021A (en) Content providing device and content providing program
CN109510752B (en) Information display method and device