JP2017184021A - Content providing device and content providing program - Google Patents
Content providing device and content providing program Download PDFInfo
- Publication number
- JP2017184021A JP2017184021A JP2016068589A JP2016068589A JP2017184021A JP 2017184021 A JP2017184021 A JP 2017184021A JP 2016068589 A JP2016068589 A JP 2016068589A JP 2016068589 A JP2016068589 A JP 2016068589A JP 2017184021 A JP2017184021 A JP 2017184021A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- content
- information
- evaluation
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、コンテンツ提供装置及びコンテンツ提供プログラムに関する。 The present invention relates to a content providing apparatus and a content providing program.
従来、ユーザの撮影技術を向上するために、ユーザによって撮影された画像に基づいて、アドバイスを提供する手法がある。例えば、特許文献1には、撮影アドバイスを初級者用、中級者用、及び上級者用に分け、ユーザの撮影レベルに応じた撮影アドバイスを表示するカメラが記載されている。
Conventionally, in order to improve a user's photographing technique, there is a method of providing advice based on an image photographed by a user. For example,
しかしながら、撮影シーンによって、ユーザの撮影技術及びユーザの嗜好等が異なることがある。例えば、風景の撮影が得意であるが、ポートレイトの撮影は苦手であるユーザが存在することがある。また、ユーザが好きな写真家が風景の写真と夜景の写真とで異なることもある。特許文献1に記載のカメラでは、撮影シーンごとのユーザの撮影技術及び嗜好等が考慮されていない。このため、ユーザに適したアドバイスが表示されないおそれがある。本技術分野では、撮影シーンごとにユーザに適したアドバイス等のコンテンツを提供することが望まれている。
However, the user's shooting technique, user's preference, and the like may differ depending on the shooting scene. For example, there may be a user who is good at shooting landscapes but is not good at portrait shooting. In addition, a photographer who likes the user may differ between a landscape photograph and a night view photograph. In the camera described in
本発明は、撮影シーンごとにユーザに適したコンテンツを提供可能なコンテンツ提供装置及びコンテンツ提供プログラムを提供する。 The present invention provides a content providing apparatus and a content providing program capable of providing content suitable for a user for each shooting scene.
本発明の一側面に係るコンテンツ提供装置は、処理対象の画像である対象画像を取得する画像取得手段と、画像取得手段によって取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段と、評価情報取得手段によって取得された評価情報に基づいて、撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報を抽出する抽出手段と、撮影に関する複数のコンテンツを格納するコンテンツ格納手段と、抽出手段によって抽出されたシーン別ユーザ情報に基づいて、コンテンツ格納手段に格納されている複数のコンテンツからコンテンツを選択する選択手段と、選択手段によって選択されたコンテンツを出力する出力手段と、を備える。 A content providing apparatus according to an aspect of the present invention relates to an image acquisition unit that acquires a target image that is an image to be processed, and a plurality of evaluation items that include a shooting scene with respect to the target image acquired by the image acquisition unit. Evaluation information acquisition means for acquiring evaluation information, extraction means for extracting user information by scene, which is information relating to the user for each shooting scene, based on the evaluation information acquired by the evaluation information acquisition means, and a plurality of contents relating to shooting Content storage means for storing the content, selection means for selecting content from a plurality of contents stored in the content storage means based on the user information for each scene extracted by the extraction means, and the content selected by the selection means Output means for outputting.
本発明の別の側面に係るコンテンツ提供プログラムは、処理対象の画像である対象画像を取得する画像取得手段と、画像取得手段によって取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段と、評価情報取得手段によって取得された評価情報に基づいて、撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報を抽出する抽出手段と、抽出手段によって抽出されたシーン別ユーザ情報に基づいて、撮影に関する複数のコンテンツからコンテンツを選択する選択手段と、選択手段によって選択されたコンテンツを出力する出力手段と、してコンピュータを機能させる。 A content providing program according to another aspect of the present invention includes an image acquisition unit that acquires a target image that is a processing target image, and a plurality of evaluation items that include a shooting scene with respect to the target image acquired by the image acquisition unit. The evaluation information acquisition means for acquiring the evaluation information regarding, the extraction means for extracting user information for each scene, which is information about the user for each shooting scene, based on the evaluation information acquired by the evaluation information acquisition means, and the extraction means Based on the scene-specific user information, the computer functions as a selection unit that selects content from a plurality of content related to shooting and an output unit that outputs the content selected by the selection unit.
このコンテンツ提供装置及びコンテンツ提供プログラムでは、取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報が取得され、評価情報に基づいて、撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報が抽出される。そして、シーン別ユーザ情報に基づいて、撮影に関する複数のコンテンツからコンテンツが選択されて出力される。これにより、撮影シーンに応じたユーザに関する情報が考慮されてコンテンツが選択されるので、撮影シーンごとにユーザに適したコンテンツを提供することが可能となる。 In the content providing apparatus and the content providing program, evaluation information regarding a plurality of evaluation items including a photographic scene is acquired for the acquired target image, and a scene that is information regarding a user for each photographic scene based on the evaluation information. Another user information is extracted. Then, based on the user information for each scene, the content is selected from a plurality of contents related to shooting and output. As a result, the content is selected in consideration of information related to the user according to the shooting scene, so that it is possible to provide content suitable for the user for each shooting scene.
評価情報は、予め定められた評価基準に基づいて算出される評価値を含んでもよい。抽出手段は、評価情報取得手段によって取得された評価値を撮影シーンごとに集計することによって、撮影シーンごとの評価値であるシーン別評価値を算出し、シーン別評価値をシーン別ユーザ情報として抽出してもよい。シーン別評価値は、撮影シーンごとのユーザの撮影技術を反映した値とみなされ得る。このため、撮影シーンごとのユーザの撮影技術が考慮されてコンテンツが選択されるので、撮影シーンごとのユーザの撮影技術に応じたコンテンツを提供することが可能となる。 The evaluation information may include an evaluation value calculated based on a predetermined evaluation criterion. The extraction means calculates the evaluation value for each scene, which is the evaluation value for each shooting scene, by counting the evaluation values acquired by the evaluation information acquisition means for each shooting scene, and uses the evaluation value for each scene as the user information for each scene. It may be extracted. The evaluation value for each scene can be regarded as a value reflecting the user's shooting technique for each shooting scene. For this reason, the content is selected in consideration of the user's shooting technique for each shooting scene, and therefore it is possible to provide content according to the user's shooting technique for each shooting scene.
抽出手段は、複数の写真家のうち撮影シーンごとにユーザが好む写真家を示すシーン別嗜好情報をシーン別ユーザ情報として抽出してもよい。シーン別嗜好情報は、撮影シーンごとのユーザの嗜好を表す。このため、撮影シーンごとのユーザの嗜好が考慮されてコンテンツが選択されるので、撮影シーンごとのユーザの嗜好に応じたコンテンツを提供することが可能となる。 The extraction means may extract the preference information by scene indicating the photographer preferred by the user for each shooting scene among the plurality of photographers as the user information by scene. The scene-specific preference information represents the user's preference for each shooting scene. For this reason, since the user's preference for each shooting scene is taken into consideration, the content is selected according to the user's preference for each shooting scene.
抽出手段は、複数の写真家のそれぞれについて当該写真家が撮影する撮影シーンの傾向を示す特徴情報と、複数の写真家のうちユーザが好む写真家を示す嗜好情報と、に基づいて、シーン別嗜好情報を算出してもよい。この場合、撮影シーンごとにユーザが好む写真家を逐一選択することなく、シーン別嗜好情報を得ることができる。 The extraction unit is configured to analyze each scene based on feature information indicating a tendency of a shooting scene taken by the photographer for each of the plurality of photographers and preference information indicating a photographer preferred by the user among the plurality of photographers. Preference information may be calculated. In this case, the preference information for each scene can be obtained without selecting the photographer preferred by the user for each shooting scene.
上記コンテンツ提供装置は、シーン別嗜好情報を更新する更新手段を更に備えてもよい。この場合、ユーザの嗜好の変化に応じて、選択されるコンテンツを変更することができる。 The content providing apparatus may further include update means for updating the preference information for each scene. In this case, the selected content can be changed according to a change in the user's preference.
上記コンテンツ提供装置は、シーン別ユーザ情報に基づいて、選択手段によって選択されたコンテンツを編集する編集手段を更に備えてもよい。出力手段は、編集手段によって編集されたコンテンツを出力してもよい。この場合、例えば、撮影シーンごとのユーザに関する情報をコンテンツに反映させることによって、ユーザの興味を惹くことができる。これにより、提供されたコンテンツに対するユーザの閲覧率を向上することが可能となる。 The content providing apparatus may further include an editing unit that edits the content selected by the selection unit based on the scene-specific user information. The output unit may output the content edited by the editing unit. In this case, for example, the user's interest can be attracted by reflecting the information about the user for each shooting scene in the content. Thereby, it becomes possible to improve a user's browsing rate with respect to the provided content.
本発明によれば、撮影シーンごとにユーザに適したコンテンツを提供することができる。 According to the present invention, it is possible to provide content suitable for the user for each shooting scene.
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
(第1実施形態)
第1実施形態に係るコンテンツ提供装置について説明する。図1は、第1実施形態のコンテンツ提供装置の機能構成を示すブロック図である。図1に示されるコンテンツ提供装置10は、ユーザによって用いられる装置である。コンテンツ提供装置10は、例えば、デジタルカメラ、携帯電話機、スマートフォン、タブレット端末及びPC(Personal Computer)を含む端末装置である。なお、以降の説明においては、コンテンツ提供装置10は、カメラ機能を有するスマートフォン等の端末であることを主に想定して説明を行うが、コンテンツ提供装置10は、カメラ機能を有する端末に限定されない。
(First embodiment)
A content providing apparatus according to the first embodiment will be described. FIG. 1 is a block diagram illustrating a functional configuration of the content providing apparatus according to the first embodiment. A
コンテンツ提供装置10は、処理対象の画像である対象画像に対して、撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報に基づいて、コンテンツを選択し、選択したコンテンツを提供する装置である。対象画像としては、例えば、人物、動物、及び風景等の被写体を含んだ写真等が挙げられる。撮影シーンとは、例えば、風景、ポートレイト、飛行機、水中、天体、マクロ、及び夜景等である。提供されるコンテンツは、撮影に関するコンテンツであり、コンテンツの種類には例えば、アドバイス、記事、広告、及び写真等がある。コンテンツ提供装置10は、例えば、図2に示されるハードウェアによって構成されている。
The
図2は、コンテンツ提供装置10のハードウェア構成を示す図である。図2に示されるように、コンテンツ提供装置10は、物理的には、1又は複数のCPU(Central Processing Unit)101と、主記憶装置であるRAM(RandomAccess Memory)102及びROM(Read Only Memory)103と、データ送受信デバイスである通信モジュール104と、ハードディスク及び半導体メモリ等の補助記憶装置105と、入力キー及びタッチセンサ等のユーザの入力を受け付ける入力装置106と、ディスプレイ等の出力装置107と、カメラモジュール108と、を備えるコンピュータとして構成されている。図1に示されるコンテンツ提供装置10の各機能は、CPU101、RAM102等のハードウェア上に1又は複数の所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール104、入力装置106、出力装置107、及びカメラモジュール108を動作させるとともに、RAM102及び補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。
FIG. 2 is a diagram illustrating a hardware configuration of the
再び図1を参照して、コンテンツ提供装置10の各機能の詳細を説明する。コンテンツ提供装置10は、機能的には、画像取得部11と、画像情報格納部12と、評価情報取得部13と、評価情報格納部14と、ユーザ嗜好情報格納部15と、写真家情報格納部16と、シーン別ユーザ情報抽出部17と、シーン別ユーザ情報格納部18と、コンテンツ格納部19と、コンテンツ選択部20と、コンテンツ編集部21と、出力部22と、ユーザ嗜好情報更新部23と、を備えている。
With reference to FIG. 1 again, details of each function of the
画像取得部11は、対象画像を取得する画像取得手段として機能する。画像取得部11は、例えばカメラモジュール108によって実現される。具体的には、画像取得部11は、レンズ及び光学素子等の複数の光学系の部品と、それらを駆動制御する複数の制御系の回路と、受光素子によって取得された対象画像を表す電気信号をデジタル信号である画像信号に変換する信号処理系の回路部と、を含む。画像取得部11は、画像信号を含む画像情報を画像情報格納部12に格納する。取得される画像情報は、動画像の情報であってもよいし、静止画像の情報であってもよい。
The
コンテンツ提供装置10がカメラ機能を有しない場合、画像取得部11は、例えば、他の装置(例えば上述したカメラ機能を有する端末等)によって撮影された画像を当該他の装置から受け取ることにより、対象画像を取得する。例えば、コンテンツ提供装置10が他の装置から通信ネットワークを介して画像ファイルを受信する場合、画像ファイルの受信処理を行う部分(通信モジュール104等)が画像取得部11として機能する。画像取得部11により取得される対象画像(動画像の場合には各フレーム)は、例えば、各画素(ピクセル)の画素値(例えば、輝度、明度及び色彩等の画素に関する数値)を示す画像情報として取得される。画像取得部11は、このような画像情報を画像情報格納部12に出力して格納する。
When the
画像情報格納部12は、画像取得部11によって取得された画像情報を格納する画像情報格納手段として機能する。画像情報格納部12に格納されている画像情報は、評価情報取得部13及び出力部22により参照される。
The image
評価情報取得部13は、画像取得部11によって取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段として機能する。評価情報には、対象画像の画像全体の見栄えの良し悪しに関する評価値、対象画像の撮影条件に関する撮影情報、及び対象画像の撮影シーンを示す撮影シーン情報が含まれる。評価値は、複数の評価項目のそれぞれについて予め定められた評価基準に基づいて算出される。
The evaluation
図3は、評価情報の一例を示す図である。図3に示される例では、評価項目には、「総合スコア」、「Comp」、「Noise」、「Pint」、「Vivid」、「Cont」、「F」、「Ss」、「Iso」、「焦点距離」、「ボディ名称」、及び「撮影シーン」が含まれる。 FIG. 3 is a diagram illustrating an example of the evaluation information. In the example shown in FIG. 3, the evaluation items include “total score”, “Comp”, “Noise”, “Pint”, “Vivid”, “Cont”, “F”, “Ss”, “Iso”, “Focal distance”, “Body name”, and “Shooting scene” are included.
「総合スコア」は、対象画像の総合的な評価についての評価項目である。「総合スコア」の評価情報は、「Comp」、「Noise」、「Pint」、「Vivid」、及び「Cont」の評価値を合計した評価値である。「Comp」は、対象画像が予め設定された構図パターンに忠実であるか否かについての評価項目である。「Comp」の評価情報は、例えば+100〜−100の値を取り得る評価値である。「Noise」は、対象画像に不要な映り込みがないか否かについての評価項目である。「Noise」の評価情報は、例えば+100〜−100の値を取り得る評価値である。「Pint」は、対象画像のピントが合っているか(被写体がぶれていないか)否かについての評価項目である。「Pint」の評価情報は、例えば+100〜−100の値を取り得る評価値である。「Vivid」は、対象画像の色が適度に鮮やかであるか否かについての評価項目である。「Vivid」の評価情報は、例えば+100〜−100の値を取り得る評価値である。「Cont」は、対象画像のコントラストが適正であるか否かについての評価項目である。「Cont」の評価情報は、例えば+100〜−100の値を取り得る評価値である。 The “total score” is an evaluation item for comprehensive evaluation of the target image. The evaluation information of “total score” is an evaluation value obtained by summing evaluation values of “Comp”, “Noise”, “Pint”, “Vivid”, and “Cont”. “Comp” is an evaluation item as to whether or not the target image is faithful to a preset composition pattern. The evaluation information “Comp” is an evaluation value that can take a value of +100 to −100, for example. “Noise” is an evaluation item as to whether or not there is an unnecessary reflection in the target image. The evaluation information of “Noise” is an evaluation value that can take a value of +100 to −100, for example. “Pint” is an evaluation item as to whether or not the target image is in focus (the subject is not blurred). The evaluation information of “Pint” is an evaluation value that can take a value of +100 to −100, for example. “Vivid” is an evaluation item as to whether or not the color of the target image is moderately vivid. The evaluation information “Vivid” is, for example, an evaluation value that can take a value of +100 to −100. “Cont” is an evaluation item as to whether or not the contrast of the target image is appropriate. The evaluation information “Cont” is an evaluation value that can take a value of +100 to −100, for example.
「F」は、カメラのレンズの絞りについての評価項目である。「F」の評価情報は、対象画像を撮影したカメラが有するレンズの絞りに対する設定値(F値)であり、例えば1.4、2.0、2.8、4.0、及び5.6等に設定される。「Ss」は、カメラのシャッタースピードについての評価項目である。「Ss」の評価情報は、対象画像を撮影したカメラのシャッタースピードに対する設定値である。「Iso」は、カメラのISO感度についての評価項目である。「Iso」の評価情報は、対象画像を撮影したカメラのISO感度に対する設定値である。「焦点距離」は、カメラの撮像面から焦点までの距離についての評価項目である。「焦点距離」の評価情報は、対象画像を撮影したカメラの撮像面から焦点までの距離に対する設定値であり、広角であれば短く設定され、望遠であれば長く設定される。「ボディ名称」は、カメラ本体の名称についての評価項目である。「ボディ名称」の評価情報は、対象画像を撮影したカメラ本体の名称を示す文字列である。「撮影シーン」は、対象画像の撮影シーンについての評価項目である。「撮影シーン」の評価情報は、対象画像の撮影シーンを示す撮影シーン情報である。 “F” is an evaluation item for the aperture of the lens of the camera. The evaluation information “F” is a set value (F value) with respect to the aperture of the lens of the camera that captured the target image. For example, 1.4, 2.0, 2.8, 4.0, and 5.6. Etc. “Ss” is an evaluation item for the shutter speed of the camera. The evaluation information “Ss” is a set value for the shutter speed of the camera that captured the target image. “Iso” is an evaluation item for the ISO sensitivity of the camera. The evaluation information “Iso” is a set value for the ISO sensitivity of the camera that has captured the target image. “Focal distance” is an evaluation item for the distance from the imaging surface of the camera to the focal point. The evaluation information of “focal length” is a set value with respect to the distance from the imaging surface of the camera that captured the target image to the focal point, and is set to be short for a wide angle and set to be long for a telephoto. “Body name” is an evaluation item for the name of the camera body. The evaluation information of “body name” is a character string indicating the name of the camera body that captured the target image. The “shooting scene” is an evaluation item for the shooting scene of the target image. The evaluation information of “shooting scene” is shooting scene information indicating the shooting scene of the target image.
まず、対象画像についての評価値を取得する処理の一例について説明する。評価情報取得部13は、例えば、対象画像を部分領域に分割する。部分領域は、任意の領域分割の手法を用いて対象画像を分割して得られる領域である。領域分割の手法自体は公知であるため詳細な説明を省略するが、例えば、評価情報取得部13は、画像情報格納部12に格納されている画像情報を参照し、各画素の画素値に基づいてエッジ検出等の処理を実行する。このような領域分割の処理を実行することにより、評価情報取得部13は、各部分領域が予め定められた一様性の基準を満たし、且つ、隣接する2つの部分領域の和集合が上記一様性の基準を満たさないように、画像を互いに重ならない複数の部分領域に分割する。
First, an example of processing for acquiring an evaluation value for a target image will be described. For example, the evaluation
評価情報取得部13は、分割した部分領域の各々について、領域情報を算出する。領域情報は、対象画像の各画素を識別するピクセル座標と画素が属する部分領域を識別する領域ID(Identification)とを関連付けた情報である。ピクセル座標は、例えば、対象画像の横方向をX軸方向、対象画像の縦方向をY軸方向として規定したXY座標により表現される。本実施形態では一例として、ピクセル座標は、対象画像の左上隅の画素の座標を原点座標(0,0)とし、対象画像の右方向をX軸の正方向とし、対象画像の下方向をY軸の正方向とした場合のXY座標として表現される。
The evaluation
評価情報取得部13は、部分領域毎に、複数の評価項目の各々のスコアを算出する。本実施形態では一例として、評価情報取得部13は、部分領域i毎に、Comp(i,j)、Noise(i)、Pint(i)、Vivid(i)、Cont(i)を算出する。
The evaluation
評価情報取得部13は、部分領域iの領域情報から、部分領域iに含まれる画素(ピクセル座標)を抽出する。これにより、評価情報取得部13は、対象画像において部分領域iが占める範囲を把握する。また、評価情報取得部13は、画像情報格納部12に格納されている画像情報を参照することで、部分領域iに含まれる画素の画素値を把握する。評価情報取得部13は、対象画像において部分領域iが占める範囲、及び部分領域iに含まれる各画素の画素値に基づいて、上述した各評価項目のスコアを算出する。以下、各評価項目のスコアの算出手法の一例について説明する。
The evaluation
Comp(i,j)は、部分領域iが予め設定された構図パターンj(例えばデフォルト設定又はユーザ設定により選択された構図パターン)に忠実であるか否かについての評価項目のスコアである。例えば、評価情報取得部13は、構図パターンj(例えば三分割構図等)の評価ロジックを示す構図パターン情報を予め保持しており、当該構図パターン情報を用いることにより、部分領域iのComp(i,j)を算出する。ここで、評価ロジックとは、部分領域iが構図パターンjに忠実である度合いである構図に関するスコアを算出するために利用される評価関数(計算式)等の情報である。
Comp (i, j) is a score of an evaluation item regarding whether or not the partial area i is faithful to a composition pattern j set in advance (for example, a composition pattern selected by default setting or user setting). For example, the evaluation
以下、構図パターンjが三分割構図である場合を具体例として説明する。被写体の重心が対象画像を縦横に三分割する仮想線の交点(縦方向に延びる仮想線と横方向に延びる仮想線との交点)に近いほど三分割構図に忠実であるといえる。このため、三分割構図の構図パターン情報として、部分領域iの重心と上記交点との距離が小さいほど値が大きくなるような評価関数が利用され得る。また、例えば海及び空等の背景部分の輪郭(例えば水平線及び地平線等)が上記仮想線に一致している場合にも、三分割構図に忠実であるといえる。このため、三分割構図の構図パターン情報として、部分領域iの輪郭と上記仮想線との一致度が高いほど値が大きくなるような評価関数も利用され得る。 Hereinafter, a case where the composition pattern j is a three-part composition will be described as a specific example. The closer the center of gravity of the subject is to the intersection of virtual lines that divide the target image vertically and horizontally (intersection of virtual lines extending in the vertical direction and virtual lines extending in the horizontal direction), the more faithful to the three-division composition. For this reason, as the composition pattern information of the three-part composition, an evaluation function can be used such that the value increases as the distance between the center of gravity of the partial region i and the intersection point decreases. Further, for example, when the outline of a background portion such as the sea and the sky (for example, a horizontal line and a horizon line) matches the virtual line, it can be said to be faithful to the three-part composition. Therefore, an evaluation function that increases as the degree of coincidence between the contour of the partial region i and the virtual line can be used as the composition pattern information of the three-part composition.
Noise(i)は、部分領域iが不要な映り込みではないか否かについての評価項目のスコアである。Noise(i)は、部分領域iが不要な映り込みでない場合に大きくなり、部分領域iが不要な映り込みである場合に小さくなるように算出される。例えば、評価情報取得部13は、部分領域iの領域情報から抽出された部分領域iが占める範囲に基づいて、部分領域iが対象画像の端に接しているか否かを判定する。具体的には、評価情報取得部13は、部分領域iに、対象画像の端のピクセル座標に対応する画素が含まれているか否かを判定し、含まれている場合に部分領域iが対象画像の端に接していると判定する。評価情報取得部13は、部分領域iが対象画像の端に接していないと判定された場合、部分領域iは不要な映り込みではないと判定する。一方、評価情報取得部13は、部分領域iが対象画像の端に接していると判定された場合(すなわち、部分領域iに対応する被写体の一部が対象画像の外に出ていることが想定される場合)、部分領域iは不要な映り込みであると判定する。
Noise (i) is a score of an evaluation item regarding whether or not the partial area i is not an unnecessary reflection. Noise (i) is calculated to be large when the partial area i is not an unnecessary reflection, and to be small when the partial area i is an unnecessary reflection. For example, the evaluation
ここで、部分領域iが不要な映り込みである場合、当該部分領域iの面積が大きいほど、当該部分領域iが対象画像の見栄えに悪影響を与えている可能性が高いと考えられる。そこで、評価情報取得部13は、部分領域iが不要な映り込みであると判定された場合、当該部分領域iの面積が大きいほどNoise(i)が小さくなるように、Noise(i)を算出する。なお、背景部分は、対象画像の端に接しているが、不要な映り込みとはいえない。そこで、評価情報取得部13は、このような背景部分を不要な映り込みであると判定する対象から除外すべく、例えば対象画像の4辺(或いは3辺以上)に接している部分領域i(背景部分である可能性が高い部分領域i)については、不要な映り込みではないと判定してもよい。
Here, when the partial area i is unnecessary reflection, it is considered that the larger the area of the partial area i, the higher the possibility that the partial area i has an adverse effect on the appearance of the target image. Therefore, when it is determined that the partial area i is an unnecessary reflection, the evaluation
Pint(i)は、部分領域iに対してピントが合っているか(部分領域iがぶれていないか)否かについての評価項目のスコアである。例えば、評価情報取得部13は、部分領域iに含まれる画素の画素値から、部分領域iにおける空間周波数を算出する。一般にピントが合っておらず画像がぼやけている領域において、空間周波数が低くなる傾向がある。そこで、評価情報取得部13は、空間周波数が高いほどPint(i)が大きくなるように、Pint(i)を算出する。
Pint (i) is a score of an evaluation item regarding whether or not the partial area i is in focus (whether the partial area i is not blurred). For example, the evaluation
Vivid(i)は、部分領域iの色が適度に鮮やかであるか否かについての評価項目のスコアである。例えば、評価情報取得部13は、部分領域iに含まれる画素の彩度(Saturation)の代表値(例えば平均値等)と予め設定された適正レベル(適正値)との誤差が小さいほどVivid(i)の値が大きくなるように、Vivid(i)を算出する。なお、画像情報格納部12に格納されている画像情報(各画素の画素値)がRGB色空間により表現されている場合、評価情報取得部13は、RGB色空間からHSV色空間への公知の変換処理を行うことで、HSV色空間の一成分である彩度(S)の情報を得てもよい。
Vivid (i) is a score of an evaluation item regarding whether or not the color of the partial area i is moderately vivid. For example, the evaluation
Cont(i)は、部分領域iが対象画像のコントラストの適正化に寄与しているか否かについての評価項目のスコアである。評価情報取得部13は、部分領域iが対象画像のコントラストの適正化に寄与している程度が大きいほどCont(i)が大きくなるように、Cont(i)を算出する。例えば、評価情報取得部13は、対象画像のコントラスト値Cnt1を計算するとともに、対象画像から部分領域iを除外した場合の対象画像のコントラスト値Cnt2を計算する。ここで、予め設定された適正コントラストレベル(適正値)Cnt0とコントラスト値Cnt1との差の絶対値A1(=|Cnt1−Cnt0|)が、適正コントラストレベルCnt0とコントラスト値Cnt2との差の絶対値A2(=|Cnt2−Cnt0|)よりも小さい場合、部分領域iは、対象画像のコントラストの適正化に寄与しているといえる。つまり、部分領域iが存在することにより、対象画像のコントラストが適正値に近付いているといえる。また、絶対値A1と絶対値A2との差(A2−A1)が大きいほど、部分領域iが対象画像のコントラストの適正化に寄与している程度が大きいといえる。そこで、評価情報取得部13は、絶対値A1と絶対値A2との差(A2−A1)に基づいて、当該差が大きいほどCont(i)が大きくなるように、Cont(i)を算出してもよい。
Cont (i) is a score of an evaluation item regarding whether or not the partial area i contributes to the optimization of the contrast of the target image. The evaluation
評価情報取得部13は、各部分領域のComp(i,j)、Noise(i)、Pint(i)、Vivid(i)、及びCont(i)をそれぞれ評価項目ごとに合算することによって、Comp、Noise、Pint、Vivid、及びContの各評価項目に対する評価値を取得する。
The evaluation
対象画像の撮影条件に関する撮影情報は、カメラモジュール108がEXIF(Exchangeableimage file format)規格に準拠している場合、対象画像にメタデータとして添付される。評価情報取得部13は、このメタデータから撮影情報を取得する。評価情報取得部13は、カメラモジュール108から撮影情報を取得してもよい。
When the
評価情報取得部13は、公知のシーン認識技術によって対象画像の撮影シーン情報を取得する。評価情報取得部13は、例えば、対象画像の画像情報に基づいて、対象画像の特徴量を抽出し、対象画像の特徴量を各撮影シーンの特徴量と比較することによって、撮影シーンを認識する。評価情報取得部13は、対象画像の評価情報を評価情報格納部14に出力し、格納する。
The evaluation
評価情報格納部14は、評価情報取得部13によって取得された評価情報を格納する評価情報格納手段として機能する。評価情報格納部14に格納されている評価情報は、シーン別ユーザ情報抽出部17、コンテンツ選択部20、及びコンテンツ編集部21によって参照される。
The evaluation
ユーザ嗜好情報格納部15は、ユーザ嗜好情報を格納するユーザ嗜好情報格納手段として機能する。ユーザ嗜好情報は、ユーザの写真に関する嗜好を示す嗜好情報である。図4は、ユーザ嗜好情報の一例を示す図である。図4に示される例では、ユーザ嗜好情報は、複数の写真家のうちユーザが好む写真家を示す嗜好情報であり、「写真家」及び「嗜好度」を有する。「写真家」は、写真家を一意に識別するための識別情報である。「嗜好度」は、各写真家に対応付けて割り当てられており、ユーザが当該写真家(写真家が撮影する写真)を好む程度を示す値である。写真家の嗜好度が大きいほど、ユーザがその写真家を好むことを示す。この例では、ユーザの写真家の好みは「写真家1」、「写真家2」、及び「写真家3」の順である。
The user preference
ユーザ嗜好情報は、ユーザによってコンテンツ提供装置10に予め入力され、ユーザ嗜好情報格納部15に格納される。ユーザ嗜好情報格納部15に格納されているユーザ嗜好情報は、シーン別ユーザ情報抽出部17によって参照される。
The user preference information is input in advance to the
また、コンテンツ提供装置10は、不図示のユーザ嗜好情報取得部を備えてもよい。ユーザ嗜好情報取得部は、複数の写真家をディスプレイ(出力装置107)に表示させ、ユーザに、好みの写真家に対して点数(数値)を分配して直接入力させもよい。この場合、ユーザ嗜好情報取得部は、合計が100点となるように、ユーザに点数を入力させてもよい。また、ユーザ嗜好情報取得部は、各写真家に対応付けられた写真群をディスプレイ(出力装置107)に表示させ、ユーザの好みの写真をユーザに選択させるようにしてもよい。この場合、ユーザ嗜好情報取得部は、写真家ごとに選択された写真の枚数を数値化することによって、ユーザ嗜好情報を取得してもよい。例えば、10枚の写真が選択され、そのうち写真家1に対応付けられた6枚の写真が選択され、写真家2に対応付けられた3枚の写真が選択され、写真家3に対応付けられた1枚の写真が選択された場合には、ユーザ嗜好情報取得部は、写真家1の嗜好度を60とし、写真家2の嗜好度を30とし、写真家3の嗜好度を10とする。また、ユーザ嗜好情報取得部は、表示された写真群の中からユーザに3枚の写真を選択させ、選択した写真に優先順位を付けさせるようにしてもよい。例えば、ユーザ嗜好情報取得部は、優先順位が1番高い写真に対応付けられた写真家の嗜好度を60とし、優先順位が2番目に高い写真に対応付けられた写真家の嗜好度を30とし、優先順位が3番目に高い写真に対応付けられた写真家の嗜好度を10とする。
Further, the
写真家情報格納部16は、写真家情報を格納する写真家情報格納手段として機能する。写真家情報は、複数の写真家のそれぞれについて当該写真家が撮影する撮影シーンの傾向を示す特徴情報である。図5は、写真家情報の一例を示す図である。図5に示される例では、「撮影シーン」は、撮影シーンを一意に識別するための識別情報である。撮影シーンとして、風景、ポートレイト、飛行機、水中、天体、及びマクロが挙げられている。写真家情報では、各写真家について、100点の特徴値が割り当てられており、当該写真家が撮影する撮影シーンに対して特徴値が分配されている。特徴値が大きいほど、写真家がその撮影シーンの撮影を頻繁に行っている(つまり、得意である)ことを示す。この例では、写真家1は、ポートレイトの写真を最も頻繁に撮影し、次に風景の写真を撮影する。つまり、写真家1は、ポートレイトの写真撮影が最も得意で、次に風景の写真撮影が得意であるともいえる。
The photographer
写真家情報は、予め設定されている。例えば、写真家情報は、写真家ごとに得意な撮影シーンの調査結果に基づいて、手作業で設定されてもよい。また、写真家ごとに、写真集及び雑誌等に掲載された写真が収集され、手作業又は撮影シーンの解析技術で各写真が撮影シーンに分類されることによって、撮影シーンごとの写真の枚数が得られる。写真家情報は、この撮影シーンごとの写真の枚数に基づいて手作業で設定されてもよい。写真家情報格納部16に格納されている写真家情報は、シーン別ユーザ情報抽出部17によって参照される。
The photographer information is set in advance. For example, the photographer information may be manually set based on the result of the investigation of the shooting scene that is good for each photographer. In addition, for each photographer, photographs published in photo collections and magazines are collected, and each photograph is classified into a photographing scene by manual or photographing scene analysis technology, so that the number of photographs per photographing scene can be reduced. can get. The photographer information may be manually set based on the number of photographs for each shooting scene. The photographer information stored in the photographer
シーン別ユーザ情報抽出部17は、評価情報取得部13によって取得された評価情報に基づいて、シーン別ユーザ情報を抽出する抽出手段として機能する。シーン別ユーザ情報は、撮影シーンごとのユーザに関する情報である。シーン別ユーザ情報としては、シーン別評価値、及びシーン別嗜好情報が挙げられる。シーン別評価値は、撮影シーンごとの評価値である。シーン別嗜好情報は、複数の写真家のうち撮影シーンごとにユーザが好む写真家を示す情報である。
The scene-specific user
シーン別ユーザ情報抽出部17は、シーン別評価値をシーン別ユーザ情報として抽出する。シーン別ユーザ情報抽出部17は、評価情報取得部13により取得された評価値を撮影シーンごとに集計することによって、シーン別評価値を算出する。具体的には、シーン別ユーザ情報抽出部17は、シーン別ユーザ情報格納部18に格納されているシーン別評価テーブルを読み出し、シーン別評価テーブルにおいて、評価情報取得部13によって取得された撮影シーンに対応する値に、評価情報取得部13によって取得された評価値をそれぞれ加算することによってシーン別評価値を算出する。
The scene-specific user
図6は、シーン別評価テーブルの一例を示す図である。図6に示される例では、撮影シーンごとに、「総合スコア累積」、「Comp累積」、「Noise累積」、「Pint累積」、「Vivid累積」、「Cont累積」、及び「F1.4撮影回数」等が格納されている。「総合スコア累積」の値は、複数の対象画像を撮影シーンごとに分類し、各撮影シーンの対象画像の「総合スコア」の評価値を累積したシーン別評価値である。「Comp累積」の値は、各撮影シーンの対象画像の「Comp」の評価値を累積したシーン別評価値である。「Noise累積」の値は、各撮影シーンの対象画像の「Noise」の評価値を累積したシーン別評価値である。「Pint累積」の値は、各撮影シーンの対象画像の「Pint」の評価値を累積したシーン別評価値である。「Vivid累積」の値は、各撮影シーンの対象画像の「Vivid」の評価値を累積したシーン別評価値である。「Cont累積」の値は、各撮影シーンの対象画像の「Cont」の評価値を累積したシーン別評価値である。「F1.4撮影回数」は、複数の対象画像のうち、F値が1.4である対象画像の枚数を示すシーン別評価値である。 FIG. 6 is a diagram illustrating an example of the scene-specific evaluation table. In the example shown in FIG. 6, “total score accumulation”, “Comp accumulation”, “Noise accumulation”, “Pint accumulation”, “Vivid accumulation”, “Cont accumulation”, and “F1.4 shooting” are taken for each shooting scene. The “number of times” and the like are stored. The “total score accumulation” value is an evaluation value for each scene obtained by classifying a plurality of target images for each shooting scene and accumulating the evaluation value of the “total score” of the target images of each shooting scene. The value of “Comp cumulative” is an evaluation value for each scene obtained by accumulating the evaluation value of “Comp” of the target image of each shooting scene. The value of “Noise accumulation” is an evaluation value for each scene obtained by accumulating the evaluation values of “Noise” of the target image of each shooting scene. The value of “Pint accumulation” is an evaluation value for each scene obtained by accumulating the evaluation value of “Pint” of the target image of each shooting scene. The value of “Vivid accumulation” is an evaluation value for each scene obtained by accumulating the evaluation value of “Vivid” of the target image of each shooting scene. The value of “Cont accumulation” is an evaluation value for each scene obtained by accumulating the evaluation values of “Cont” of the target image of each shooting scene. “F1.4 number of photographing” is an evaluation value for each scene indicating the number of target images having an F value of 1.4 among a plurality of target images.
シーン別ユーザ情報抽出部17は、例えば、シーン別評価テーブルのうち、図3に示される「撮影シーン」に対応する「総合スコア累積」、「Comp累積」、「Noise累積」、「Pint累積」、「Vivid累積」、及び「Cont累積」の値に、図3に示される「総合スコア」、「Comp」、「Noise」、「Pint」、「Vivid」、及び「Cont」の評価項目の評価値をそれぞれ加算する。シーン別ユーザ情報抽出部17は、図3に示される「F」が1.4である場合に、シーン別評価テーブルのうち、図3に示される「撮影シーン」に対応する「F1.4撮影回数」の値を1つ増加する。シーン別ユーザ情報抽出部17は、更新したシーン別評価テーブルをシーン別ユーザ情報格納部18に格納する。
The scene-specific user
シーン別ユーザ情報抽出部17は、シーン別嗜好情報をシーン別ユーザ情報として抽出する。シーン別ユーザ情報抽出部17は、ユーザ嗜好情報格納部15に格納されているユーザ嗜好情報と、写真家情報格納部16に格納されている写真家情報と、に基づいて、シーン別嗜好情報を算出する。シーン別嗜好情報では、撮影シーンごとに、各写真家にシーン別嗜好度が割り当てられている。シーン別ユーザ情報抽出部17は、例えば、ユーザ嗜好情報において各写真家に割り当てられている嗜好度と、写真家情報における当該写真家の撮影シーンの特徴値とを乗算することによって、シーン別嗜好度を算出する。シーン別嗜好度は、ユーザが各撮影シーンにおいて当該写真家(写真家が撮影する写真)を好む程度を示す値である。写真家のシーン別嗜好度が大きいほど、その撮影シーンにおいてユーザがその写真家を好むことを示す。シーン別ユーザ情報抽出部17は、シーン別嗜好情報をシーン別嗜好写真家テーブルの形式でシーン別ユーザ情報格納部18に格納する。
The scene-specific user
図7は、シーン別嗜好写真家テーブルの一例を示す図である。図7に示される例では、例えば、ユーザは、風景の写真について写真家1の写真を最も好み、次に写真家3の写真を好む。
FIG. 7 is a diagram illustrating an example of a scene-specific preference photographer table. In the example shown in FIG. 7, for example, the user likes the
シーン別ユーザ情報格納部18は、シーン別ユーザ情報を格納するシーン別ユーザ情報格納手段として機能する。シーン別ユーザ情報格納部18は、シーン別ユーザ情報として、例えば、シーン別評価値及びシーン別嗜好情報を格納している。つまり、シーン別ユーザ情報格納部18は、シーン別評価テーブル及びシーン別嗜好写真家テーブルを格納している。シーン別ユーザ情報格納部18に格納されているシーン別ユーザ情報は、シーン別ユーザ情報抽出部17、コンテンツ選択部20、及びコンテンツ編集部21によって参照される。
The scene-specific user
コンテンツ格納部19は、複数のコンテンツを格納するコンテンツ格納手段として機能する。コンテンツ格納部19に格納されるコンテンツは、上述のように、撮影に関するコンテンツであり、コンテンツの種類には例えば、アドバイス、記事、広告、及び写真等がある。より具体的には、予め設定された文書、外部サイトのリンク情報、写真群、対象画像と同じ場所で過去に撮影された写真、画像の加工及び修正等の編集方法、編集された写真、画像加工フィルタ、対象画像の撮影に用いられたカメラのボディに互換性のあるレンズの広告、並びに、ユーザが所有している機材群に関する情報等がある。コンテンツ格納部19は、複数のコンテンツをコンテンツテーブルによって管理している。
The
図8は、コンテンツ格納部19に格納されているコンテンツテーブルの一例を示す図である。図8に示される例では、各コンテンツは、「条件」、「コンテンツID」、「タイトル」、「種類」、及び「内容」によって管理されている。「条件」は、コンテンツ選択部20によってコンテンツが選択されるための条件を示す情報である。「コンテンツID」は、コンテンツを一意に識別するための識別情報である。「タイトル」は、コンテンツのタイトルを示す文字列である。「種類」は、コンテンツの種類を示す情報である。「内容」は、コンテンツの内容を示す情報である。例えば、コンテンツIDが「1」のコンテンツは、「三分割法で撮ってみよう」というタイトルを有し、コンテンツの種類は「アドバイス」である。このコンテンツは、対象画像の撮影シーンが「風景」であり、かつ、Comp累積の合計が2000未満である場合に選択される。
FIG. 8 is a diagram illustrating an example of a content table stored in the
コンテンツ選択部20は、シーン別ユーザ情報抽出部17によって抽出されたシーン別ユーザ情報に基づいて、コンテンツ格納部19に格納されている複数のコンテンツからコンテンツを選択する選択手段として機能する。コンテンツ選択部20は、評価情報格納部14に格納されている評価情報と、シーン別ユーザ情報格納部18に格納されているシーン別ユーザ情報と、に基づいて、コンテンツテーブルに示される条件を満たすコンテンツを選択する。例えば、図3に示される評価情報では、「撮影シーン」が「ポートレイト」であり、図7に示されるシーン別嗜好情報では、写真家1のシーン別嗜好度の合計が6000であり、図6に示されるポートレイトの総合スコア累積のシーン別評価値が9000であることから、コンテンツIDが「8」のコンテンツが選択される。コンテンツ選択部20は、選択したコンテンツをコンテンツ編集部21に出力する。
The
コンテンツテーブルに示される条件に合致するコンテンツの数が2以上である場合、コンテンツ選択部20は、選択した複数のコンテンツのそれぞれに優先順位を割り当てる。コンテンツ選択部20は、例えばユーザ全体におけるコンテンツの人気順に基づいて、コンテンツの優先順位を決定する。例えば、各ユーザのコンテンツ閲覧履歴が、不図示のサーバ装置に格納され、集計されることによって、ユーザ全体におけるコンテンツの人気順が算出される。閲覧回数が多いほど人気が高い、つまり人気順が高いことを示すように、人気順が設定されてもよい。コンテンツ選択部20は、例えば、コンテンツの人気順が高いほど当該コンテンツの優先順位を高くする。
When the number of contents that match the conditions shown in the content table is 2 or more, the
コンテンツ編集部21は、シーン別ユーザ情報に基づいて、コンテンツ選択部20によって選択されたコンテンツを編集する編集手段として機能する。コンテンツ編集部21は、例えば、コンテンツ選択部20によって選択されたコンテンツの種類がアドバイスであった場合、「{写真家}先生の写真がお好きな{撮影シーン}撮影{ユーザの撮影技術}向けのアドバイスです。」といったテンプレート文章を、コンテンツ選択部20によって選択されたコンテンツに付加する。なお、{}の部分は、評価情報及びシーン別ユーザ情報が反映される。コンテンツ編集部21は、評価情報格納部14に格納されている評価情報から取得された撮影シーン情報に基づいて、撮影シーンを示す文字列を{撮影シーン}に追加する。コンテンツ選択部20に格納されているコンテンツが、評価情報及びシーン別ユーザ情報が反映されるテンプレートを含むこともある。
The
コンテンツ編集部21は、シーン別ユーザ情報格納部18に格納されているシーン別嗜好情報に基づいて、評価情報から取得された撮影シーン情報が示す撮影シーンに対して、最もシーン別嗜好度が大きい写真家を抽出する。コンテンツ編集部21は、抽出した写真家を示す文字列を{写真家}に追加する。コンテンツ編集部21は、評価情報から取得された撮影シーン情報が示す撮影シーンに対して、シーン別ユーザ情報格納部18に格納されている総合スコア累積のシーン別評価値を読み出し、ユーザの撮影技術を判定する。コンテンツ編集部21は、例えば、予め設定された閾値に基づいて、初級レベル、中級レベル、及び上級レベルのいずれであるかを判定する。コンテンツ編集部21は、判定した撮影技術を{ユーザの撮影技術}に追加する。コンテンツ編集部21は、編集したコンテンツを出力部22に出力する。
Based on the scene-specific preference information stored in the scene-specific user
出力部22は、コンテンツ編集部21によって編集されたコンテンツを出力する出力手段として機能する。出力部22は、出力装置107によって実現される。また、コンテンツ提供装置10がデジタルカメラ等のファインダーを有する装置である場合には、出力部22は、ファインダー内部に設けられる液晶ディスプレイ等の表示装置によって実現されてもよい。具体的には、出力部22は、コンテンツ編集部21によって編集されたコンテンツと画像取得部11によって取得された対象画像とに基づいて合成画像を生成し、合成画像を出力画像として表示する。
The
なお、出力部22は、コンテンツ提供装置10において評価モードがONになっていない場合には、画像取得部11により取得された対象画像を出力画像として表示する。評価モードとは、評価情報取得部13、シーン別ユーザ情報抽出部17、コンテンツ選択部20、及びコンテンツ編集部21の処理を実行して合成画像を出力するモードである。出力部22は、例えば、写真管理ソフトウェア及びWebサービスを用いて出力画像を表示してもよい。また、コンテンツ提供装置10がディスプレイ等の表示機能を有しない場合、出力部22は、例えば、他の装置(例えば上述したディスプレイを有する端末等)に出力画像を出力する。例えば、コンテンツ提供装置10が他の装置に通信ネットワークを介して出力画像を送信する場合、出力画像の送信処理を行う部分(通信モジュール104等)が出力部22として機能する。
The
図9〜図13は、コンテンツ提供装置によって出力された合成画像の例を示す図である。図9の(a)に示されるように、出力部22は、対象画像Poを縮小し、コンテンツCを縮小された対象画像Poとは異なる領域に配置することによって合成画像Gを生成し、合成画像Gを表示してもよい。図9の(b)に示されるように、コンテンツが構図のアドバイスである場合には、構図のパターン及びアドバイスを対象画像に重ね合わせることによって、合成画像Gを生成し、合成画像Gを表示してもよい。図10の(a)に示されるように、出力部22は、対象画像Poにコンテンツ表示用のアイコンVを重ね合わせることによって合成画像Gを生成し、合成画像Gを表示してもよい。この場合、ユーザがアイコンVをクリックしたことに応じて、図10の(b)に示されるように、出力部22はコンテンツCを表示してもよい。
9 to 13 are diagrams illustrating examples of composite images output by the content providing apparatus. As shown in FIG. 9A, the
コンテンツ選択部20によって複数のコンテンツが選択された場合には、図11に示されるように、出力部22は、複数のコンテンツC1,C2を組み合わせて表示してもよい。また、図12の(a)〜(c)に示されるように、出力部22は、複数のコンテンツC1,C2,C3の優先順位に基づいて、コンテンツC1、コンテンツC2、及びコンテンツC3を1つずつ順に表示してもよい。
When a plurality of contents are selected by the
図13の(a)に示されるように、出力部22は、撮影終了時にコンテンツCを表示してもよい。出力部22は、例えば、評価モードがOFFにされたことによって撮影終了と判定する。また、コンテンツ提供装置10が外部のカメラから対象画像を取得する場合には、出力部22は、外部のカメラとの接続が切断されたことを検出することによって撮影終了と判定してもよい。また、図13の(b)に示されるように、出力部22は、撮影済みの写真を対象画像Poとし、対象画像Poの閲覧時にコンテンツCを表示してもよい。つまり、出力部22は、対象画像Poを縮小し、コンテンツCを縮小された対象画像Poとは異なる領域に配置することによって合成画像Gを生成し、合成画像Gを表示してもよい。
As shown in FIG. 13A, the
ユーザ嗜好情報更新部23は、シーン別嗜好情報を更新する更新手段として機能する。ユーザ嗜好情報更新部23は、例えば、ユーザ嗜好情報格納部15に格納されているユーザ嗜好情報を更新することによって、シーン別ユーザ情報格納部18に格納されているシーン別嗜好情報を更新する。例えば、出力部22によって出力されたコンテンツが複数の写真家のうちのいずれかの写真家に関連するコンテンツである場合、ユーザ嗜好情報更新部23は、ユーザによって当該コンテンツが閲覧されたことを検出すると、ユーザ嗜好情報において、コンテンツに関連する写真家に対する嗜好度を増加する。図14に示されるように、写真家1のコンテンツが閲覧された場合に、ユーザ嗜好情報更新部23は、例えば、ユーザ更新情報において写真家1の嗜好度を1つ増加する。これにより、次の対象画像の処理において、シーン別ユーザ情報抽出部17が、更新されたユーザ嗜好情報を用いてシーン別嗜好情報を算出するので、シーン別嗜好情報を更新することができる。
The user preference
なお、コンテンツが閲覧されたことの検出は、例えば、入力装置106によって、コンテンツ表示用のアイコン(図10の(a)、図13の(a)及び図13の(b)参照)が押下されたか否かによって行われる。また、コンテンツに外部サイトへのリンク情報が含まれる場合には、コンテンツが閲覧されたことの検出は、当該外部サイトにアクセスしたか否かによって行われてもよい。
For example, the content display icon (see FIG. 10A, FIG. 13A, and FIG. 13B) is pressed by the
次に、図15を参照して、コンテンツ提供装置10におけるコンテンツ提供方法の一連の処理を説明する。図15は、コンテンツ提供方法の一連の処理を示すフローチャートである。ここでは、ユーザがコンテンツ提供装置10(一例としてカメラ機能付きスマートフォン)のカメラ機能(カメラアプリケーション及びカメラモジュール108)を利用して写真を撮影する場合を例に挙げて説明する。図15に示される一連の処理は、例えば、ユーザがカメラアプリケーションを起動することを契機として開始される。
Next, a series of processes of the content providing method in the
まず、画像取得部11が、対象画像を取得する(ステップS01)。具体的には、ユーザがコンテンツ提供装置10のカメラアプリケーションを起動した後に、レンズが向けられている方向の画像が対象画像として取得される。取得された対象画像の画像情報は、画像情報格納部12に一時的に格納される。
First, the
続いて、コンテンツ提供装置10において評価モードがONにされているか否かが判定される(ステップS02)。評価モードがONにされていると判定された場合(ステップS02:YES)、コンテンツ提供に係る処理(ステップS03〜ステップS07)が実行される。 Subsequently, it is determined whether or not the evaluation mode is turned on in the content providing apparatus 10 (step S02). When it is determined that the evaluation mode is ON (step S02: YES), processing related to content provision (step S03 to step S07) is executed.
以下、評価モードがONにされていると判定された場合(ステップS02:YES)の処理について説明する。まず、評価情報取得部13が、画像取得部11によって取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する(ステップS03)。そして、評価情報取得部13は、対象画像の評価情報を評価情報格納部14に出力し、格納する。
Hereinafter, a process when it is determined that the evaluation mode is ON (step S02: YES) will be described. First, the evaluation
続いて、シーン別ユーザ情報抽出部17は、評価情報取得部13によって取得された評価情報に基づいて、シーン別ユーザ情報を抽出する(ステップS04)。シーン別ユーザ情報には、シーン別評価値及びシーン別嗜好情報が含まれる。具体的には、シーン別ユーザ情報抽出部17は、シーン別ユーザ情報格納部18に格納されているシーン別評価テーブルを読み出し、シーン別評価テーブルにおいて、評価情報取得部13によって取得された撮影シーンに対応する値に、評価情報取得部13によって取得された評価値をそれぞれ加算することによってシーン別評価値を算出する。そして、シーン別ユーザ情報抽出部17は、更新したシーン別評価テーブルをシーン別ユーザ情報格納部18に格納する。
Subsequently, the scene-specific user
また、シーン別ユーザ情報抽出部17は、ユーザ嗜好情報格納部15に格納されているユーザ嗜好情報と、写真家情報格納部16に格納されている写真家情報と、に基づいて、シーン別嗜好情報を算出する。例えば、シーン別ユーザ情報抽出部17は、ユーザ嗜好情報において各写真家に割り当てられている嗜好度と、写真家情報における当該写真家の撮影シーンの特徴値とを乗算することによって、シーン別嗜好度を算出する。そして、シーン別ユーザ情報抽出部17は、シーン別嗜好情報をシーン別嗜好写真家テーブルの形式でシーン別ユーザ情報格納部18に格納する。
The scene-specific user
続いて、コンテンツ選択部20は、シーン別ユーザ情報抽出部17によって抽出されたシーン別ユーザ情報に基づいて、コンテンツ格納部19に格納されている複数のコンテンツからコンテンツを選択する(ステップS05)。具体的には、コンテンツ選択部20は、評価情報格納部14に格納されている評価情報と、シーン別ユーザ情報格納部18に格納されているシーン別ユーザ情報と、に基づいて、コンテンツテーブルの条件を満たすコンテンツを選択する。そして、コンテンツ選択部20は、選択したコンテンツをコンテンツ編集部21に出力する。
Subsequently, the
続いて、コンテンツ編集部21は、シーン別ユーザ情報に基づいて、コンテンツ選択部20によって選択されたコンテンツを編集する(ステップS06)。そして、コンテンツ編集部21は、編集したコンテンツを出力部22に出力する。
Subsequently, the
続いて、出力部22は、コンテンツ編集部21によって編集されたコンテンツを出力する(ステップS07)。具体的には、出力部22は、コンテンツ編集部21によって編集されたコンテンツと画像取得部11によって取得された対象画像とに基づいて合成画像を生成し、合成画像を出力画像として出力する。なお、本実施形態では、出力部22は、出力画像を表示する。
Subsequently, the
一方、ステップS02において、評価モードがONにされていないと判定された場合(ステップS2:NO)、出力部22は、ステップS01で取得された対象画像を出力画像として出力する(ステップS08)。なお、本実施形態では、出力部22は、出力画像を表示する。
On the other hand, when it is determined in step S02 that the evaluation mode is not turned on (step S2: NO), the
その後、ステップS07又はステップS08で出力された出力画像がユーザ(撮影者)によって確認され、所定の決定操作がなされると、コンテンツ提供装置10は、対象画像を撮影及び記録する(ステップS09)。
Thereafter, when the output image output in step S07 or step S08 is confirmed by the user (photographer) and a predetermined determination operation is performed, the
続いて、コンテンツ提供装置10において、ユーザから撮影処理の終了を受け付けたか否かが判定される(ステップS10)。具体的には、カメラアプリケーションの終了操作を受け付けたか否かが判定される。撮影処理の終了を受け付けていないと判定された場合(ステップS10:NO)、ステップS1〜ステップS10の処理が繰り返し実行され、2枚目以降の対象画像の処理が実行される。一方、ステップS10において、撮影処理の終了を受け付けたと判定された場合(ステップS10:YES)、コンテンツ提供装置10の動作(ここでは一例としてカメラアプリケーションによる写真撮影の処理)を終了する。このようにして、コンテンツ提供方法の一連の処理が終了する。
Subsequently, in the
上記一連の処理は、定期的に又はレンズが向けられている方向が変化したタイミング等で、繰り返し実行されてもよい。これにより、現時点で撮影可能な画像について、コンテンツを含む合成画像が、ほぼリアルタイムに更新されながらユーザに提示される。この場合、ユーザは、例えば合成画像を確認して、アドバイスに従って構図等の調整を行い得る。 The series of processes may be repeatedly executed periodically or at a timing when the direction in which the lens is directed changes. As a result, a composite image including content is presented to the user while being updated almost in real time for the image that can be captured at the current time. In this case, the user can confirm the composite image, for example, and adjust the composition or the like according to the advice.
次に、図16を参照して、コンピュータをコンテンツ提供装置10として機能させるためのコンテンツ提供プログラムPについて説明する。
Next, a content providing program P for causing a computer to function as the
コンテンツ提供プログラムPは、メインモジュールP10、画像取得モジュールP11、評価情報取得モジュールP13、シーン別ユーザ情報抽出モジュールP17、コンテンツ選択モジュールP20、コンテンツ編集モジュールP21、出力モジュールP22、及びユーザ嗜好情報更新モジュールP23を備える。メインモジュールP10は、コンテンツ提供に係る処理を統括的に制御する部分である。画像取得モジュールP11、評価情報取得モジュールP13、シーン別ユーザ情報抽出モジュールP17、コンテンツ選択モジュールP20、コンテンツ編集モジュールP21、出力モジュールP22、及びユーザ嗜好情報更新モジュールP23を実行することにより実現される機能はそれぞれ、上記実施形態における画像取得部11、評価情報取得部13、シーン別ユーザ情報抽出部17、コンテンツ選択部20、コンテンツ編集部21、出力部22、及びユーザ嗜好情報更新部23の機能と同様である。
The content providing program P includes a main module P10, an image acquisition module P11, an evaluation information acquisition module P13, a scene-specific user information extraction module P17, a content selection module P20, a content editing module P21, an output module P22, and a user preference information update module P23. Is provided. The main module P10 is a part that comprehensively controls processing related to content provision. The functions realized by executing the image acquisition module P11, the evaluation information acquisition module P13, the scene-specific user information extraction module P17, the content selection module P20, the content editing module P21, the output module P22, and the user preference information update module P23. The functions of the
コンテンツ提供プログラムPは、CD−ROM(Compact DiskRead Only Memory)、DVD−ROM(Digital Versatile Disk ReadOnly Memory)、及び半導体メモリ等の有形の記録媒体に固定的に記録された状態で提供されてもよい。または、コンテンツ提供プログラムPは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。 The content providing program P may be provided in a state of being fixedly recorded on a tangible recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only Memory), and a semiconductor memory. . Alternatively, the content providing program P may be provided via a communication network as a data signal superimposed on a carrier wave.
以上説明したコンテンツ提供装置10及びコンテンツ提供プログラムPでは、取得された対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報が取得され、評価情報に基づいてシーン別ユーザ情報が抽出される。そして、シーン別ユーザ情報に基づいて、撮影に関する複数のコンテンツからコンテンツが選択されて出力される。これにより、撮影シーンに応じたユーザに関する情報が考慮されてコンテンツが選択されるので、撮影シーンごとにユーザに適したコンテンツを提供することが可能となる。
In the
また、シーン別ユーザ情報抽出部17は、評価情報取得部13によって取得された評価値を撮影シーンごとに集計することによって、シーン別評価値を算出し、シーン別評価値をシーン別ユーザ情報として抽出する。このシーン別評価値は、撮影シーンごとのユーザの撮影技術を反映した値とみなされ得る。このため、撮影シーンごとのユーザの撮影技術が考慮されてコンテンツが選択されるので、撮影シーンごとのユーザの撮影技術に応じたコンテンツを提供することが可能となる。
Further, the scene-specific user
また、シーン別ユーザ情報抽出部17は、シーン別嗜好情報をシーン別ユーザ情報として抽出する。このシーン別嗜好情報は、撮影シーンごとのユーザの嗜好を表す。このため、撮影シーンごとのユーザの嗜好が考慮されてコンテンツが選択されるので、撮影シーンごとのユーザの嗜好に応じたコンテンツを提供することが可能となる。
The scene-specific user
また、シーン別ユーザ情報抽出部17は、複数の写真家のそれぞれについて当該写真家が撮影する撮影シーンの傾向を示す写真家情報と、複数の写真家のうちユーザが好む写真家を示すユーザ嗜好情報と、に基づいて、シーン別嗜好情報を算出する。このため、撮影シーンごとにユーザが好む写真家を逐一選択することなく、シーン別嗜好情報を得ることができる。
The scene-specific user
また、ユーザ嗜好情報更新部23は、シーン別嗜好情報を更新する。ユーザ嗜好情報更新部23は、例えば、ユーザによって閲覧されたコンテンツに応じて、シーン別嗜好情報を更新することにより、ユーザの嗜好の変化を反映することができる。このため、ユーザの嗜好の変化に応じて、選択されるコンテンツを変更することが可能となる。
Moreover, the user preference information update
また、コンテンツ編集部21は、シーン別ユーザ情報に基づいて、コンテンツ選択部20によって選択されたコンテンツを編集する。このため、例えば、撮影シーンごとのユーザに関する情報をコンテンツに反映させることによって、ユーザの興味を惹くように、コンテンツを編集することができる。これにより、提供されたコンテンツに対するユーザの理解度を高めることができ、提供されたコンテンツに対するユーザの閲覧率を向上することが可能となる。
Further, the
(第2実施形態)
第2実施形態に係るコンテンツ提供装置について説明する。図17は、第2実施形態のコンテンツ提供装置の機能構成を示すブロック図である。図17に示されるように、第2実施形態に係るコンテンツ提供装置10Aは、第1実施形態に係るコンテンツ提供装置10と比較して、コンテンツ提供装置10Aがサーバ装置2A及び端末装置3Aを含む点で主に相違する。サーバ装置2Aは、例えば、端末装置3Aにコンテンツを配信するサーバである。端末装置3Aは、ユーザによって携帯されて用いられる装置である。端末装置3Aは、例えば、デジタルカメラ、携帯電話機、スマートフォン、タブレット端末及びPCを含む端末装置である。端末装置3Aは、サーバ装置2Aからコンテンツを取得し、取得したコンテンツを表示する。サーバ装置2Aと端末装置3Aとは、例えば、移動体通信網等のネットワークを介して互いに通信可能に接続されている。複数の端末装置3Aがサーバ装置2Aと通信可能に接続されてもよい。
(Second Embodiment)
A content providing apparatus according to the second embodiment will be described. FIG. 17 is a block diagram illustrating a functional configuration of the content providing apparatus according to the second embodiment. As illustrated in FIG. 17, the
端末装置3Aは、画像取得部11と、画像情報格納部12と、評価情報取得部13と、評価情報格納部14と、ユーザ嗜好情報格納部15と、写真家情報格納部16と、シーン別ユーザ情報抽出部17と、シーン別ユーザ情報格納部18と、出力部22と、ユーザ嗜好情報更新部23と、通信制御部31と、を備えている。通信制御部31は、サーバ装置2Aに対するデータの送受信を制御する。サーバ装置2Aは、コンテンツ格納部19と、コンテンツ選択部20と、コンテンツ編集部21と、通信制御部24と、を備えている。通信制御部24は、端末装置3Aに対するデータの送受信を制御する。
The
評価情報格納部14に格納されている評価情報及びシーン別ユーザ情報格納部18に格納されているシーン別ユーザ情報は、通信制御部31及び通信制御部24を介してコンテンツ選択部20及びコンテンツ編集部21に送信される。また、コンテンツ編集部21によって編集されたコンテンツは、通信制御部24及び通信制御部31を介して出力部22に送信される。なお、通信制御部31は、端末装置3Aを一意に識別するための端末IDとともに評価情報及びシーン別ユーザ情報をサーバ装置2Aに送信する。通信制御部24は、評価情報及びシーン別ユーザ情報とともに送信された端末IDに基づいて、評価情報及びシーン別ユーザ情報を送信した端末装置3Aにコンテンツを送信する。
Evaluation information stored in the evaluation
以上の第2実施形態のコンテンツ提供装置10Aによっても、上述した第1実施形態のコンテンツ提供装置10と同様の効果が奏される。
The
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されない。例えば、画像取得部11は、インターネット上の画像を対象画像として取得してもよい。また、画像取得部11は、SNS(Social Networking Service)において、ユーザが興味を示す画像を対象画像として取得してもよい。例えば、画像取得部11は、フェイスブック及びインスタグラム等において、ユーザが「いいね」フラグを付した画像を対象画像として取得する。画像取得部11は、例えば、公開されているアカウント、及びユーザが閲覧可能なオープン型のSNSから、上記フラグを付した画像を取得する。
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment. For example, the
また、コンテンツ提供装置10,10Aでは、単に撮影回数が多いユーザの撮影技術が上級であると判定されることがある。これに対し、シーン別ユーザ情報抽出部17は、対象画像の処理時から直近に撮影された所定枚数(例えば、5000枚)の写真を対象として、シーン別評価値を算出してもよく、対象画像の処理時から所定の期間(例えば、半年間)前から対象画像の処理時までに撮影された写真を対象として、シーン別評価値を算出してもよい。このようにすることで、ユーザの撮影技術の判定精度を向上することが可能となる。
Further, in the
また、コンテンツ格納部19は、撮影済みの対象画像に対応付けられたコンテンツ群と、撮影中の対象画像に対応付けられたコンテンツ群と、を格納していてもよい。この場合、コンテンツ選択部20は、対象画像が撮影済みの画像であるか撮影中の画像であるかに応じて、選択対象となるコンテンツ群からコンテンツを選択してもよい。
Further, the
また、コンテンツ格納部19は、ユーザごとに選択対象のコンテンツを格納していてもよい。また、コンテンツ格納部19には、ユーザによって選択されたコンテンツが格納されてもよい。また、コンテンツ格納部19に格納されているコンテンツは、コンテンツの利用傾向に応じて更新されてもよい。この利用傾向は、ユーザが閲覧したことを示す閲覧情報に基づいて定められる。閲覧情報は、例えば、ユーザがコンテンツを閲覧した回数、コンテンツを評価した回数、コンテンツに従って撮影を行った回数、及びコンテンツに従って撮影技術が向上したことを示す情報を含む。
Further, the
また、コンテンツ選択部20は、協調フィルタリングによって、コンテンツ格納部19に格納されている複数のコンテンツからコンテンツを選択してもよい。また、コンテンツ選択部20は、回帰式又は判別式に基づいて、コンテンツ格納部19に格納されている複数のコンテンツからコンテンツを選択してもよい。回帰式は、例えば重回帰分析によって算出される。判別式は、例えばロジスティック回帰、及びサポートベクタマシンによって算出される。この場合、コンテンツ選択部20は、ユーザ本人への適合スコアに基づいて、コンテンツの優先順位を決定してもよい。
The
例えば、コンテンツ選択部20によって2つのコンテンツ(コンテンツID=101,102)が選択されたとして説明する。コンテンツIDが101のコンテンツが、F値が1.4の場合に+40、撮影シーンがポートレイトの場合に+30という回帰係数を有しており、コンテンツIDが102のコンテンツが、F値が1.4の場合に+40、撮影シーンがポートレイトの場合に−10という回帰係数を有しているとする。このとき、対象画像のF値が1.4で、撮影シーンがポートレイトである場合、コンテンツIDが101のコンテンツの適合スコアは70となり、コンテンツIDが102のコンテンツの適合スコアは30となる。このため、コンテンツ選択部20は、コンテンツIDが102のコンテンツよりも、コンテンツIDが101のコンテンツに、高い優先順位を割り当てる。
For example, it is assumed that two contents (content ID = 101, 102) are selected by the
コンテンツ選択部20は、SNSで人気のコンテンツに対して、高い優先順位を割り当ててもよい。
The
また、コンテンツ編集部21は、例えば「{時間}の{撮影シーン}写真の撮影お疲れ様でした。今回の{構図}を活かした撮影で、{撮影シーン}写真の腕前が{ユーザの撮影技術}にレベルアップいたしました。さらに{ユーザの撮影技術+1}を目指すあなたに、{写真家}先生から魚眼レンズを使った{撮影シーン}写真撮影テクニックのご紹介があります。」といったテンプレート文章をコンテンツに付加してもよい。評価情報として撮影時刻が含まれる場合には、コンテンツ編集部21は、例えば、評価情報から一連の撮影を行った時間を取得することが可能である。コンテンツ編集部21は、取得した時間に応じた文字列を{時間}に追加する。コンテンツ編集部21は、例えば、一連の撮影のうち、1枚目の画像の撮影時刻が23時であり、最後の画像の撮影時刻が5時である場合には、「深夜から早朝までの長時間」という文字列を追加する。コンテンツ編集部21は、{ユーザの撮影技術+1}には、現在のユーザの撮影技術の1つ上のレベルを示す文字列を追加する。評価情報として「Comp」に代えて「Comp(j)」が含まれており、一連の撮影において他の評価項目の評価値よりもComp(j)の評価値が高かった場合には、コンテンツ編集部21は、構図パターンjを示す文字列を{構図}に追加する。この場合、ユーザの撮影履歴、好み、及び撮影技術等に対応した文章がコンテンツに付加されるので、出力部22によって出力されたコンテンツをユーザが閲覧する可能性を高めることができる。
In addition, the
また、出力部22は、コンテンツ編集部21によってコンテンツを編集することなく、コンテンツ選択部20によって選択されたコンテンツを出力してもよい。
The
10,10A…コンテンツ提供装置、11…画像取得部(画像取得手段)、13…評価情報取得部(評価情報取得手段)、17…シーン別ユーザ情報抽出部(抽出手段)、19…コンテンツ格納部(コンテンツ格納手段)、20…コンテンツ選択部(選択手段)、21…コンテンツ編集部(編集手段)、22…出力部(出力手段)、23…ユーザ嗜好情報更新部(更新手段)、P…コンテンツ提供プログラム。
DESCRIPTION OF
Claims (7)
前記画像取得手段によって取得された前記対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段と、
前記評価情報取得手段によって取得された前記評価情報に基づいて、前記撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報を抽出する抽出手段と、
撮影に関する複数のコンテンツを格納するコンテンツ格納手段と、
前記抽出手段によって抽出された前記シーン別ユーザ情報に基づいて、前記コンテンツ格納手段に格納されている前記複数のコンテンツからコンテンツを選択する選択手段と、
前記選択手段によって選択された前記コンテンツを出力する出力手段と、
を備えるコンテンツ提供装置。 Image acquisition means for acquiring a target image that is an image to be processed;
Evaluation information acquisition means for acquiring evaluation information regarding a plurality of evaluation items including a shooting scene for the target image acquired by the image acquisition means;
Based on the evaluation information acquired by the evaluation information acquisition means, extraction means for extracting user information by scene, which is information related to the user for each shooting scene,
Content storage means for storing a plurality of contents related to shooting;
Selection means for selecting content from the plurality of contents stored in the content storage means based on the scene-specific user information extracted by the extraction means;
Output means for outputting the content selected by the selection means;
A content providing apparatus comprising:
前記抽出手段は、前記評価情報取得手段によって取得された前記評価値を前記撮影シーンごとに集計することによって、前記撮影シーンごとの前記評価値であるシーン別評価値を算出し、前記シーン別評価値を前記シーン別ユーザ情報として抽出する、請求項1に記載のコンテンツ提供装置。 The evaluation information includes an evaluation value calculated based on a predetermined evaluation criterion,
The extraction means calculates the evaluation value for each scene, which is the evaluation value for each shooting scene, by summing up the evaluation values acquired by the evaluation information acquisition means for each shooting scene. The content providing apparatus according to claim 1, wherein a value is extracted as the user information for each scene.
前記出力手段は、前記編集手段によって編集された前記コンテンツを出力する、請求項1〜請求項5のいずれか一項に記載のコンテンツ提供装置。 An editing unit that edits the content selected by the selection unit based on the scene-specific user information,
The content providing apparatus according to claim 1, wherein the output unit outputs the content edited by the editing unit.
前記画像取得手段によって取得された前記対象画像に対して、撮影シーンを含む複数の評価項目に関する評価情報を取得する評価情報取得手段と、
前記評価情報取得手段によって取得された前記評価情報に基づいて、前記撮影シーンごとのユーザに関する情報であるシーン別ユーザ情報を抽出する抽出手段と、
前記抽出手段によって抽出された前記シーン別ユーザ情報に基づいて、撮影に関する複数のコンテンツからコンテンツを選択する選択手段と、
前記選択手段によって選択された前記コンテンツを出力する出力手段と、
してコンピュータを機能させる、コンテンツ提供プログラム。 Image acquisition means for acquiring a target image that is an image to be processed;
Evaluation information acquisition means for acquiring evaluation information regarding a plurality of evaluation items including a shooting scene for the target image acquired by the image acquisition means;
Based on the evaluation information acquired by the evaluation information acquisition means, extraction means for extracting user information by scene, which is information related to the user for each shooting scene,
Selection means for selecting content from a plurality of contents related to shooting based on the user information by scene extracted by the extraction means;
Output means for outputting the content selected by the selection means;
Content providing program that allows computers to function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016068589A JP2017184021A (en) | 2016-03-30 | 2016-03-30 | Content providing device and content providing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016068589A JP2017184021A (en) | 2016-03-30 | 2016-03-30 | Content providing device and content providing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017184021A true JP2017184021A (en) | 2017-10-05 |
Family
ID=60008725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016068589A Pending JP2017184021A (en) | 2016-03-30 | 2016-03-30 | Content providing device and content providing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017184021A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110336945A (en) * | 2019-07-09 | 2019-10-15 | 上海泰大建筑科技有限公司 | A kind of intelligence assisted tomography patterning process and system |
-
2016
- 2016-03-30 JP JP2016068589A patent/JP2017184021A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110336945A (en) * | 2019-07-09 | 2019-10-15 | 上海泰大建筑科技有限公司 | A kind of intelligence assisted tomography patterning process and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102598109B1 (en) | Electronic device and method for providing notification relative to image displayed via display and image stored in memory based on image analysis | |
CN107820020A (en) | Method of adjustment, device, storage medium and the mobile terminal of acquisition parameters | |
US20120321131A1 (en) | Image-related handling support system, information processing apparatus, and image-related handling support method | |
KR101725884B1 (en) | Automatic processing of images | |
KR20180116466A (en) | Use of camera metadata for recommendations | |
US20160179846A1 (en) | Method, system, and computer readable medium for grouping and providing collected image content | |
KR20090087670A (en) | Method and system for extracting the photographing information | |
JP2015002423A (en) | Image processing apparatus, server and storage medium | |
KR20100003898A (en) | Method of controlling image processing apparatus, image processing apparatus and image file | |
CN107787463A (en) | The capture of optimization focusing storehouse | |
WO2015145769A1 (en) | Imaging device, information processing device, photography assistance system, photography assistance program, and photography assistance method | |
CN104866520A (en) | Methods, devices and systems for context-sensitive organization of media files | |
CN102496147A (en) | Image processing device, image processing method and image processing system | |
CN108513069A (en) | Image processing method, device, storage medium and electronic equipment | |
JP5878523B2 (en) | Content processing apparatus and integrated circuit, method and program thereof | |
CN112017137A (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
JP6230386B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2015196681A1 (en) | Picture processing method and electronic device | |
JP6323548B2 (en) | Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method | |
US11238622B2 (en) | Method of providing augmented reality contents and electronic device therefor | |
JP5381498B2 (en) | Image processing apparatus, image processing program, and image processing method | |
CN107343142A (en) | The image pickup method and filming apparatus of a kind of photo | |
JP2013149034A (en) | Image display apparatus, image display method, and program | |
JP2017184021A (en) | Content providing device and content providing program | |
CN109510752B (en) | Information display method and device |