JP2014225061A - Information provision device, information provision system, information provision method, and program - Google Patents

Information provision device, information provision system, information provision method, and program Download PDF

Info

Publication number
JP2014225061A
JP2014225061A JP2013102797A JP2013102797A JP2014225061A JP 2014225061 A JP2014225061 A JP 2014225061A JP 2013102797 A JP2013102797 A JP 2013102797A JP 2013102797 A JP2013102797 A JP 2013102797A JP 2014225061 A JP2014225061 A JP 2014225061A
Authority
JP
Japan
Prior art keywords
information
content
unit
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013102797A
Other languages
Japanese (ja)
Other versions
JP6124677B2 (en
Inventor
大暢 篠田
Hironobu Shinoda
大暢 篠田
田中 伸明
Nobuaki Tanaka
伸明 田中
知彦 斉藤
Tomohiko Saito
知彦 斉藤
西村 一成
Kazunari Nishimura
一成 西村
中村 友則
Tomonori Nakamura
友則 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013102797A priority Critical patent/JP6124677B2/en
Publication of JP2014225061A publication Critical patent/JP2014225061A/en
Application granted granted Critical
Publication of JP6124677B2 publication Critical patent/JP6124677B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide information on content that meets the needs of a user better.SOLUTION: A server device obtains image data representing an image from a communication terminal, and on the basis of the obtained image data, generates characteristic information representing the characteristic of a user of the communication terminal. The server device obtains image data representing an image according to a predetermined instruction from the communication terminal, and on the basis of the obtained image data, generates situation information representing the situation of the user. The server device selects one from a plurality of contents on the basis of the generated characteristic information and situation information, and outputs information representing the selected content.

Description

本発明は、おすすめのコンテンツの情報をユーザーに提供する技術に関する。   The present invention relates to a technique for providing recommended content information to a user.

ユーザーの趣味嗜好に合うコンテンツの情報を提供する技術が提案されている。例えば、特許文献1には、ユーザーが撮影した写真を解析することにより、ユーザーの嗜好を判定し、ユーザーの嗜好に合うコンテンツをユーザーのカメラに送信する技術が記載されている。   Techniques have been proposed that provide information on content that meets user hobbies and preferences. For example, Japanese Patent Application Laid-Open No. 2004-151867 describes a technique for determining a user's preference by analyzing a photograph taken by the user and transmitting content that matches the user's preference to the user's camera.

特開2011−257868号公報JP 2011-257868 A

しかし、特許文献1に記載の技術では、ユーザーに提供するコンテンツを、ユーザーが現在居る場所や現在置かれている環境とは無関係に、ユーザーの嗜好だけを考慮して選択しているため、ユーザーの状況に合わないコンテンツの情報も提供されてしまう。そのため、提供したコンテンツの情報がユーザーのニーズに合わない場合がある。
本発明は、よりユーザーのニーズに合うコンテンツの情報を提供することを目的とする。
However, in the technology described in Patent Document 1, the content to be provided to the user is selected in consideration of only the user's preference, regardless of the location where the user is currently located or the environment where the user is currently located. Information on content that does not fit the situation is also provided. For this reason, the provided content information may not meet the user's needs.
An object of this invention is to provide the information of the content more suitable for a user's needs.

本発明は、第1の画像を表す第1の画像データを通信端末から取得する第1の画像取得部と、前記第1の画像取得部により取得された前記第1の画像データに基づいて、前記通信端末のユーザーの特性を表す特性情報を生成する第1の生成部と、所定の指示に応じて第2の画像を表す第2の画像データを前記通信端末から取得する第2の画像取得部と、前記第2の画像取得部により取得された前記第2の画像データに基づいて、前記ユーザーの状況を表す状況情報を生成する第2の生成部と、前記第1の生成部により生成された前記特性情報と、前記第2の生成部により生成された前記状況情報とに基づいて、複数のコンテンツの中から第1のコンテンツを選択する選択部と、前記選択部により選択された前記第1のコンテンツを表す情報を出力する出力部とを備える情報提供装置を提供する。   The present invention is based on a first image acquisition unit that acquires first image data representing a first image from a communication terminal, and the first image data acquired by the first image acquisition unit. A first generation unit that generates characteristic information representing characteristics of the user of the communication terminal, and a second image acquisition that acquires second image data representing a second image from the communication terminal according to a predetermined instruction Generated by the first generation unit, a second generation unit that generates situation information representing the user's situation based on the second image data acquired by the second image acquisition unit, and the first generation unit A selection unit that selects a first content from a plurality of contents based on the generated characteristic information and the situation information generated by the second generation unit; and the selection unit selected by the selection unit Information that represents the first content Providing information providing device and an output unit for force.

前記情報提供装置において、前記選択部はさらに、前記第1の生成部により生成された前記特性情報又は前記第2の生成部により生成された前記状況情報のいずれかに基づいて、前記複数のコンテンツの中から第2のコンテンツを選択し、前記出力部は、前記第1のコンテンツを表す情報に加えて、前記第2のコンテンツを表す情報を出力してもよい。   In the information providing apparatus, the selection unit further includes the plurality of contents based on either the characteristic information generated by the first generation unit or the situation information generated by the second generation unit. The second content may be selected from the list, and the output unit may output information representing the second content in addition to the information representing the first content.

前記情報提供装置において、前記選択部は、所定数の前記第1のコンテンツと、所定数の前記第2のコンテンツとを選択し、前記所定数の第1のコンテンツ及び前記所定数の第2のコンテンツのうち、前記通信端末において利用されたコンテンツの利用履歴を示す履歴情報を取得する履歴取得部と、前記履歴取得部により取得された履歴情報に基づいて、前記選択部により選択される前記第1のコンテンツの数又は前記第2のコンテンツの数を変更する変更部とを備えてもよい。   In the information providing apparatus, the selection unit selects a predetermined number of the first contents and a predetermined number of the second contents, and selects the predetermined number of first contents and the predetermined number of second contents. Of the content, a history acquisition unit that acquires history information indicating a usage history of the content used in the communication terminal, and the first selected by the selection unit based on the history information acquired by the history acquisition unit A change unit that changes the number of one content or the number of the second content.

前記情報提供装置において、前記複数のコンテンツの少なくとも一には、特性情報と状況情報の組み合わせが設定されており、前記選択部は、前記第1の生成部により生成された前記特性情報及び前記第2の生成部により生成された状況情報の中に、前記設定された組み合わせが含まれる場合には、当該組み合わせが設定されたコンテンツを他のコンテンツに優先して選択してもよい。   In the information providing apparatus, a combination of characteristic information and situation information is set in at least one of the plurality of contents, and the selection unit includes the characteristic information generated by the first generation unit and the first information. When the set combination is included in the situation information generated by the second generation unit, the content set with the combination may be selected with priority over other content.

また、本発明は、情報提供装置と、通信端末とを備え、前記情報提供装置は、第1の画像を表す第1の画像データを前記通信端末から取得する第1の画像取得部と、前記第1の画像取得部により取得された前記第1の画像データに基づいて、前記通信端末のユーザーの特性を表す特性情報を生成する第1の生成部と、所定の指示に応じて第2の画像を表す第2の画像データを前記通信端末から取得する第2の画像取得部と、前記第2の画像取得部により取得された前記第2の画像データに基づいて、前記ユーザーの状況を表す状況情報を生成する第2の生成部と、前記第1の生成部により生成された前記特性情報と、前記第2の生成部により生成された前記状況情報とに基づいて、複数のコンテンツの中から第1のコンテンツを選択する選択部と、前記選択部により選択された前記第1のコンテンツを表す情報を出力する出力部とを備え、前記通信端末は、前記第1の画像データ及び前記第2の画像データを前記情報提供装置に送信する画像送信部と、前記出力部から出力された前記情報を表示部に表示させる表示制御部とを備える情報提供システムを提供する。   The present invention further includes an information providing device and a communication terminal, wherein the information providing device obtains first image data representing a first image from the communication terminal; Based on the first image data acquired by the first image acquisition unit, a first generation unit that generates characteristic information representing the characteristics of the user of the communication terminal, and a second according to a predetermined instruction A second image acquisition unit that acquires second image data representing an image from the communication terminal, and the second image data acquired by the second image acquisition unit represents the situation of the user. Based on the second generation unit that generates situation information, the characteristic information generated by the first generation unit, and the situation information generated by the second generation unit, Select to select the first content from And an output unit that outputs information representing the first content selected by the selection unit, and the communication terminal sends the first image data and the second image data to the information providing device. There is provided an information providing system including an image transmitting unit to transmit and a display control unit for displaying the information output from the output unit on a display unit.

前記情報提供システムにおいて、前記通信端末は、画像を撮影する撮像部を備え、前記表示制御部は、前記撮像部により撮影された前記画像に、前記出力部から出力された前記情報を付加して前記表示部に表示させてもよい。   In the information providing system, the communication terminal includes an imaging unit that captures an image, and the display control unit adds the information output from the output unit to the image captured by the imaging unit. You may display on the said display part.

また、本発明は、第1の画像を表す第1の画像データを通信端末から取得するステップと、前記取得された第1の画像データに基づいて、前記通信端末のユーザーの特性を表す特性情報を生成するステップと、所定の指示に応じて第2の画像を表す第2の画像データを前記通信端末から取得するステップと、前記取得された第2の画像データに基づいて、前記ユーザーの状況を表す状況情報を生成するステップと、前記生成された特性情報と、前記生成された状況情報とに基づいて、複数のコンテンツの中から第1のコンテンツを選択するステップと、前記選択された第1のコンテンツを表す情報を出力するステップとを備える情報提供方法を提供する。   The present invention also includes a step of acquiring first image data representing a first image from a communication terminal, and characteristic information representing characteristics of a user of the communication terminal based on the acquired first image data. Generating second image data representing a second image from the communication terminal in response to a predetermined instruction, and the user's situation based on the acquired second image data Generating status information representing the content, selecting the first content from a plurality of content based on the generated characteristic information and the generated status information, and the selected first An information providing method comprising: outputting information representing one content.

また、本発明は、コンピューターに、第1の画像を表す第1の画像データを通信端末から取得するステップと、前記取得された第1の画像データに基づいて、前記通信端末のユーザーの特性を表す特性情報を生成するステップと、所定の指示に応じて第2の画像を表す第2の画像データを前記通信端末から取得するステップと、前記取得された第2の画像データに基づいて、前記ユーザーの状況を表す状況情報を生成するステップと、前記生成された特性情報と、前記生成された状況情報とに基づいて、複数のコンテンツの中から第1のコンテンツを選択するステップと、前記選択された第1のコンテンツを表す情報を出力するステップとを実行させるためのプログラムを提供する。   Further, the present invention provides a computer with a step of acquiring first image data representing a first image from a communication terminal, and based on the acquired first image data, characteristics of a user of the communication terminal. Generating characteristic information to be represented; obtaining second image data representing a second image in response to a predetermined instruction from the communication terminal; and based on the acquired second image data, Generating situation information representing a user situation; selecting a first content from a plurality of contents based on the generated characteristic information and the generated situation information; and the selection A program for executing the step of outputting the information representing the first content.

本発明によれば、よりユーザーのニーズに合うコンテンツの情報を提供することができる。   According to the present invention, it is possible to provide content information that better meets user needs.

情報提供システムの全体構成を示す図である。It is a figure which shows the whole structure of an information provision system. サーバー装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a server apparatus. コンテンツ管理テーブルの一例を示す図である。It is a figure which shows an example of a content management table. 画像DBの一例を示す図である。It is a figure which shows an example of image DB. サーバー装置の機能構成を示す図である。It is a figure which shows the function structure of a server apparatus. 通信端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a communication terminal. 通信端末の機能構成を示す図である。It is a figure which shows the function structure of a communication terminal. 格納処理を示すシーケンスチャートである。It is a sequence chart which shows a storage process. レコメンド処理を示すシーケンスチャートである。It is a sequence chart which shows a recommendation process. 画像データの一例を示す図である。It is a figure which shows an example of image data. 表示部に表示されるコンテンツ情報の一例を示す図である。It is a figure which shows an example of the content information displayed on a display part. フィードバック処理を示すシーケンスチャートである。It is a sequence chart which shows a feedback process. 各グループのコンテンツの利用回数の一例を示す図である。It is a figure which shows an example of the frequency | count of utilization of the content of each group. 第2実施形態に係るリンクテーブルの一例を示す図である。It is a figure which shows an example of the link table which concerns on 2nd Embodiment. 第3実施形態に係る表示部に表示されるコンテンツ情報の一例を示す図である。It is a figure which shows an example of the content information displayed on the display part which concerns on 3rd Embodiment.

[第1実施形態]
1.構成
(1)システム全体の構成
図1は、第1実施形態に係る情報提供システム1の全体構成を示す図である。情報提供システム1は、サーバー装置10と、通信端末20とを備える。サーバー装置10と通信端末20とは、移動体通信網やインターネットを含むネットワーク30を介して接続される。サーバー装置10は、おすすめのコンテンツの情報を通信端末20に提供する機能を有する。このコンテンツとは、例えばウェブアプリケーションである。通信端末20は、例えば携帯電話やスマートフォンである。通信端末20は、サーバー装置10から提供されたコンテンツの情報をユーザーに提示する機能を有する。
[First Embodiment]
1. Configuration (1) Overall System Configuration FIG. 1 is a diagram illustrating an overall configuration of an information providing system 1 according to the first embodiment. The information providing system 1 includes a server device 10 and a communication terminal 20. Server device 10 and communication terminal 20 are connected via a network 30 including a mobile communication network and the Internet. The server device 10 has a function of providing recommended content information to the communication terminal 20. This content is, for example, a web application. The communication terminal 20 is a mobile phone or a smartphone, for example. The communication terminal 20 has a function of presenting content information provided from the server device 10 to the user.

(2)サーバー装置の構成
図2は、サーバー装置10のハードウェア構成を示す図である。サーバー装置10は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)やRAM(Random Access Memory)などのメインメモリー12と、通信部13と、ハードディスクなどの記憶部14とを備える。
(2) Configuration of Server Device FIG. 2 is a diagram illustrating a hardware configuration of the server device 10. The server device 10 includes a CPU (Central Processing Unit) 11, a main memory 12 such as a ROM (Read Only Memory) and a RAM (Random Access Memory), a communication unit 13, and a storage unit 14 such as a hard disk.

CPU11は、メインメモリー12や記憶部14に記憶されたプログラムを実行することにより、サーバー装置10の各部を制御する。メインメモリー12は、プログラムやデータを記憶する。また、メインメモリー12は、CPU11がプログラムを実行する際の作業領域としての役割を担う。通信部13は、ネットワーク30に接続されるインタフェースである。通信部13は、ネットワーク30を介して通信端末20と通信を行う。記憶部14は、プログラムやデータを記憶する。また、記憶部14は、コンテンツ管理テーブル141と、画像データベース(以下、「画像DB」という)142とを記憶する。   The CPU 11 controls each unit of the server device 10 by executing a program stored in the main memory 12 or the storage unit 14. The main memory 12 stores programs and data. The main memory 12 serves as a work area when the CPU 11 executes the program. The communication unit 13 is an interface connected to the network 30. The communication unit 13 communicates with the communication terminal 20 via the network 30. The storage unit 14 stores programs and data. The storage unit 14 also stores a content management table 141 and an image database (hereinafter referred to as “image DB”) 142.

図3は、コンテンツ管理テーブル141の一例を示す図である。コンテンツ管理テーブル141には、コンテンツの識別情報と、特性情報と、状況情報と、特性スコアと、状況スコアと、総合スコアとが格納される。コンテンツの識別情報は、ユーザーに提供されるコンテンツを識別する情報である。例えば、コンテンツの識別情報は、コンテンツに付与されたIDやコンテンツの名称である。特性情報は、ユーザーの特性を表す情報である。例えば、特性情報は、ユーザーの趣味、嗜好、行動パターン、属性(家族構成など)を表す情報である。状況情報は、ユーザーの状況を表す情報である。例えば、状況情報は、ユーザーが現在居る場所、現在の天気、現在の時間、ユーザーの同行者、その同行者の数を表す情報である。特性スコアは、特性情報の適合度合いを示す値である。状況スコアは、状況情報の適合度合いを示す値である。総合スコアは、特性情報と現状情報の両方の適合度合いを示す値である。   FIG. 3 is a diagram illustrating an example of the content management table 141. The content management table 141 stores content identification information, characteristic information, situation information, a characteristic score, a situation score, and a total score. The content identification information is information for identifying content provided to the user. For example, the content identification information is an ID assigned to the content or the name of the content. The characteristic information is information representing the characteristics of the user. For example, the characteristic information is information that represents a user's hobbies, preferences, behavior patterns, and attributes (such as family composition). The status information is information representing the status of the user. For example, the status information is information indicating the location where the user is present, the current weather, the current time, the user's companion, and the number of the companion. The characteristic score is a value indicating the degree of matching of characteristic information. The situation score is a value indicating the degree of suitability of the situation information. The total score is a value indicating the degree of matching of both the characteristic information and the current status information.

特性情報及び状況情報は、例えばコンテンツの提供者によって予め設定される。例えば、コンテンツA1が、犬といっしょに行けるカフェを案内するウェブアプリケーションである場合、犬好きの人や食通の人がコンテンツA1に興味を持ちそうだと考えられる。また、そのような人が犬といっしょにいる場合や屋外にいる場合には、コンテンツA1を利用する可能性が高いと考えられる。この場合、図3に示すように、コンテンツA1には、「犬好き、食通」という特性情報と、「犬といっしょにいる、屋外」という状況情報とが設定される。   The characteristic information and the situation information are set in advance by a content provider, for example. For example, if the content A1 is a web application that guides a cafe that can go with a dog, it is considered that a person who likes dogs or a foodie is likely to be interested in the content A1. Further, when such a person is with a dog or outdoors, it is considered that the possibility of using the content A1 is high. In this case, as shown in FIG. 3, characteristic information “dog lover, foodie” and status information “outdoor with dog” are set in the content A1.

図4は、画像DB142の一例を示す図である。画像DB142は、通信端末20で撮影された画像を表す画像データを蓄積するのに用いられる。画像DB142には、画像データと、被写体情報とが格納される。画像データは、通信端末20で撮影された画像を表すデータである。被写体情報は、撮影された対象を表す情報である。   FIG. 4 is a diagram illustrating an example of the image DB 142. The image DB 142 is used to store image data representing an image taken by the communication terminal 20. The image DB 142 stores image data and subject information. The image data is data representing an image captured by the communication terminal 20. The subject information is information representing the subject that has been shot.

図5は、サーバー装置10の機能構成を示す図である。サーバー装置10は、CPU11が1又は複数のプログラムを実行することにより、第1の画像取得部111、第1の生成部112、第2の画像取得部113、第2の生成部114、選択部115、出力部116、履歴取得部117、変更部118の機能を実現する。サーバー装置10は、本発明に係る情報提供装置の一例である。   FIG. 5 is a diagram illustrating a functional configuration of the server apparatus 10. The server device 10 includes a first image acquisition unit 111, a first generation unit 112, a second image acquisition unit 113, a second generation unit 114, and a selection unit that are executed by the CPU 11 by executing one or more programs. 115, the functions of the output unit 116, the history acquisition unit 117, and the change unit 118 are realized. The server device 10 is an example of an information providing device according to the present invention.

第1の画像取得部111は、第1の画像を表す第1の画像データを通信端末20から取得する。第1の画像取得部111によって取得された画像データは、画像DB142に記憶される。第1の生成部112は、画像DB142に記憶された第1の画像データに基づいて、通信端末20のユーザーの特性を表す特性情報を生成する。この特性情報とは、ユーザーの趣味、嗜好、行動パターン、属性(家族構成など)など、ユーザーに特有の性質や傾向を表す情報である。   The first image acquisition unit 111 acquires first image data representing the first image from the communication terminal 20. The image data acquired by the first image acquisition unit 111 is stored in the image DB 142. The first generation unit 112 generates characteristic information representing the characteristics of the user of the communication terminal 20 based on the first image data stored in the image DB 142. This characteristic information is information that represents a user's unique properties and trends, such as the user's hobbies, preferences, behavioral patterns, attributes (family composition, etc.).

第2の画像取得部113は、所定の指示に応じて第2の画像を表す第2の画像データを通信端末20から取得する。第2の生成部114は、第2の画像取得部113により取得された第2の画像データに基づいて、ユーザーの状況を表す状況情報を生成する。この状況情報とは、コンテンツ情報の取得指示が入力された時点におけるユーザーの状況、すなわち、いつ、どこで、誰と、どのような環境下で、何をしているかを表す情報である。状況情報は、これらの要素の全てを表すものであってもよいし、これらの要素の一部を表すものであってもよい。   The second image acquisition unit 113 acquires second image data representing the second image from the communication terminal 20 in response to a predetermined instruction. The second generation unit 114 generates status information representing the user status based on the second image data acquired by the second image acquisition unit 113. The status information is information indicating the status of the user at the time when the content information acquisition instruction is input, that is, what, when, with whom, and under what circumstances. The situation information may represent all of these elements, or may represent a part of these elements.

選択部115は、第1の生成部112により生成された特性情報と、第2の生成部114により生成された状況情報とに基づいて、複数のコンテンツの中から第1のコンテンツを選択する。出力部116は、選択部115により選択された第1のコンテンツを表す情報を出力する。   The selection unit 115 selects the first content from the plurality of contents based on the characteristic information generated by the first generation unit 112 and the situation information generated by the second generation unit 114. The output unit 116 outputs information representing the first content selected by the selection unit 115.

履歴取得部117は、第1のコンテンツ及び第2のコンテンツのうち、通信端末20において利用されたコンテンツの利用履歴を示す履歴情報を取得する。変更部118は、履歴取得部117により取得された履歴情報に基づいて、選択部115により選択される第1のコンテンツの数又は第2のコンテンツの数を変更する。   The history acquisition unit 117 acquires history information indicating the usage history of the content used in the communication terminal 20 among the first content and the second content. The change unit 118 changes the number of first contents or the number of second contents selected by the selection unit 115 based on the history information acquired by the history acquisition unit 117.

(3)通信端末の構成
図6は、通信端末20のハードウェア構成を示す図である。通信端末20は、CPU21と、ROMやRAMなどのメインメモリー22と、通信部23と、タッチパネルやキーなどの入力部24と、液晶ディスプレイなどの表示部25と、カメラなどの撮像部26と、フラッシュメモリなどの記憶部27とを備える。なお、通信端末20は、これらの構成の他に、音声通話を行うための構成を備えていてもよい。
(3) Configuration of Communication Terminal FIG. 6 is a diagram illustrating a hardware configuration of the communication terminal 20. The communication terminal 20 includes a CPU 21, a main memory 22 such as a ROM and a RAM, a communication unit 23, an input unit 24 such as a touch panel and keys, a display unit 25 such as a liquid crystal display, an imaging unit 26 such as a camera, And a storage unit 27 such as a flash memory. Note that the communication terminal 20 may include a configuration for performing a voice call in addition to these configurations.

CPU21は、メインメモリー22又は記憶部27に記憶されたプログラムを実行することにより、通信端末20の各部を制御する。メインメモリー22は、プログラムやデータを記憶する。また、メインメモリー22は、CPU21がプログラムを実行する際の作業領域としての役割を担う。通信部23は、ネットワーク30に接続されるインタフェースである。具体的には、ネットワーク30には基地局が含まれており、通信部23はこの基地局に無線で接続される。通信部23は、ネットワーク30を介してサーバー装置10と通信を行う。入力部24は、ユーザーの操作に応じた情報をCPU21に入力する。表示部25は、各種の情報を表示する。撮像部26は、画像を撮影して、撮影した画像を表す画像データを生成する。記憶部27は、プログラムやデータを記憶する。   The CPU 21 controls each unit of the communication terminal 20 by executing a program stored in the main memory 22 or the storage unit 27. The main memory 22 stores programs and data. The main memory 22 serves as a work area when the CPU 21 executes a program. The communication unit 23 is an interface connected to the network 30. Specifically, the network 30 includes a base station, and the communication unit 23 is wirelessly connected to this base station. The communication unit 23 communicates with the server device 10 via the network 30. The input unit 24 inputs information corresponding to a user operation to the CPU 21. The display unit 25 displays various information. The imaging unit 26 captures an image and generates image data representing the captured image. The storage unit 27 stores programs and data.

図7は、通信端末20の機能構成を示す図である。通信端末20は、CPU21が1又は複数のプログラムを実行することにより、画像送信部211、表示制御部212、履歴記録部213及び履歴送信部214の機能を実現する。通信端末20は、本発明に係る通信端末の一例である。   FIG. 7 is a diagram illustrating a functional configuration of the communication terminal 20. The communication terminal 20 implements the functions of the image transmission unit 211, the display control unit 212, the history recording unit 213, and the history transmission unit 214 when the CPU 21 executes one or a plurality of programs. The communication terminal 20 is an example of a communication terminal according to the present invention.

画像送信部211は、第1の画像データ及び第2の画像データをサーバー装置10に送信する。表示制御部212は、サーバー装置10から出力された情報を表示部25に表示させる。   The image transmission unit 211 transmits the first image data and the second image data to the server device 10. The display control unit 212 causes the display unit 25 to display information output from the server device 10.

履歴記録部213は、第1のコンテンツ及び第2のコンテンツのうち、通信端末20において利用されたコンテンツの利用履歴を示す履歴情報を記憶部27に記憶させる。履歴送信部214は、記憶部27に記憶された履歴情報をサーバー装置10に送信する。   The history recording unit 213 causes the storage unit 27 to store history information indicating the usage history of the content used in the communication terminal 20 among the first content and the second content. The history transmission unit 214 transmits the history information stored in the storage unit 27 to the server device 10.

2.動作
次に、情報提供システム1の動作について説明する。情報提供システム1は、主に格納処理と、レコメンド処理と、フィードバック処理とを行う。格納処理では、通信端末20で撮影された画像を表す画像データがサーバー装置10に格納される。レコメンド処理では、サーバー装置10から通信端末20におすすめのコンテンツの情報が提供される。フィードバック処理では、コンテンツの利用履歴に応じて、レコメンド処理で選択される、おすすめのコンテンツの数が変更される。
2. Operation Next, the operation of the information providing system 1 will be described. The information providing system 1 mainly performs storage processing, recommendation processing, and feedback processing. In the storage process, image data representing an image captured by the communication terminal 20 is stored in the server device 10. In the recommendation processing, recommended content information is provided from the server device 10 to the communication terminal 20. In the feedback process, the number of recommended contents selected in the recommendation process is changed according to the content usage history.

(1)格納処理
図8は、格納処理を示すシーケンスチャートである。ユーザーは、通信端末20を携帯し、撮像部26を用いて、日常生活において気になったものや気に入ったものの画像を撮影する。ユーザーが入力部24を用いて撮影ボタンが押すと、ステップS101の処理が開始される。
(1) Storage Process FIG. 8 is a sequence chart showing the storage process. The user carries the communication terminal 20 and uses the imaging unit 26 to take an image of what he / she was interested in or likes in daily life. When the user presses the shooting button using the input unit 24, the process of step S101 is started.

ステップS101において、撮像部26は、画像を撮影し、撮影した画像を表す画像データD1を生成する。このとき撮影される画像は、第1の画像の一例であり、画像データD1は、第1の画像データの一例である。ステップS102において、画像送信部211は、撮像部26により生成された画像データD1をサーバー装置10に送信する。   In step S101, the imaging unit 26 captures an image and generates image data D1 representing the captured image. The image photographed at this time is an example of the first image, and the image data D1 is an example of the first image data. In step S <b> 102, the image transmission unit 211 transmits the image data D <b> 1 generated by the imaging unit 26 to the server device 10.

ステップS103において、第1の画像取得部111は、通信端末20から受信した画像データD1を取得し、取得した画像データD1を画像DB142に格納する。ステップS104において、第1の生成部112は、第1の画像取得部111により取得された画像データD1を解析することにより、被写体を検出する。   In step S103, the first image acquisition unit 111 acquires the image data D1 received from the communication terminal 20, and stores the acquired image data D1 in the image DB 142. In step S104, the first generation unit 112 detects the subject by analyzing the image data D1 acquired by the first image acquisition unit 111.

具体的には、第1の生成部112は、まず画像データD1から被写体の特徴を表す特徴量を抽出する。続いて、第1の生成部112は、画像データD1から抽出した特徴量とテンプレート画像の特徴量とのパターンマッチングにより、被写体を検出する。このテンプレート画像の特徴量は、例えば予め記憶部14に記憶される。例えば、画像データD1から抽出された特徴量が、「犬」のテンプレート画像の特徴量と類似する場合には、被写体として「犬」が検出される。続いて、第1の生成部112は、検出した被写体を表す被写体情報を画像DB142に格納する。例えば、被写体として「犬」が検出された場合には、図4に示すように、画像データD1と対応付けて「犬」という被写体情報が格納される。   Specifically, the first generation unit 112 first extracts a feature amount representing the feature of the subject from the image data D1. Subsequently, the first generation unit 112 detects a subject by pattern matching between the feature amount extracted from the image data D1 and the feature amount of the template image. The feature amount of the template image is stored in advance in the storage unit 14, for example. For example, when the feature amount extracted from the image data D1 is similar to the feature amount of the template image of “dog”, “dog” is detected as the subject. Subsequently, the first generation unit 112 stores subject information representing the detected subject in the image DB 142. For example, when “dog” is detected as a subject, as shown in FIG. 4, subject information “dog” is stored in association with image data D1.

ステップS105において、第1の生成部112は、画像DB142に格納された被写体情報に基づいて、ユーザーの特性情報を生成する。具体的には、第1の生成部112は、まず画像DB142に格納された各被写体情報の総数を計算し、計算した総数が閾値より大きい被写体情報を選択する。例えば、図4に示す「犬」、「子供」、「食べ物」、「風景」という被写体情報の総数がそれぞれ閾値より大きい場合、これらの被写体情報が選択される。続いて、第1の生成部112は、選択した被写体情報に基づいて、ユーザーの特性情報を生成し、生成した特性情報を記憶部14に記憶させる。   In step S <b> 105, the first generation unit 112 generates user characteristic information based on the subject information stored in the image DB 142. Specifically, the first generation unit 112 first calculates the total number of pieces of subject information stored in the image DB 142, and selects subject information for which the calculated total number is greater than a threshold value. For example, when the total number of pieces of subject information “dog”, “child”, “food”, and “landscape” shown in FIG. 4 is larger than the threshold values, these pieces of subject information are selected. Subsequently, the first generation unit 112 generates user characteristic information based on the selected subject information, and stores the generated characteristic information in the storage unit 14.

例えば、「犬」という被写体情報が選択された場合には、ユーザーは犬好きな人だと考えられるため、「犬好き」という特性情報が生成される。また、「子供」という被写体情報が選択された場合には、ユーザーには子供がいると考えられるため、「子供がいる」という特性情報が生成される。また、「食べ物」という被写体情報が特性された場合には、ユーザーは食通であると考えられるため、「食通」という特性情報が生成される。また、「風景」という被写体情報が選択された場合には、ユーザーはアウトドア派の人だと考えられるため、「アウトドア派」という特性情報が生成される。生成されたこれらの特性情報は、記憶部14に記憶される。   For example, when the subject information “dog” is selected, since the user is considered to be a person who likes dogs, characteristic information “dog likes” is generated. Further, when the subject information “child” is selected, it is considered that the user has a child, and thus characteristic information “has a child” is generated. In addition, when the subject information “food” is characterized, the user is considered to be a foodie, and thus characteristic information “foodie” is generated. In addition, when the subject information “landscape” is selected, since the user is considered to be an outdoor group, characteristic information “outdoor group” is generated. The generated characteristic information is stored in the storage unit 14.

この特性情報は、通信端末20で撮影された画像を表す画像データが格納される度に生成され、記憶部14に記憶された特性情報が更新される。したがって、特性情報は、画像データが蓄積されていくほど精度が良くなっていく。   This characteristic information is generated every time image data representing an image taken by the communication terminal 20 is stored, and the characteristic information stored in the storage unit 14 is updated. Therefore, the accuracy of the characteristic information increases as the image data is accumulated.

(2)レコメンド処理
図9は、レコメンド処理を示すシーケンスチャートである。ユーザーは、おすすめのコンテンツの情報を取得したい場合、入力部24を介してコンテンツ情報の取得指示を入力した後、撮像部26を用いて周辺の画像を撮影する。ユーザーが入力部24を用いて撮影ボタンが押すと、ステップS201の処理が開始される。
(2) Recommendation Process FIG. 9 is a sequence chart showing the recommendation process. When the user wants to acquire recommended content information, the user inputs a content information acquisition instruction via the input unit 24, and then captures a surrounding image using the imaging unit 26. When the user presses the shooting button using the input unit 24, the process of step S201 is started.

ステップS201において、撮像部26は、画像を撮影し、撮影した画像を表す画像データD2を生成する。この画像は、所定の指示に応じて撮影されたものであるため、第2の画像の一例である。また、画像データD2は、第2の画像データの一例である。ステップS202において、画像送信部211は、撮像部26により生成された画像データD2と、コンテンツ情報の取得要求とをサーバー装置10に送信する。サーバー装置10は、通信端末20からコンテンツ情報の取得要求を受信すると、ステップS203に進む。   In step S201, the imaging unit 26 captures an image and generates image data D2 representing the captured image. This image is an example of the second image because it is taken according to a predetermined instruction. The image data D2 is an example of second image data. In step S <b> 202, the image transmission unit 211 transmits the image data D <b> 2 generated by the imaging unit 26 and a content information acquisition request to the server device 10. When the server apparatus 10 receives the content information acquisition request from the communication terminal 20, the process proceeds to step S203.

ステップS203において、第2の画像取得部113は、通信端末20から受信した画像データD2を取得する。第2の生成部114は、上述したステップS104と同様に、第2の画像取得部113によって取得された画像データD2を解析することにより、被写体を検出する。図10は、画像データD2の一例を示す図である。図10に示す例では、被写体として「犬」と「青空」と「地面」とが検出される。   In step S203, the second image acquisition unit 113 acquires the image data D2 received from the communication terminal 20. Similar to step S104 described above, the second generation unit 114 detects the subject by analyzing the image data D2 acquired by the second image acquisition unit 113. FIG. 10 is a diagram illustrating an example of the image data D2. In the example shown in FIG. 10, “dog”, “blue sky”, and “ground” are detected as subjects.

ステップS204において、第2の生成部114は、ステップS203で検出された被写体に基づいて、ユーザーの状況情報を生成する。例えば、被写体として「犬」が検出された場合には、ユーザーは現在犬といっしょに居ると考えられるため、「犬といっしょに居る」という状況情報が生成される。また、被写体として「青空」が検出された場合には、現在の時間帯は昼であり、ユーザーが居る場所の現在の天気は晴れであると考えられるため、「昼」及び「晴れ」という状況情報が生成される。また、被写体として「地面」が検出された場合には、ユーザーは現在屋外に居ると考えられるため、「屋外」という状況情報が生成される。   In step S204, the second generation unit 114 generates user status information based on the subject detected in step S203. For example, when “dog” is detected as a subject, the user is considered to be present with the dog, and therefore status information “is present with the dog” is generated. Also, when “blue sky” is detected as the subject, the current time zone is noon, and the current weather in the place where the user is is considered to be sunny. Information is generated. Further, when “ground” is detected as the subject, the user is considered to be currently outdoors, and thus the status information “outdoor” is generated.

ステップS205において、選択部115は、記憶部14に記憶された特性情報とステップS204で生成された状況情報とに基づいて、コンテンツ管理テーブル141により管理される各コンテンツの特性スコア、状況スコア及び総合スコアを算出する。   In step S205, the selection unit 115 selects the characteristic score, the situation score, and the total score of each content managed by the content management table 141 based on the characteristic information stored in the storage unit 14 and the situation information generated in step S204. Calculate the score.

特性スコアは、コンテンツ管理テーブル141に含まれる各コンテンツの特性情報に含まれる、記憶部14に記憶された特性情報の数を計算することにより求められる。例えば、「犬好き」、「子供がいる」、「食通」及び「アウトドア派」という特性情報が記憶部14に記憶されている場合を例に挙げて説明する。図3に示すコンテンツA1の特性情報には、このうち「犬好き」と「食通」という2個の特性情報が含まれる。したがって、この場合には、コンテンツA1の特性スコアとして「2」が算出される。   The characteristic score is obtained by calculating the number of characteristic information stored in the storage unit 14 included in the characteristic information of each content included in the content management table 141. For example, a case where characteristic information such as “dog lover”, “has children”, “foodie”, and “outdoor group” is stored in the storage unit 14 will be described as an example. The characteristic information of the content A1 shown in FIG. 3 includes two pieces of characteristic information, “dog favorite” and “foodie”. Therefore, in this case, “2” is calculated as the characteristic score of the content A1.

状況スコアは、コンテンツ管理テーブル141に含まれる各コンテンツの状況情報に含まれる、ステップS204で生成された状況情報の数を計算することにより求められる。例えば、ステップS204で「犬といっしょに居る」、「昼」、「晴れ」及び「屋外」という状況情報が生成された場合を例に挙げて説明する。図3に示すコンテンツA1の状況情報には、このうち「犬といっしょに居る」と「屋外」という2個の状況情報が含まれる。したがって、この場合には、コンテンツA1の状況スコアとして「2」が算出される。   The status score is obtained by calculating the number of status information generated in step S204 included in the status information of each content included in the content management table 141. For example, a case will be described as an example in which situation information such as “being with a dog”, “daytime”, “sunny”, and “outdoors” is generated in step S204. The situation information of the content A1 shown in FIG. 3 includes two pieces of situation information, “I am with the dog” and “Outdoors”. Therefore, in this case, “2” is calculated as the situation score of the content A1.

総合スコアは、特性スコアと状況スコアとを掛け算することにより求められる。例えば、図3に示すように、コンテンツA1の特性スコアが「2」であり、状況スコアが「2」である場合には、コンテンツA1の総合スコアとして「4」が算出される。   The total score is obtained by multiplying the characteristic score and the situation score. For example, as shown in FIG. 3, when the characteristic score of the content A1 is “2” and the situation score is “2”, “4” is calculated as the total score of the content A1.

ステップS206において、選択部115は、ステップS205で算出された特性スコア、状況スコア及び総合スコアに基づいて、コンテンツ管理テーブル141で管理される複数のコンテンツの中からおすすめのコンテンツを選択する。具体的には、選択部115は、特性スコアが高い上位所定数のコンテンツと、状況スコアが高い上位所定数のコンテンツと、総合スコアが高い上位所定数のコンテンツとを選択する。以下の説明では、特性スコアのみに基づいて選択されるコンテンツを「特性グループのコンテンツ」といい、状況スコアのみに基づいて選択されるコンテンツを「状況グループのコンテンツ」といい、総合コンテンツに基づいて選択されるコンテンツを「総合グループのコンテンツ」という。   In step S206, the selection unit 115 selects recommended content from among a plurality of contents managed by the content management table 141 based on the characteristic score, the situation score, and the total score calculated in step S205. Specifically, the selection unit 115 selects an upper predetermined number of contents with a high characteristic score, an upper predetermined number of contents with a high situation score, and an upper predetermined number of contents with a high overall score. In the following description, content selected based only on the characteristic score is referred to as “characteristic group content”, and content selected based only on the situation score is referred to as “situation group content”. The selected content is called “general group content”.

図3に示す例において、各グループのコンテンツが2個ずつ選択される場合には、以下のようなコンテンツが選択される。総合スコアについては、コンテンツA1の総合スコア「4」が最も高く、コンテンツA2の総合スコア「2」が2番目に高い。したがって、コンテンツA1及びA2が総合グループのコンテンツとして選択される。このコンテンツA1及びA2は、第1のコンテンツの一例である。また、特性スコアについては、コンテンツA4の特性スコア「4」が最も高く、コンテンツA3の特性スコア「3」が2番目に高い。したがって、コンテンツA3及びA4が特性グループのコンテンツとして選択される。また、状況スコアについては、コンテンツA5の状況スコア「4」が最も高く、コンテンツA6の状況スコア「3」が2番目に高い。したがって、コンテンツA5及びA6が状況グループのコンテンツとして選択される。このコンテンツA3〜A6は、第2のコンテンツの一例である。   In the example shown in FIG. 3, when two pieces of content of each group are selected, the following content is selected. As for the overall score, the overall score “4” of the content A1 is the highest, and the overall score “2” of the content A2 is the second highest. Therefore, the contents A1 and A2 are selected as the contents of the general group. The contents A1 and A2 are an example of first contents. As for the characteristic score, the characteristic score “4” of the content A4 is the highest, and the characteristic score “3” of the content A3 is the second highest. Therefore, the contents A3 and A4 are selected as the characteristics group contents. As for the situation score, the situation score “4” of the content A5 is the highest, and the situation score “3” of the content A6 is the second highest. Therefore, the contents A5 and A6 are selected as the contents of the situation group. These contents A3 to A6 are examples of second contents.

ステップS207において、出力部116は、ステップS206で選択されたコンテンツを示すコンテンツ情報を通信端末20に送信する。このコンテンツ情報には、例えばコンテンツの識別情報、コンテンツの内容を説明する情報、コンテンツの紹介画像が含まれる。   In step S207, the output unit 116 transmits content information indicating the content selected in step S206 to the communication terminal 20. This content information includes, for example, content identification information, information describing the content, and content introduction images.

ステップS208において、表示制御部212は、サーバー装置10から受信したコンテンツ情報を表示部25に表示させる。図11は、表示部25に表示されるコンテンツ情報の一例を示す図である。図11に示す例では、ユーザーにおすすめのコンテンツとして、コンテンツA1〜A6を示すコンテンツ情報41〜46が表示されている。   In step S208, the display control unit 212 causes the display unit 25 to display the content information received from the server device 10. FIG. 11 is a diagram illustrating an example of content information displayed on the display unit 25. In the example illustrated in FIG. 11, content information 41 to 46 indicating the content A1 to A6 is displayed as content recommended for the user.

(3)フィードバック処理
図12は、フィードバック処理を示すシーケンスチャートである。例えば、ユーザーは、コンテンツ情報41を見てコンテンツA1が気に入った場合、所定の操作によりコンテンツA1をお気に入りリストに登録することができる。コンテンツA1がお気に入りリストに登録されると、表示部25には、コンテンツA1に対応するアイコンが表示される。ユーザーは、入力部24を用いてこのアイコンを選択することにより、対応するウェブサーバーからコンテンツA1の配信を受けることができる。このようにして、ユーザーによりおすすめのコンテンツが利用されると、ステップS301の処理が開始される。
(3) Feedback Process FIG. 12 is a sequence chart showing the feedback process. For example, when the user looks at the content information 41 and likes the content A1, the user can register the content A1 in the favorites list by a predetermined operation. When the content A1 is registered in the favorite list, an icon corresponding to the content A1 is displayed on the display unit 25. By selecting this icon using the input unit 24, the user can receive the content A1 from the corresponding web server. In this way, when the recommended content is used by the user, the process of step S301 is started.

ステップS301において、履歴記録部213は、おすすめのコンテンツの利用履歴を記録する。具体的には、履歴記録部213は、ユーザーによりコンテンツ情報が示すコンテンツが利用されると、コンテンツの利用日時とそのコンテンツの識別情報とを含む履歴情報を生成し、生成した履歴情報を記憶部27に記憶させる。ステップS302において、履歴送信部214は、一時間に一回や一日一回などの所定のタイミングで、記憶部27に記憶された履歴情報をサーバー装置10に送信する。   In step S301, the history recording unit 213 records the usage history of recommended content. Specifically, when the content indicated by the content information is used by the user, the history recording unit 213 generates history information including the use date and time of the content and the identification information of the content, and the generated history information is stored in the storage unit. 27. In step S <b> 302, the history transmission unit 214 transmits the history information stored in the storage unit 27 to the server device 10 at a predetermined timing such as once per hour or once a day.

ステップS303において、履歴取得部117は、通信端末20から受信した履歴情報を取得する。変更部118は、履歴取得部117によって取得された履歴情報に基づいて、コンテンツの利用回数をグループ毎に計算する。図13は、各グループのコンテンツの利用回数の一例を示す図である。例えば履歴情報の中に、コンテンツA1の識別情報とコンテンツA2の識別情報とが1個ずつ含まれる場合、ユーザーによってコンテンツA1及びA2が1回ずつ利用されたことを意味する。このコンテンツA1及びA2は、いずれも総合グループに属する。この場合、図13に示すように、総合グループのコンテンツの利用回数として2回が計算される。特性グループ及び状況グループについても、同様の方法でコンテンツの利用回数が計算される。   In step S <b> 303, the history acquisition unit 117 acquires history information received from the communication terminal 20. The changing unit 118 calculates the number of times the content is used for each group based on the history information acquired by the history acquiring unit 117. FIG. 13 is a diagram illustrating an example of the number of times the content of each group is used. For example, in the history information, when the identification information of the content A1 and the identification information of the content A2 are included one by one, it means that the contents A1 and A2 are used once by the user. Both the contents A1 and A2 belong to the general group. In this case, as shown in FIG. 13, two times are calculated as the number of uses of the contents of the general group. For the characteristic group and the situation group, the number of times the content is used is calculated in the same manner.

ステップS304において、変更部118は、ステップS303で計算された利用回数に基づいて、選択部115により選択される各グループのコンテンツの数を変更する。具体的には、変更部118は、利用回数が最も多いグループについては、選択されるコンテンツの数を増やし、利用回数が最も少ないグループについては、選択されるコンテンツの数を減らす。   In step S304, the changing unit 118 changes the number of contents of each group selected by the selecting unit 115 based on the number of uses calculated in step S303. Specifically, the changing unit 118 increases the number of selected contents for the group with the highest number of uses, and reduces the number of selected contents for the group with the lowest number of uses.

図13に示す例では、総合グループのコンテンツの利用回数「2」が最も多く、状況グループのコンテンツの利用回数「0」が最も少ない。この場合、例えば総合グループについては、選択されるコンテンツの数を2から3に増やし、状況グループについては、選択されるコンテンツの数を2から1に減らす。これにより、次回のステップS206では、総合スコアが高い上位3個のコンテンツと、特性スコアが高い上位2個のコンテンツと、状況スコアが高い上位1個のコンテンツとが選択される。   In the example illustrated in FIG. 13, the content group usage count “2” is the largest, and the status group content usage count “0” is the smallest. In this case, for example, for the general group, the number of selected contents is increased from 2 to 3, and for the situation group, the number of selected contents is decreased from 2 to 1. Thereby, in the next step S206, the top three contents with a high overall score, the top two contents with a high characteristic score, and the top one content with a high situation score are selected.

以上説明した第1実施形態によれば、サーバー装置10に蓄積された画像データに基づいて生成され、画像データが蓄積されていくにつれて精度が良くなっていくユーザーの特性情報と、ユーザーによって或る時点に撮影された画像を表す画像データに基づいて生成される状況情報の両方の適合度合いを表す総合スコアに基づいて、おすすめのコンテンツが選択される。したがって、ユーザーの特性と状況の両方に合うコンテンツの情報を提供することができる。この結果、よりユーザーのニーズに合うコンテンツの情報を提供することができる。   According to the first embodiment described above, the user characteristic information that is generated based on the image data stored in the server device 10 and becomes more accurate as the image data is stored, and the user's characteristic information. Recommended content is selected based on an overall score representing the degree of matching of both pieces of situation information generated based on image data representing an image taken at the time. Therefore, it is possible to provide content information that matches both the user's characteristics and situation. As a result, it is possible to provide content information that better meets the needs of the user.

また、第1実施形態によれば、さらにユーザーの特性情報の適合度合いを表す特性スコア及びユーザーの状況情報の適合度合いを表す状況スコアに基づいて、それぞれおすすめのコンテンツが選択される。したがって、ユーザーの特性と状況の両方に合うコンテンツの情報だけでなく、ユーザーの特性又は状況のいずれかだけに合うコンテンツの情報も提供することができる。   In addition, according to the first embodiment, recommended content is selected based on a characteristic score that represents the degree of adaptation of the user's characteristic information and a situation score that represents the degree of adaptation of the user's situation information. Therefore, it is possible to provide not only information on content that suits both user characteristics and circumstances, but also information on content that suits only user characteristics or situations.

さらに、第1実施形態によれば、フィードバック処理を行うことにより、ユーザーの利用回数が多いグループについては、おすすめのコンテンツとして選択されるコンテンツの数が増加する。これにより、ユーザーが特定のグループのコンテンツを多く利用した場合には、そのグループのコンテンツの情報をより多く提供することができる。   Furthermore, according to the first embodiment, by performing feedback processing, the number of content items selected as recommended content increases for a group that is frequently used by the user. Thereby, when a user uses a lot of content of a specific group, more information on the content of the group can be provided.

[第2実施形態]
次に、本発明の第2実施形態について説明する。上述した第1実施形態では、特性スコアと状況スコアとを掛け算して得た値をそのまま総合スコアとして用いる例について説明した。これに対し、第2実施形態では、ユーザーの特性情報及び状況情報の中に、特定の特性情報と状況情報の組み合わせが含まれている場合には、対応するコンテンツの総合スコアに重み付けをする。第2実施形態に係るサーバー装置10の構成及び通信端末20の構成は、基本的には、第1実施形態で説明した構成と同じである。ただし、第2実施形態に係るサーバー装置10の記憶部14には、第1実施形態で説明したコンテンツ管理テーブル141及び画像DB142に加えて、リンクテーブル143が記憶される。以下、第1実施形態との相違点を中心に説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the first embodiment described above, the example in which the value obtained by multiplying the characteristic score and the situation score is used as it is as the total score has been described. On the other hand, in the second embodiment, when a combination of specific characteristic information and situation information is included in the user characteristic information and situation information, the total score of the corresponding content is weighted. The configuration of the server device 10 and the configuration of the communication terminal 20 according to the second embodiment are basically the same as those described in the first embodiment. However, in addition to the content management table 141 and the image DB 142 described in the first embodiment, a link table 143 is stored in the storage unit 14 of the server device 10 according to the second embodiment. Hereinafter, the difference from the first embodiment will be mainly described.

図14は、リンクテーブル143の一例を示す図である。リンクテーブル143には、コンテンツ管理テーブル141に格納されたコンテンツの識別情報と対応付けて、特性情報と状況情報の組み合わせと、重み付け値とが格納される。なお、リンクテーブル143には、コンテンツ管理テーブル141に格納された全てのコンテンツの識別情報が格納されてもよいし、一部のコンテンツの識別情報だけが格納されてもよい。   FIG. 14 is a diagram illustrating an example of the link table 143. The link table 143 stores a combination of characteristic information and status information and a weight value in association with content identification information stored in the content management table 141. The link table 143 may store the identification information of all the contents stored in the content management table 141, or may store only the identification information of some contents.

特性情報と状況情報の組み合わせは、例えばコンテンツの提供者によって予め設定される。例えば、コンテンツA7が、ランチのお店を案内するウェブアプリケーションである場合、昼に食通の人がコンテンツA7を利用する可能性が極めて高いと考えられる。この場合、図14に示すように、コンテンツA7に対して、「食通」という特性情報と「昼」という状況情報の組み合わせが設定される。重み付け値は、総合スコアに対して加算又は積算される値である。図13に示す「×3」は、総合スコアに「3」を乗じることにより重み付けをすることを表す。   The combination of the characteristic information and the situation information is set in advance by the content provider, for example. For example, when the content A7 is a web application that guides a lunch shop, it is considered highly likely that a person who is a foodie will use the content A7 at noon. In this case, as shown in FIG. 14, a combination of the characteristic information “foodie” and the status information “daytime” is set for the content A7. The weighting value is a value that is added to or integrated with respect to the total score. “× 3” shown in FIG. 13 represents weighting by multiplying the total score by “3”.

この場合、図9に示すステップS205では、選択部115は、コンテンツの特性スコア及び状況スコアとリンクテーブル143とに基づいて、総合スコアを算出する。具体的には、選択部115は、まず上述した第1実施形態と同様に、特性スコアと状況スコアとを掛け算することにより、総合スコアを算出する。例えば、図3に示すように、コンテンツA7の特性スコアが「1」であり、状況スコアが「1」である場合には、コンテンツA7の総合スコアとして「1」が算出される。   In this case, in step S <b> 205 shown in FIG. 9, the selection unit 115 calculates a total score based on the content characteristic score and situation score, and the link table 143. Specifically, the selection unit 115 first calculates the total score by multiplying the characteristic score and the situation score, as in the first embodiment described above. For example, as shown in FIG. 3, when the characteristic score of the content A7 is “1” and the situation score is “1”, “1” is calculated as the total score of the content A7.

続いて、選択部115は、リンクテーブル143に格納された特性情報と状況情報の組み合わせが、記憶部14に記憶された特性情報及びステップS204で生成された状況情報の中に含まれるか否かを判断する。例えば、この特性情報と状況情報との中に、図14に示す「食通」という特性情報と「昼」という状況情報の組み合わせが含まれている場合には、リンクテーブル143に格納された特性情報と状況情報の組み合わせが含まれると判断される。   Subsequently, the selection unit 115 determines whether or not the combination of the characteristic information and the situation information stored in the link table 143 is included in the characteristic information stored in the storage unit 14 and the situation information generated in step S204. Judging. For example, when the characteristic information and the situation information include a combination of the characteristic information “foodie” and the situation information “daytime” shown in FIG. 14, the characteristic information stored in the link table 143. And a combination of situation information are determined to be included.

この場合、選択部115は、リンクテーブル143に格納された重み付け値に基づいて、算出した総合スコアを重み付けする。図14に示す例では、コンテンツA7の識別情報及び「食通」という特性情報と「昼」という状況情報の組み合わせと対応付けて、「×3」という重み付け値が格納されている。この場合、特性スコアと状況スコアとを掛け算することにより得られた総合スコア「1」に「3」が乗算される。これにより、コンテンツA7の総合スコアは「3」となる。   In this case, the selection unit 115 weights the calculated total score based on the weight values stored in the link table 143. In the example illustrated in FIG. 14, the weighting value “× 3” is stored in association with the combination of the identification information of the content A7, the characteristic information “foodie”, and the situation information “daytime”. In this case, the total score “1” obtained by multiplying the characteristic score and the situation score is multiplied by “3”. As a result, the total score of the content A7 becomes “3”.

この場合、ステップS206では、総合グループのコンテンツとしてコンテンツA7が選択され易くなる、つまり、コンテンツA7が他のコンテンツに優先して選択される。   In this case, in step S206, the content A7 is easily selected as the content of the general group, that is, the content A7 is selected with priority over other content.

以上説明した第2実施形態によれば、コンテンツに特定の特性情報と状況情報の組み合わせを設定しておくことにより、特定の特性を有するユーザーが特定の状況にあるときに、そのコンテンツの情報を他のコンテンツの情報に優先して提供することができる。   According to the second embodiment described above, by setting a combination of specific characteristic information and situation information for content, when a user having a specific characteristic is in a specific situation, the information on the content is displayed. It can be provided with priority over other content information.

[第3実施形態]
次に、本発明の第3実施形態について説明する。上述した第1実施形態では、ユーザーが撮影ボタンを押して周辺の画像を撮影したことを契機として、レコメンド処理が開始される例について説明した。これに対し、第3実施形態では、ユーザーが撮像部26を周りに向けただけで、レコメンド処理が開始される。第3実施形態に係るサーバー装置10の構成及び通信端末20の構成は、第1実施形態で説明した構成と同じである。ただし、第3実施形態に係るサーバー装置10及び通信端末20は、レコメンド処理において第1実施形態とは異なる処理を行う。以下、第1実施形態との相違点を中心に説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the first embodiment described above, the example in which the recommendation process is started when the user presses the shooting button and takes a surrounding image is described. On the other hand, in the third embodiment, the recommendation process is started only by the user turning the imaging unit 26 around. The configuration of the server device 10 and the configuration of the communication terminal 20 according to the third embodiment are the same as those described in the first embodiment. However, the server device 10 and the communication terminal 20 according to the third embodiment perform processing different from the first embodiment in the recommendation processing. Hereinafter, the difference from the first embodiment will be mainly described.

ユーザーは、おすすめのコンテンツの情報を取得したい場合、入力部24を介してコンテンツ情報の取得指示を入力した後、撮像部26を周りに向ける。このとき、表示部25には、いわゆるカメラスルーの映像が表示される。このカメラスルーの映像とは、ユーザーが撮影ボタンを押すことなく撮像部26により撮影される連続した画像をいう。表示部25にカメラスルーの映像が表示されると、図9に示すステップS201の処理が開始される。   When the user wants to acquire recommended content information, the user inputs an instruction to acquire content information via the input unit 24 and then turns the imaging unit 26 around. At this time, a so-called camera-through video is displayed on the display unit 25. This camera-through video refers to a series of images captured by the imaging unit 26 without the user pressing a capture button. When the camera-through video is displayed on the display unit 25, the process of step S201 shown in FIG. 9 is started.

ステップS201において、撮像部26は、撮影した画像の一つを表す画像データを生成する。ステップS202〜S207の処理は、第1実施形態と同様である。ただし、ステップS207で通信端末20に送信されるコンテンツ情報には、例えばコンテンツの識別情報のみが含まれる。   In step S201, the imaging unit 26 generates image data representing one of the captured images. The processes in steps S202 to S207 are the same as in the first embodiment. However, the content information transmitted to the communication terminal 20 in step S207 includes, for example, only content identification information.

ステップS208において、表示制御部212は、撮像部26により撮影されたカメラスルーの映像に、サーバー装置10から受信したコンテンツ情報を付加して表示部25に表示させる。図15は、表示部25に表示されるコンテンツ情報の一例を示す図である。図15に示す例では、カメラスルー映像の上に重ねて、コンテンツA1〜A6を示すコンテンツ情報41〜46が表示されている。   In step S <b> 208, the display control unit 212 adds the content information received from the server device 10 to the camera-through video captured by the imaging unit 26 and causes the display unit 25 to display the content information. FIG. 15 is a diagram illustrating an example of content information displayed on the display unit 25. In the example illustrated in FIG. 15, content information 41 to 46 indicating the contents A <b> 1 to A <b> 6 is displayed over the camera-through video.

ここで、ユーザーは、コンテンツA1〜A6の中に、気に入ったコンテンツがなかった場合には、撮像部26を別の方向に向けることにより、コンテンツ情報を再取得することができる。具体的には、ユーザーにより撮像部26が別の方向に向けられると、再び図9に示すS201の処理が開始される。この場合、ステップS201では、前回とは異なる画像を表す画像データが生成されるため、ステップS204では、前回とは異なる状況情報が生成される場合がある。この場合、ステップS206では、前回選択されたコンテンツA1〜A6とは異なるコンテンツが選択される。そして、ステップS208では、前回とは異なるコンテンツ情報が表示部25に表示される。   Here, when there is no favorite content among the contents A1 to A6, the user can reacquire the content information by directing the imaging unit 26 in another direction. Specifically, when the imaging unit 26 is pointed in another direction by the user, the process of S201 illustrated in FIG. 9 is started again. In this case, in step S201, image data representing an image different from the previous time is generated. Therefore, in step S204, situation information different from the previous time may be generated. In this case, in step S206, a content different from the previously selected content A1 to A6 is selected. In step S208, content information different from the previous time is displayed on the display unit 25.

第3実施形態によれば、ユーザーは、おすすめされたコンテンツの中に気に入ったコンテンツがなかった場合には、撮像部26を別の方向に向けるだけで、コンテンツ情報を再取得することができる。   According to the third embodiment, when there is no favorite content among the recommended content, the user can reacquire the content information simply by pointing the imaging unit 26 in another direction.

[変形例]
本発明は、上述した第1〜第3実施形態に限定されず、例えば以下のように様々な変形を行ってもよい。また、以下の変形例を互いに組み合わせてもよい。
[Modification]
The present invention is not limited to the first to third embodiments described above, and various modifications may be made as follows, for example. Further, the following modifications may be combined with each other.

(1)上述した第1〜第3実施形態では、コンテンツがウェブアプリケーションである例について説明した。しかし、コンテンツは、所定のウェブアプリケーションによって提供されるウェブページであってもよい。 (1) In the first to third embodiments described above, the example in which the content is a web application has been described. However, the content may be a web page provided by a predetermined web application.

この場合、図9に示すステップS205では、特性スコアは、例えば所定のウェブアプリケーションによって提供される各ウェブページ内のテキストに含まれる、記憶部14に記憶された特性情報の数を計算することにより求められてもよい。同様に、状況スコアは、例えば所定のウェブアプリケーションによって提供される各ウェブページ内のテキストに含まれる、ステップS204で生成された状況情報の数を計算することにより求められてもよい。   In this case, in step S205 shown in FIG. 9, the characteristic score is calculated by, for example, calculating the number of characteristic information stored in the storage unit 14 included in the text in each web page provided by a predetermined web application. It may be sought. Similarly, the situation score may be obtained, for example, by calculating the number of situation information generated in step S204 included in text in each web page provided by a predetermined web application.

ステップS206では、総合スコアが最も高いウェブページのみが選択される。ステップS207では、ステップS206で選択されたウェブページを示すコンテンツ情報が通信端末20に送信される。このコンテンツ情報には、例えばウェブページの内容を説明する情報やウェブページのサムネイル画像又はそのサムネイル画像の一部が含まれる。   In step S206, only the web page with the highest overall score is selected. In step S207, content information indicating the web page selected in step S206 is transmitted to the communication terminal 20. This content information includes, for example, information explaining the content of the web page, a thumbnail image of the web page, or a part of the thumbnail image.

ステップS208では、ウェブページを表すコンテンツ情報が表示部25に表示される。このとき、所定のウェブアプリケーションに対応するアイコンが既に表示部25に表示されている場合には、コンテンツ情報に応じてアイコンの画像が変更されてもよい。例えば、ウェブアプリケーションの名称のみが記載されたアイコンが表示されている場合には、このアイコン上にウェブアプリケーションの名称に加えてウェブページの内容を説明する情報が表示されるように、アイコンの画像が変更されてもよい。   In step S208, content information representing a web page is displayed on the display unit 25. At this time, when an icon corresponding to a predetermined web application is already displayed on the display unit 25, the icon image may be changed according to the content information. For example, when an icon describing only the name of the web application is displayed, the icon image is displayed so that information describing the contents of the web page is displayed on the icon in addition to the name of the web application. May be changed.

ユーザーは、コンテンツ情報を見てウェブページを閲覧したい場合、入力部24を用いて対応するアイコンを選択する操作を行うことにより、対応するウェブサーバーからこのウェブページを取得し、表示部25に表示させることができる。このとき、表示部25の画面は、アイコンが表示されるメニュー画面から、所定のウェブアプリケーションのトップページを介さずに、対象のウェブページに直接遷移される。これにより、ユーザーは、自分の特性と状況に合うウェブページにすぐにアクセスすることができる。   When the user wants to browse the web page while viewing the content information, the user acquires the web page from the corresponding web server by performing an operation of selecting the corresponding icon using the input unit 24 and displays the web page on the display unit 25. Can be made. At this time, the screen of the display unit 25 is directly shifted from the menu screen on which the icon is displayed to the target web page without going through the top page of the predetermined web application. This allows the user to quickly access a web page that suits their characteristics and circumstances.

(2)上述した第1〜第3実施形態において、状況情報には、各種センサーやその他の機器によって得られた情報に基づいて生成される情報が含まれていてもよい。 (2) In the first to third embodiments described above, the situation information may include information generated based on information obtained by various sensors or other devices.

例えば、状況情報には、GPS(Global Positioning System)受信機などの測位部によって取得された位置情報に基づいて生成される情報が含まれていてもよい。この場合、通信端末20は、測位部により、ユーザーの現在位置を表す位置情報を算出し、算出した位置情報をサーバー装置10に送信する。第2の生成部114は、通信端末20から受信した位置情報に基づいて状況情報を生成する。例えば、位置情報がX町内の位置を示す場合には、「X町に居る」という状況情報が生成される。   For example, the situation information may include information generated based on position information acquired by a positioning unit such as a GPS (Global Positioning System) receiver. In this case, the communication terminal 20 calculates position information representing the current position of the user by the positioning unit, and transmits the calculated position information to the server device 10. The second generation unit 114 generates status information based on the position information received from the communication terminal 20. For example, when the position information indicates a position in X town, status information “I am in X town” is generated.

あるいは、状況情報には、マイクロフォンによって測定された騒音レベルに基づいて生成される情報が含まれていてもよい。この場合、通信端末20は、マイクロフォンにより、ユーザーが現在居る場所の騒音レベルを測定し、測定した騒音レベルをサーバー装置10に送信する。第2の生成部114は、通信端末20から受信した騒音レベルに基づいて状況情報を生成する。例えば、騒音レベルが閾値より高い場合には、ユーザーは現在にぎやかな場所にいると考えられるため、「にぎやかな場所に居る」という状況情報が生成される。一方、騒音レベルが閾値より低い場合には、ユーザーが現在静かな場所にいると考えられるため、「静かな場所に居る」という状況情報が生成される。   Alternatively, the situation information may include information generated based on the noise level measured by the microphone. In this case, the communication terminal 20 measures the noise level of the place where the user is present with the microphone, and transmits the measured noise level to the server device 10. The second generation unit 114 generates status information based on the noise level received from the communication terminal 20. For example, when the noise level is higher than the threshold value, it is considered that the user is currently in a lively place, so that the status information “is in a lively place” is generated. On the other hand, when the noise level is lower than the threshold value, it is considered that the user is currently in a quiet place, so that the status information “is in a quiet place” is generated.

あるいは、状況情報には、温度センサー又は湿度センサーによって測定された温度又は湿度に基づいて生成される情報が含まれていてもよい。この場合、通信端末20は、温度センサー又は湿度センサーにより、ユーザーが現在居る場所の温度又は湿度を測定し、測定した温度又は湿度をサーバー装置10に送信する。第2の生成部114は、通信端末20から受信した温度又は湿度を基づいて、状況情報を生成する。例えば、温度が閾値より高い場合には、「暑い」という状況情報が生成される。一方、温度が閾値より低い場合には、「寒い」という状況情報が生成される。   Alternatively, the situation information may include information generated based on the temperature or humidity measured by the temperature sensor or the humidity sensor. In this case, the communication terminal 20 measures the temperature or humidity of the place where the user is present by using the temperature sensor or the humidity sensor, and transmits the measured temperature or humidity to the server device 10. The second generation unit 114 generates status information based on the temperature or humidity received from the communication terminal 20. For example, when the temperature is higher than a threshold value, status information “hot” is generated. On the other hand, when the temperature is lower than the threshold, status information “cold” is generated.

あるいは、状況情報には、花粉センサーにより測定された花粉の飛散量に基づいて生成される情報が含まれていてもよい。この場合、通信端末20は、花粉センサーにより測定された、ユーザーが現在居る場所の花粉の飛散量を取得し、取得した飛散量をサーバー装置10に送信してもよい。この花粉センサーは、例えばネットワーク30内の基地局に設置される。第2の生成部114は、通信端末20から受信した花粉の飛散量に基づいて状況情報を生成する。例えば、花粉の飛散量が閾値より大きい場合には、「花粉の飛散量が多い」という状況情報が生成される。   Alternatively, the status information may include information generated based on the amount of pollen scattering measured by the pollen sensor. In this case, the communication terminal 20 may acquire the amount of pollen scattering measured by the pollen sensor, and transmit the acquired amount of scattering to the server device 10. This pollen sensor is installed in a base station in the network 30, for example. The second generation unit 114 generates status information based on the amount of pollen scattering received from the communication terminal 20. For example, when the pollen scattering amount is larger than the threshold value, the status information “the pollen scattering amount is large” is generated.

あるいは、状況情報には、撮像部26による画像の撮影時刻や撮影条件に基づいて生成される情報が含まれていてもよい。この場合、通信端末20は、撮像部26による画像の撮影時刻や撮影条件をサーバー装置10に送信する。第2の生成部114は、通信端末20から受信した撮影時刻や撮影条件に基づいて状況情報を生成する。例えば、21:00に画像が撮影された場合には、「夜」という状況情報が生成される。   Alternatively, the situation information may include information generated based on the image capturing time and image capturing conditions of the image capturing unit 26. In this case, the communication terminal 20 transmits the shooting time and shooting conditions of the image by the imaging unit 26 to the server device 10. The second generation unit 114 generates status information based on the shooting time and shooting conditions received from the communication terminal 20. For example, when an image is taken at 21:00, status information “night” is generated.

(3)上述した第1〜第3実施形態では、特性スコアと状況スコアとを掛け算することにより総合スコアを算出する例について説明した。しかし、総合スコアは、特性スコアと状況スコアとに基づいて算出されるものであれば、これ以外の方法で算出されてもよい。 (3) In the first to third embodiments described above, the example in which the total score is calculated by multiplying the characteristic score and the situation score has been described. However, the total score may be calculated by other methods as long as it is calculated based on the characteristic score and the situation score.

また、総合スコアは複数算出されてもよい。例えば、選択部115は、特性スコアと状況スコアとを3対7の比率で掛け算して得られる第1の総合スコアと、特性スコアと状況スコアとを5対5の比率で掛け算して得られる第2の総合スコアと、特性スコアと状況スコアとを7対3の比率で掛け算して得られる第3の総合スコアとを算出してもよい。この場合、各々の総合スコアについて、その値が高い上位所定数のコンテンツが選択される。   A plurality of total scores may be calculated. For example, the selection unit 115 is obtained by multiplying the characteristic score and the situation score by a ratio of 5 to 5 and the first total score obtained by multiplying the characteristic score and the situation score by a ratio of 3 to 7. A second total score and a third total score obtained by multiplying the characteristic score and the situation score by a ratio of 7 to 3 may be calculated. In this case, for each total score, a predetermined number of contents having a higher value are selected.

(4)上述した第1〜第3実施形態において、各コンテンツには予め優先順位が割り当てられていてもよい。この場合、選択部115は、複数のコンテンツのスコアが同じ場合には、優先順位が高いコンテンツを他のコンテンツに優先して選択する。 (4) In the first to third embodiments described above, a priority order may be assigned to each content in advance. In this case, when the scores of a plurality of contents are the same, the selection unit 115 selects contents with higher priority over other contents.

(5)上述した第1〜第3実施形態では、ユーザーが入力部24を介してコンテンツ情報の取得指示を入力することを契機として、レコメンド処理が行われる例について説明した。しかし、例えばサーバー装置10が所定のタイミングで、コンテンツ情報を取得するために周りの画像を撮影するよう指示するメッセージを通信端末20に送信し、通信端末20がこの指示を受信したことを契機として、レコメンド処理が行われてもよい。この場合、ユーザーがこの指示に従って撮像部26を周りに向けて撮影ボタンを押すと、図9に示すステップS201の処理が開始される。 (5) In the first to third embodiments described above, the example in which the recommendation process is performed when the user inputs an instruction to acquire content information via the input unit 24 has been described. However, for example, at a predetermined timing, the server device 10 transmits a message instructing to shoot a surrounding image to acquire content information to the communication terminal 20, and triggered by the communication terminal 20 receiving this instruction. The recommendation process may be performed. In this case, when the user turns the imaging unit 26 around in accordance with this instruction and presses the shooting button, the process of step S201 shown in FIG. 9 is started.

(6)上述した第1〜第3実施形態において、ユーザーは、図9に示すステップS201でいわゆるパノラマ撮影を行ってもよい。このパノラマ撮影とは、撮像部26を水平に保ちながら回転させて、360度などの広い範囲の画像を撮影することをいう。パノラマ撮影により得られる画像データには、通常の撮影により得られる画像データよりも多くの被写体が含まれるため、より多くの状況情報を生成することができる。 (6) In the first to third embodiments described above, the user may perform so-called panoramic shooting in step S201 shown in FIG. This panoramic shooting refers to shooting a wide range of images such as 360 degrees by rotating the imaging unit 26 while keeping it horizontal. Since image data obtained by panoramic shooting includes more subjects than image data obtained by normal shooting, more situation information can be generated.

あるいは、ユーザーは、ステップS201で複数の画像を撮影してもよい。この場合、第2の生成部114は、複数の画像データに基づいて、状況情報を生成する。複数の画像データには、単一の画像データよりも多くの被写体が含まれるため、より多くの状況情報を生成することができる。   Alternatively, the user may take a plurality of images in step S201. In this case, the second generation unit 114 generates status information based on the plurality of image data. Since a plurality of image data includes more subjects than single image data, more situation information can be generated.

(7)上述した第1〜第3実施形態では、状況情報がユーザーの現在の状況を表す例について説明した。しかし、画像データを解析することにより、ユーザーの未来の状況が推定できる場合には、ユーザーの未来の状況を表す状況情報が生成されてもよい。 (7) In the above-described first to third embodiments, the example in which the situation information represents the current situation of the user has been described. However, if the user's future situation can be estimated by analyzing the image data, situation information representing the user's future situation may be generated.

(8)上述した第1〜第3実施形態では、記憶部14に記憶された全ての画像データを解析することにより、ユーザーの特性情報を生成する例について説明した。しかし、第2の生成部114は、記憶部14に記憶された一部の画像データ、例えば最近の100個の画像データのみを用いて、ユーザーの特性情報を生成してもよい。 (8) In the first to third embodiments described above, the example in which the user characteristic information is generated by analyzing all the image data stored in the storage unit 14 has been described. However, the second generation unit 114 may generate the user characteristic information using only a part of the image data stored in the storage unit 14, for example, the latest 100 pieces of image data.

また、上述した第1〜第3実施形態では、画像DB142に格納された各被写体情報の総数が閾値より大きい被写体情報を選択し、選択した被写体情報に基づいてユーザーの特性情報を説明する例について説明した。しかし、第2の生成部114は、撮影日時が新しい画像データの被写体情報が選択されやすいように、被写体情報の総数に重み付けをしてもよい。例えば、画像データの撮影日時が現在日時から所定の期間内である場合には、その画像データの被写体情報の総数が重み付けされる。   In the first to third embodiments described above, an example is described in which subject information in which the total number of pieces of subject information stored in the image DB 142 is greater than a threshold is selected, and user characteristic information is described based on the selected subject information. explained. However, the second generation unit 114 may weight the total number of subject information so that subject information of image data with a new shooting date and time can be easily selected. For example, when the shooting date / time of the image data is within a predetermined period from the current date / time, the total number of subject information of the image data is weighted.

(9)上述した第1〜第3実施形態において、コンテンツ情報はコンテンツそのものであってもよい。この場合、出力部116は、ステップS206で選択されたコンテンツそのものをコンテンツ情報として通信端末20に送信する。 (9) In the first to third embodiments described above, the content information may be the content itself. In this case, the output unit 116 transmits the content itself selected in step S206 to the communication terminal 20 as content information.

(10)上述した第1〜第3実施形態で説明したコンテンツは、ウェブアプリケーションに限定されない。例えば、コンテンツは、音楽、映画、電子書籍、映像、写真、コンピュータゲーム、プログラム、イベントのチケット又はクーポンであってもよい。 (10) The content described in the first to third embodiments described above is not limited to a web application. For example, the content may be music, movies, electronic books, videos, photos, computer games, programs, event tickets or coupons.

(11)上述した第1〜第3実施形態では、サーバー装置10を設ける構成について説明したが、サーバー装置10は必ずしも設けなくてもよい。例えば、通信端末20が図5に示すサーバー装置10の機能を全て実現してもよい。この場合、通信端末20が情報提供装置として機能する。 (11) In the first to third embodiments described above, the configuration in which the server device 10 is provided has been described, but the server device 10 may not necessarily be provided. For example, the communication terminal 20 may realize all the functions of the server device 10 shown in FIG. In this case, the communication terminal 20 functions as an information providing device.

(12)上述した第1〜第3実施形態では、通信端末20が携帯電話やスマートフォンである例について説明した。しかし、通信端末20は、デジタルカメラであってもよいし、タブレット型コンピューターやノート型パーソナルコンピュータであってもよい。 (12) In the first to third embodiments described above, the example in which the communication terminal 20 is a mobile phone or a smartphone has been described. However, the communication terminal 20 may be a digital camera, a tablet computer, or a laptop personal computer.

(13)サーバー装置10のCPU11及び通信端末20のCPU21により実行されるプログラムは、インターネットなどの通信回線を介してダウンロードされてもよい。また、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどの、コンピューターが読取可能な記録媒体に記録した状態で提供されてもよい。 (13) The program executed by the CPU 11 of the server device 10 and the CPU 21 of the communication terminal 20 may be downloaded via a communication line such as the Internet. The program is provided in a state of being recorded on a computer-readable recording medium such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), a magneto-optical recording medium, or a semiconductor memory. May be.

(14)上述した第1〜第3実施形態では、第1の画像取得部111及び第2の画像取得部113は、いずれも撮像部26により撮影された画像を表す画像データを取得する例について説明した。しかし、第1の画像取得部111及び第2の画像取得部113は、撮像部26により撮影された画像以外の画像を表す画像データを取得してもよい。例えば、第1の画像取得部111及び第2の画像取得部113は、通信端末20がデジタルカメラ等の外部機器から画像データを取得した場合には、この画像データを通信端末20から取得してもよい。または、第1の画像取得部111及び第2の画像取得部113は、通信端末20が他の通信端末20等の外部装置から画像データを受信した場合には、この画像データを通信端末20から取得してもよい。 (14) In the first to third embodiments described above, the first image acquisition unit 111 and the second image acquisition unit 113 both acquire image data representing an image captured by the imaging unit 26. explained. However, the first image acquisition unit 111 and the second image acquisition unit 113 may acquire image data representing an image other than the image captured by the imaging unit 26. For example, when the communication terminal 20 acquires image data from an external device such as a digital camera, the first image acquisition unit 111 and the second image acquisition unit 113 acquire the image data from the communication terminal 20. Also good. Alternatively, when the communication terminal 20 receives image data from an external device such as another communication terminal 20, the first image acquisition unit 111 and the second image acquisition unit 113 receive the image data from the communication terminal 20. You may get it.

1 情報提供システム、10 サーバー装置、11 CPU、12 メインメモリー、13 通信部、14 記憶部、20 通信端末、21 CPU、22 メインメモリー、23 通信部、24 入力部、25 表示部、26 撮像部、27 記憶部、111 第1の画像取得部、112 第1の生成部、113 第2の画像取得部、114 第2の生成部、115 選択部、116 出力部、117 履歴取得部、118 変更部、211 画像送信部、212 表示制御部、213 履歴記録部、214 履歴送信部。 DESCRIPTION OF SYMBOLS 1 Information provision system, 10 Server apparatus, 11 CPU, 12 Main memory, 13 Communication part, 14 Storage part, 20 Communication terminal, 21 CPU, 22 Main memory, 23 Communication part, 24 Input part, 25 Display part, 26 Imaging part 27, storage unit, 111 first image acquisition unit, 112 first generation unit, 113 second image acquisition unit, 114 second generation unit, 115 selection unit, 116 output unit, 117 history acquisition unit, 118 change , 211 Image transmission unit, 212 Display control unit, 213 History recording unit, 214 History transmission unit.

Claims (8)

第1の画像を表す第1の画像データを通信端末から取得する第1の画像取得部と、
前記第1の画像取得部により取得された前記第1の画像データに基づいて、前記通信端末のユーザーの特性を表す特性情報を生成する第1の生成部と、
所定の指示に応じて第2の画像を表す第2の画像データを前記通信端末から取得する第2の画像取得部と、
前記第2の画像取得部により取得された前記第2の画像データに基づいて、前記ユーザーの状況を表す状況情報を生成する第2の生成部と、
前記第1の生成部により生成された前記特性情報と、前記第2の生成部により生成された前記状況情報とに基づいて、複数のコンテンツの中から第1のコンテンツを選択する選択部と、
前記選択部により選択された前記第1のコンテンツを表す情報を出力する出力部と
を備える情報提供装置。
A first image acquisition unit that acquires first image data representing a first image from a communication terminal;
A first generation unit that generates characteristic information representing characteristics of a user of the communication terminal based on the first image data acquired by the first image acquisition unit;
A second image acquisition unit that acquires second image data representing a second image from the communication terminal in response to a predetermined instruction;
Based on the second image data acquired by the second image acquisition unit, a second generation unit that generates status information representing the status of the user;
A selection unit that selects a first content from a plurality of contents based on the characteristic information generated by the first generation unit and the situation information generated by the second generation unit;
An information providing apparatus comprising: an output unit that outputs information representing the first content selected by the selection unit.
前記選択部はさらに、前記第1の生成部により生成された前記特性情報又は前記第2の生成部により生成された前記状況情報のいずれかに基づいて、前記複数のコンテンツの中から第2のコンテンツを選択し、
前記出力部は、前記第1のコンテンツを表す情報に加えて、前記第2のコンテンツを表す情報を出力する
請求項1に記載の情報提供装置。
The selection unit is further configured to select a second content from the plurality of contents based on either the characteristic information generated by the first generation unit or the situation information generated by the second generation unit. Select content,
The information providing apparatus according to claim 1, wherein the output unit outputs information representing the second content in addition to information representing the first content.
前記選択部は、所定数の前記第1のコンテンツと、所定数の前記第2のコンテンツとを選択し、
前記所定数の第1のコンテンツ及び前記所定数の第2のコンテンツのうち、前記通信端末において利用されたコンテンツの利用履歴を示す履歴情報を取得する履歴取得部と、
前記履歴取得部により取得された履歴情報に基づいて、前記選択部により選択される前記第1のコンテンツの数又は前記第2のコンテンツの数を変更する変更部とを備える
請求項2に記載の情報提供装置。
The selection unit selects a predetermined number of the first contents and a predetermined number of the second contents,
A history acquisition unit that acquires history information indicating a usage history of the content used in the communication terminal among the predetermined number of first contents and the predetermined number of second contents;
The change unit that changes the number of the first contents or the number of the second contents selected by the selection unit based on the history information acquired by the history acquisition unit. Information providing device.
前記複数のコンテンツの少なくとも一には、特性情報と状況情報の組み合わせが設定されており、
前記選択部は、前記第1の生成部により生成された前記特性情報及び前記第2の生成部により生成された状況情報の中に、前記設定された組み合わせが含まれる場合には、当該組み合わせが設定されたコンテンツを他のコンテンツに優先して選択する
請求項1から3のいずれか1項に記載の情報提供装置。
A combination of characteristic information and status information is set in at least one of the plurality of contents,
When the set combination is included in the characteristic information generated by the first generation unit and the situation information generated by the second generation unit, the selection unit includes the combination. The information providing apparatus according to any one of claims 1 to 3, wherein the set content is selected with priority over other content.
情報提供装置と、
通信端末とを備え、
前記情報提供装置は、
第1の画像を表す第1の画像データを前記通信端末から取得する第1の画像取得部と、
前記第1の画像取得部により取得された前記第1の画像データに基づいて、前記通信端末のユーザーの特性を表す特性情報を生成する第1の生成部と、
所定の指示に応じて第2の画像を表す第2の画像データを前記通信端末から取得する第2の画像取得部と、
前記第2の画像取得部により取得された前記第2の画像データに基づいて、前記ユーザーの状況を表す状況情報を生成する第2の生成部と、
前記第1の生成部により生成された前記特性情報と、前記第2の生成部により生成された前記状況情報とに基づいて、複数のコンテンツの中から第1のコンテンツを選択する選択部と、
前記選択部により選択された前記第1のコンテンツを表す情報を出力する出力部とを備え、
前記通信端末は、
前記第1の画像データ及び前記第2の画像データを前記情報提供装置に送信する画像送信部と、
前記出力部から出力された前記情報を表示部に表示させる表示制御部とを備える
情報提供システム。
An information providing device;
A communication terminal,
The information providing apparatus includes:
A first image acquisition unit that acquires first image data representing a first image from the communication terminal;
A first generation unit that generates characteristic information representing characteristics of a user of the communication terminal based on the first image data acquired by the first image acquisition unit;
A second image acquisition unit that acquires second image data representing a second image from the communication terminal in response to a predetermined instruction;
Based on the second image data acquired by the second image acquisition unit, a second generation unit that generates status information representing the status of the user;
A selection unit that selects a first content from a plurality of contents based on the characteristic information generated by the first generation unit and the situation information generated by the second generation unit;
An output unit that outputs information representing the first content selected by the selection unit;
The communication terminal is
An image transmission unit for transmitting the first image data and the second image data to the information providing device;
A display control unit that displays the information output from the output unit on a display unit.
前記通信端末は、画像を撮影する撮像部を備え、
前記表示制御部は、前記撮像部により撮影された前記画像に、前記出力部から出力された前記情報を付加して前記表示部に表示させる
請求項5に記載の情報提供システム。
The communication terminal includes an imaging unit that captures an image,
The information providing system according to claim 5, wherein the display control unit adds the information output from the output unit to the image captured by the imaging unit and displays the information on the display unit.
第1の画像を表す第1の画像データを通信端末から取得するステップと、
前記取得された第1の画像データに基づいて、前記通信端末のユーザーの特性を表す特性情報を生成するステップと、
所定の指示に応じて第2の画像を表す第2の画像データを前記通信端末から取得するステップと、
前記取得された第2の画像データに基づいて、前記ユーザーの状況を表す状況情報を生成するステップと、
前記生成された特性情報と、前記生成された状況情報とに基づいて、複数のコンテンツの中から第1のコンテンツを選択するステップと、
前記選択された第1のコンテンツを表す情報を出力するステップと
を備える情報提供方法。
Obtaining first image data representing a first image from a communication terminal;
Generating characteristic information representing characteristics of a user of the communication terminal based on the acquired first image data;
Obtaining second image data representing a second image from the communication terminal in response to a predetermined instruction;
Generating status information representing the status of the user based on the acquired second image data;
Selecting a first content from a plurality of contents based on the generated characteristic information and the generated status information;
Outputting information representing the selected first content. An information providing method comprising:
コンピューターに、
第1の画像を表す第1の画像データを通信端末から取得するステップと、
前記取得された第1の画像データに基づいて、前記通信端末のユーザーの特性を表す特性情報を生成するステップと、
所定の指示に応じて第2の画像を表す第2の画像データを前記通信端末から取得するステップと、
前記取得された第2の画像データに基づいて、前記ユーザーの状況を表す状況情報を生成するステップと、
前記生成された特性情報と、前記生成された状況情報とに基づいて、複数のコンテンツの中から第1のコンテンツを選択するステップと、
前記選択された第1のコンテンツを表す情報を出力するステップと
を実行させるためのプログラム。
On the computer,
Obtaining first image data representing a first image from a communication terminal;
Generating characteristic information representing characteristics of a user of the communication terminal based on the acquired first image data;
Obtaining second image data representing a second image from the communication terminal in response to a predetermined instruction;
Generating status information representing the status of the user based on the acquired second image data;
Selecting a first content from a plurality of contents based on the generated characteristic information and the generated status information;
Outputting the information representing the selected first content.
JP2013102797A 2013-05-15 2013-05-15 Information providing apparatus, information providing system, information providing method, and program Active JP6124677B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013102797A JP6124677B2 (en) 2013-05-15 2013-05-15 Information providing apparatus, information providing system, information providing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013102797A JP6124677B2 (en) 2013-05-15 2013-05-15 Information providing apparatus, information providing system, information providing method, and program

Publications (2)

Publication Number Publication Date
JP2014225061A true JP2014225061A (en) 2014-12-04
JP6124677B2 JP6124677B2 (en) 2017-05-10

Family

ID=52123715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013102797A Active JP6124677B2 (en) 2013-05-15 2013-05-15 Information providing apparatus, information providing system, information providing method, and program

Country Status (1)

Country Link
JP (1) JP6124677B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207840A (en) * 2016-05-17 2017-11-24 株式会社リコー Image processing apparatus, image processing system, image processing method, program, and recording medium
JP6322757B1 (en) * 2017-09-29 2018-05-09 株式会社ドワンゴ Server and terminal
JP2022531339A (en) * 2020-01-09 2022-07-06 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Resource configuration method, resource configuration device, computer equipment, and computer program
JP7428755B1 (en) 2022-07-22 2024-02-06 東芝テック株式会社 Server device and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7099925B2 (en) 2018-09-27 2022-07-12 富士フイルム株式会社 Image processing equipment, image processing methods, programs and recording media

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008016083A1 (en) * 2006-08-03 2008-02-07 Panasonic Corporation Overlay information presentation device and overlay information presentation system
JP2009087154A (en) * 2007-10-01 2009-04-23 Ntt Docomo Inc Information distribution device, information distribution system and information distribution method
JP2011257868A (en) * 2010-06-07 2011-12-22 Nikon Corp Image server, imaging apparatus, and control program
JP2012048648A (en) * 2010-08-30 2012-03-08 Ntt Data Corp Information service system and information service method
JP2012118624A (en) * 2010-11-29 2012-06-21 Sharp Corp Content presentation device, external recommendation device and content presentation system
JP2013069266A (en) * 2011-09-22 2013-04-18 Toyota Infotechnology Center Co Ltd Content recommendation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008016083A1 (en) * 2006-08-03 2008-02-07 Panasonic Corporation Overlay information presentation device and overlay information presentation system
JP2009087154A (en) * 2007-10-01 2009-04-23 Ntt Docomo Inc Information distribution device, information distribution system and information distribution method
JP2011257868A (en) * 2010-06-07 2011-12-22 Nikon Corp Image server, imaging apparatus, and control program
JP2012048648A (en) * 2010-08-30 2012-03-08 Ntt Data Corp Information service system and information service method
JP2012118624A (en) * 2010-11-29 2012-06-21 Sharp Corp Content presentation device, external recommendation device and content presentation system
JP2013069266A (en) * 2011-09-22 2013-04-18 Toyota Infotechnology Center Co Ltd Content recommendation system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207840A (en) * 2016-05-17 2017-11-24 株式会社リコー Image processing apparatus, image processing system, image processing method, program, and recording medium
JP6322757B1 (en) * 2017-09-29 2018-05-09 株式会社ドワンゴ Server and terminal
JP2019066990A (en) * 2017-09-29 2019-04-25 株式会社ドワンゴ Server and terminal
US10928989B2 (en) 2017-09-29 2021-02-23 Dwango Co., Ltd. Server and terminal
JP2022531339A (en) * 2020-01-09 2022-07-06 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Resource configuration method, resource configuration device, computer equipment, and computer program
JP7397094B2 (en) 2020-01-09 2023-12-12 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Resource configuration method, resource configuration device, computer equipment, and computer program
JP7428755B1 (en) 2022-07-22 2024-02-06 東芝テック株式会社 Server device and program

Also Published As

Publication number Publication date
JP6124677B2 (en) 2017-05-10

Similar Documents

Publication Publication Date Title
US10298537B2 (en) Apparatus for sharing image content based on matching
US11182068B2 (en) Method and system for interacting with a touch screen
TWI498843B (en) Portable electronic device, content recommendation method and computer-readable medium
CA2944458C (en) System and method for output display generation based on ambient conditions
US20170078417A1 (en) Methods, apparatuses, and computer program products for providing filtered services and content based on user context
US10148885B2 (en) Post-capture selection of media type
US20150039632A1 (en) Media Tagging
JP6628115B2 (en) Multimedia file management method, electronic device, and computer program.
CN107463643B (en) Barrage data display method and device and storage medium
JP6124677B2 (en) Information providing apparatus, information providing system, information providing method, and program
WO2012137397A1 (en) Content-processing device, content-processing method, content-processing program, and integrated circuit
CN110932963B (en) Multimedia resource sharing method, system, device, terminal, server and medium
WO2017206165A1 (en) Information sending method, information receiving method, apparatus and system
CN111026992A (en) Multimedia resource preview method, device, terminal, server and storage medium
TW201814552A (en) Method and system for sorting a search result with space objects, and a computer-readable storage device
CN114450680A (en) Content item module arrangement
JP2013257815A (en) Information processing apparatus, information processing method and program
KR20180076619A (en) Apparatus and method for recommendation of entity in smart page
CN112131473B (en) Information recommendation method, device, equipment and storage medium
US10387486B2 (en) Display information generating device, information management system, display information generating method, and recording medium
JP5926326B2 (en) Information providing system, poster terminal, reader terminal, and information disclosure apparatus
CN113609358A (en) Content sharing method and device, electronic equipment and storage medium
CN111522483B (en) Multimedia data sharing method and device, electronic equipment and storage medium
JP2014160963A (en) Image processing device and program
JP6204957B2 (en) Information processing apparatus, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170404

R150 Certificate of patent or registration of utility model

Ref document number: 6124677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250