JP2020107288A - Display program, display device, display method, and information processing device - Google Patents

Display program, display device, display method, and information processing device Download PDF

Info

Publication number
JP2020107288A
JP2020107288A JP2018248526A JP2018248526A JP2020107288A JP 2020107288 A JP2020107288 A JP 2020107288A JP 2018248526 A JP2018248526 A JP 2018248526A JP 2018248526 A JP2018248526 A JP 2018248526A JP 2020107288 A JP2020107288 A JP 2020107288A
Authority
JP
Japan
Prior art keywords
information
content
user
display
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018248526A
Other languages
Japanese (ja)
Inventor
輝喜 津田
Teruki Tsuda
輝喜 津田
由香理 岡
Yukari Oka
由香理 岡
瑞穂 中森
Mizuho Nakamori
瑞穂 中森
政樹 野▲崎▼
Masaki Nozaki
政樹 野▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018248526A priority Critical patent/JP2020107288A/en
Publication of JP2020107288A publication Critical patent/JP2020107288A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide information on the basis of an action guideline of a user.SOLUTION: A display program causes a computer to execute an estimation procedure, a search procedure, and a display procedure. The estimation procedure estimates a subject corresponding to a user action on the basis of action information (for example, action information used by the user and collected by a terminal device) on the user action. The search procedure searches for information corresponding to the subject estimated by the estimation procedure. The display procedure displays content based on at least the information searched by the search procedure.SELECTED DRAWING: Figure 1

Description

本発明は、表示プログラム、表示装置、表示方法及び情報処理装置に関する。 The present invention relates to a display program, a display device, a display method, and an information processing device.

従来、アプリケーション上での情報を集約する技術が知られている。例えば、SNSサービスにおいて、閲覧要求を発したユーザの属性情報及び当該ユーザの他のユーザとの関係性情報に対応するオブジェクト、並びに、当該オブジェクトのメタデータに対応するオブジェクトを取得し、取得したオブジェクトを集約するように再構成してユーザの端末に送信する技術が提案されている。 Conventionally, a technique of collecting information on an application is known. For example, in the SNS service, an object corresponding to the attribute information of the user who has issued the browsing request and the relationship information of the user with other users, and an object corresponding to the metadata of the object are acquired, and the acquired object is acquired. A technique has been proposed in which the data is reconfigured so as to be aggregated and transmitted to the user terminal.

特開2015−11660号公報JP, 2005-11660, A

しかしながら、上記の従来技術では、ユーザの行動の指針に基づいて情報を提供できるとは限らない。例えば、上記の従来技術では、ユーザの属性情報等に基づいてオブジェクトの集約及び送信を行っているに過ぎず、ユーザの行動の指針に基づいて情報を提供できるとは限らない。 However, in the above-mentioned conventional technology, it is not always possible to provide information based on the guideline of the behavior of the user. For example, in the above-mentioned conventional technique, the objects are simply aggregated and transmitted based on the attribute information of the user, and the information cannot always be provided based on the guideline of the behavior of the user.

本願は、上記に鑑みてなされたものであって、ユーザの行動の指針に基づいて情報を提供できる表示プログラム、表示装置、表示方法及び情報処理装置を提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide a display program, a display device, a display method, and an information processing device capable of providing information based on a guideline of a user's action.

本願に係る表示プログラムは、ユーザの行動に関する行動情報に基づいて、前記ユーザの行動と対応する主題を推定する推定手順と、前記推定手順により推定された主題と対応する情報を検索する検索手順と、少なくとも、前記検索手順により検索された情報に基づいたコンテンツを表示する表示手順とをコンピュータに実行させることを特徴とする。 A display program according to the present application, an estimation procedure for estimating a subject corresponding to the user's action, based on action information about the user's action, and a search procedure for searching information corresponding to the subject estimated by the estimation procedure. At least a display procedure for displaying the content based on the information retrieved by the retrieval procedure is executed by the computer.

実施形態の一態様によれば、ユーザの行動の指針に基づいて情報を提供できるという効果を奏する。 According to the aspect of the embodiment, it is possible to provide the information based on the guideline of the action of the user.

図1は、実施形態に係る端末装置の一例を示す図(1)である。FIG. 1 is a diagram (1) illustrating an example of the terminal device according to the embodiment. 図2は、実施形態に係る端末装置の一例を示す図(2)である。FIG. 2 is a diagram (2) illustrating an example of the terminal device according to the embodiment. 図3は、実施形態に係る端末装置の一例を示す図(3)である。FIG. 3 is a diagram (3) illustrating an example of the terminal device according to the embodiment. 図4は、実施形態に係る端末装置の一例を示す図(4)である。FIG. 4 is a diagram (4) illustrating an example of the terminal device according to the embodiment. 図5は、実施形態に係る表示処理システムの構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of the display processing system according to the embodiment. 図6は、実施形態に係るコンテンツ配信サーバの構成例を示す図である。FIG. 6 is a diagram illustrating a configuration example of the content distribution server according to the embodiment. 図7は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of the content information storage unit according to the embodiment. 図8は、実施形態に係る端末装置の構成例を示す図である。FIG. 8 is a diagram illustrating a configuration example of the terminal device according to the embodiment. 図9は、実施形態に係る行動情報記憶部の一例を示す図である。FIG. 9 is a diagram illustrating an example of the behavior information storage unit according to the embodiment. 図10は、実施形態に係る端末装置の一例を示す図(5)である。FIG. 10 is a diagram (5) illustrating an example of the terminal device according to the embodiment. 図11は、実施形態に係る端末装置の一例を示す図(6)である。FIG. 11 is a diagram (6) illustrating an example of the terminal device according to the embodiment. 図12は、実施形態に係る表示処理手順の一例を示すフローチャート(1)である。FIG. 12 is a flowchart (1) showing an example of the display processing procedure according to the embodiment. 図13は、実施形態に係る表示処理手順の一例を示すフローチャート(2)である。FIG. 13 is a flowchart (2) showing an example of the display processing procedure according to the embodiment. 図14は、実施形態に係る表示処理手順の一例を示すフローチャート(3)である。FIG. 14 is a flowchart (3) showing an example of the display processing procedure according to the embodiment. 図15は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 15 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the terminal device.

以下に本願に係る表示プログラム、表示装置、表示方法及び情報処理装置を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る表示プログラム、表示装置、表示方法及び情報処理装置が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes (hereinafter, referred to as “embodiments”) for implementing a display program, a display device, a display method, and an information processing device according to the present application will be described in detail with reference to the drawings. Note that the display program, display device, display method, and information processing device according to the present application are not limited by this embodiment. Also, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicated description will be omitted.

〔1.実施形態〕
図1から図4を用いて、本実施形態の表示プログラム等により実現される表示処理を説明する。なお、以下の説明において、ユーザが利用する端末装置100には、当該ユーザの行動に関する行動情報を収集(ストック)するアプリケーション(以下、「情報収集アプリ」と記載する場合がある)が実装されている例を示す。また、以下の説明において、情報収集アプリの機能によって、実施形態に係る表示処理が実現されるものとする。
[1. Embodiment)
Display processing realized by the display program and the like of the present embodiment will be described with reference to FIGS. 1 to 4. In the following description, the terminal device 100 used by the user is equipped with an application (hereinafter, may be referred to as an “information collection application”) that collects (stock) behavior information about the user's behavior. Here is an example. Further, in the following description, it is assumed that the display processing according to the embodiment is realized by the function of the information collection application.

図1から図4に示す端末装置100は、ユーザによって利用されるスマートフォンやタブレット等のスマートデバイスであり、3G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。図1から図4に示す例では、端末装置100がユーザU1によって利用されるスマートフォンである場合を示す。また、端末装置100は、液晶ディスプレイ等の出力部(以下、「画面」と記載する場合がある)を有し、タッチパネルが採用されているものとする。すなわち、ユーザU1は、指や専用ペンで出力部の表示面をタッチすることにより端末装置100の各種操作を行う。なお、端末装置100は、スマートデバイスのみならず、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等の情報処理装置であってもよい。 The terminal device 100 shown in FIGS. 1 to 4 is a smart device such as a smartphone or a tablet used by a user, and is an arbitrary server device via a wireless communication network such as 3G (Generation) or LTE (Long Term Evolution). It is a mobile terminal device capable of communicating with. In the example illustrated in FIGS. 1 to 4, the terminal device 100 is a smartphone used by the user U1. Further, it is assumed that the terminal device 100 has an output unit such as a liquid crystal display (hereinafter, may be referred to as “screen”) and a touch panel is adopted. That is, the user U1 performs various operations of the terminal device 100 by touching the display surface of the output unit with a finger or a dedicated pen. The terminal device 100 may be not only a smart device, but also an information processing device such as a notebook PC (Personal Computer), a desktop PC, a mobile phone, and a PDA (Personal Digital Assistant).

以下、図1から図4を用いて、端末装置100が行う情報収集アプリの表示処理について説明する。なお、以下の説明では、端末装置100の画面の状態遷移を図示する場合、順に第1状態、第2状態、・・・、第N状態(Nは任意の数)と表記する。また、図1から図4に示す例において、端末装置100に実装された情報収集アプリにより、ユーザU1の行動情報が収集されているものとする。ここで、以下の説明において、行動情報とは、ユーザU1が端末装置100を用いて取得した端末装置100の画面のスクリーンショットや、ユーザU1が端末装置100を用いて撮影した画像及び動画、ユーザU1が端末装置100を用いて閲覧した画像及び動画、ユーザU1が端末装置100を用いて送受信した電子メール、ユーザU1が端末装置100を介して利用したアプリケーション、ウェブサービス等においてブックマークしたコンテンツ等を示す。 Hereinafter, the display process of the information collection application performed by the terminal device 100 will be described with reference to FIGS. 1 to 4. In addition, in the following description, when illustrating the state transition of the screen of the terminal device 100, they are sequentially described as a first state, a second state,..., An Nth state (N is an arbitrary number). In addition, in the example illustrated in FIGS. 1 to 4, it is assumed that the action information of the user U1 is collected by the information collection application installed in the terminal device 100. Here, in the following description, the action information is a screen shot of the screen of the terminal device 100 acquired by the user U1 using the terminal device 100, an image and a moving image captured by the user U1 using the terminal device 100, or a user. Images and videos browsed by U1 using the terminal device 100, e-mails sent and received by the user U1 using the terminal device 100, applications used by the user U1 via the terminal device 100, contents bookmarked in web services, and the like. Show.

まず、図1を用いて、ユーザの行動情報に基づいて推定するユーザの行動の主題(テーマ)の表示処理について説明する。図1は、実施形態に係る端末装置の一例を示す図(1)である。 First, the display process of the subject of a user's action estimated based on the user's action information will be described with reference to FIG. FIG. 1 is a diagram (1) illustrating an example of the terminal device according to the embodiment.

図1の第1状態は、過去に推定されたユーザU1の行動の主題を表示する画面の状態を示す。図1の第1状態において、端末装置100は、過去に推定されたユーザU1の行動の主題に対応するコンテンツを領域AR11に表示する。また、図1の第1状態において、端末装置100は、行動の主題の推定処理を端末装置100に指示するための領域AR12を表示する。 The 1st state of Drawing 1 shows the state of the screen which displays the subject of the behavior of user U1 estimated in the past. In the first state of FIG. 1, the terminal device 100 displays the content corresponding to the subject of the behavior of the user U1 estimated in the past in the area AR11. Further, in the first state of FIG. 1, the terminal device 100 displays the area AR12 for instructing the terminal device 100 to perform the process of estimating the subject of the action.

続いて、図1の第2状態は、主題の推定処理の指示をユーザU1から受け付けた場合に表示する画面の状態を示す。図1の第2状態において、端末装置100は、情報収集アプリにより収集したユーザU1の行動情報に対応するサムネイルを領域AR13に表示する。なお、以下の説明において、サムネイルとは、行動情報であるスクリーンショットそのものや、ブックマークしたコンテンツに含まれる画像等を示す。 Subsequently, the second state of FIG. 1 shows the state of the screen displayed when the instruction of the subject estimation process is received from the user U1. In the second state of FIG. 1, the terminal device 100 displays a thumbnail corresponding to the behavior information of the user U1 collected by the information collection application in the area AR13. In the following description, a thumbnail refers to a screenshot itself that is action information, an image included in bookmarked content, and the like.

例えば、図1の第2状態において、端末装置100は、ユーザU1の行動情報に対応するサムネイルD1〜D9を領域AR13に表示する。また、端末装置100は、ユーザU1が領域AR13に表示したサムネイルの選択操作を行うための領域AR14を、各サムネイルに重畳させて表示する。また、端末装置100は、ユーザU1が選択したサムネイルの確定操作を行うための領域AR15を表示する。 For example, in the second state of FIG. 1, the terminal device 100 displays the thumbnails D1 to D9 corresponding to the behavior information of the user U1 in the area AR13. Further, the terminal device 100 displays the area AR14 for the user U1 to perform the thumbnail selection operation displayed in the area AR13, by superimposing the area AR14 on each thumbnail. In addition, the terminal device 100 displays the area AR15 for performing an operation of confirming the thumbnail selected by the user U1.

続いて、図1の第3状態は、ユーザU1からサムネイルの選択操作を受け付けた画面の状態を示す。なお、図1の例において、ユーザU1がサムネイルD1〜D3を選択したものとする。ここで、サムネイルD1は、飲食店紹介サービスにおいてユーザU1がブックマークした仙台市内の飲食店Aに関するコンテンツに対応する。また、サムネイルD2は、路線検索サービスにおいて、ユーザU1が出発日時を「1月13日7時56分」とし、出発地「東京」から到着地「仙台」までの乗換案内を検索した検索結果を示す画面のスクリーンショットに対応する。また、サムネイルD3は、ユーザU1が端末装置100を用いて受信した、「1月13日」における仙台市内のホテルBの予約確認に関する電子メールに対応する。ここで、端末装置100は、各サムネイルに対応する行動情報に含まれるテキスト情報、時間情報、位置情報等の情報を、画像解析や、形態素解析等の種々の従来技術を適宜用いて解析することにより抽出する。 Subsequently, the third state of FIG. 1 shows a state of the screen in which the thumbnail selection operation is received from the user U1. In the example of FIG. 1, it is assumed that the user U1 selects the thumbnails D1 to D3. Here, the thumbnail D1 corresponds to the content about the restaurant A in Sendai city bookmarked by the user U1 in the restaurant introduction service. Further, the thumbnail D2 is the search result of the route search service in which the user U1 has set the departure date and time to "January 13, 7:56" and searched for the transfer guidance from the departure place "Tokyo" to the arrival place "Sendai". Corresponds to the screen shot shown. Further, the thumbnail D3 corresponds to the email regarding the reservation confirmation of the hotel B in Sendai city on “January 13” received by the user U1 using the terminal device 100. Here, the terminal device 100 analyzes information such as text information, time information, and position information included in the action information corresponding to each thumbnail by appropriately using various conventional techniques such as image analysis and morphological analysis. To extract.

そして、端末装置100は、領域AR15が選択されることにより、画面を第3状態から第4状態に遷移させる。 Then, the terminal device 100 transitions the screen from the third state to the fourth state by selecting the area AR15.

続いて、図1の第4状態は、ユーザU1が選択したサムネイルに対応する行動情報に基づいて端末装置100が推定したユーザU1の行動の主題を画面に表示した状態を示す。図1の第4状態において、端末装置100は、サムネイルD1〜D3に対応する行動情報に基づいて推定したユーザU1の行動の主題を領域AR16に表示する。また、図1の第4状態において、端末装置100は、ユーザU1が行動の主題の確定操作を行うための領域AR17を表示する。 Subsequently, the fourth state of FIG. 1 shows a state in which the subject of the behavior of the user U1 estimated by the terminal device 100 based on the behavior information corresponding to the thumbnail selected by the user U1 is displayed on the screen. In the fourth state of FIG. 1, the terminal device 100 displays the subject of the behavior of the user U1 estimated based on the behavior information corresponding to the thumbnails D1 to D3 in the area AR16. Further, in the fourth state of FIG. 1, the terminal device 100 displays the area AR17 for the user U1 to perform the operation of determining the subject of the action.

例えば、図1の例において、端末装置100は、サムネイルD1〜D3に対応する行動情報が仙台市に関するものであり、出発地「東京」から到着地「仙台」までの乗換案内の検索、並びに、仙台市内のホテルBの予約が同一の日付を対象とするものであるため、ユーザU1の行動の主題を1月13日における「仙台旅行」と推定し、推定した結果を領域AR16に表示する。そして、端末装置100は、領域AR17が選択されることにより、画面を第4状態から第5状態に遷移させる。 For example, in the example of FIG. 1, in the terminal device 100, the action information corresponding to the thumbnails D1 to D3 is related to Sendai city, and the search for transfer guidance from the departure place “Tokyo” to the arrival place “Sendai” is performed, and Since the reservations for Hotel B in Sendai city are for the same date, the subject of the behavior of user U1 is estimated to be "Sendai trip" on January 13, and the estimated result is displayed in area AR16. .. Then, the terminal device 100 transitions the screen from the fourth state to the fifth state by selecting the area AR17.

続いて、図1の第5状態は、推定したユーザU1の行動の主題に対応するコンテンツが第1状態において表示される画面に追加された状態を示す。図1の第5状態に示すように、端末装置100は、「仙台旅行」に対応するコンテンツを領域AR11に表示する。 Subsequently, the fifth state of FIG. 1 shows a state in which the content corresponding to the estimated subject of the behavior of the user U1 is added to the screen displayed in the first state. As shown in the fifth state in FIG. 1, the terminal device 100 displays the content corresponding to “Sendai trip” in the area AR11.

次に、図2を用いて、ユーザの行動の主題に対応するコンテンツの表示処理について説明する。図2は、実施形態に係る端末装置の一例を示す図(2)である。図2では、図1において端末装置100が推定したユーザU1の行動の主題「仙台旅行」に対応するコンテンツC1(「仙台旅行」のスケジュールに関するコンテンツ)を編集する例を示す。また、コンテンツC1は、スマートデバイス用に最適化されたコンテンツであり、横方向の表示サイズが、端末装置100が有する画面の横方向の表示サイズと同じウェブページであるものとする。また、コンテンツC1は、縦方向の表示サイズが、端末装置100が有する画面の縦方向の表示サイズよりも長いコンテンツであるものとする。 Next, a display process of content corresponding to the subject of the user's action will be described with reference to FIG. FIG. 2 is a diagram (2) illustrating an example of the terminal device according to the embodiment. FIG. 2 shows an example in which the content C1 (content relating to the schedule of “Sendai trip”) corresponding to the subject “Sendai trip” of the behavior of the user U1 estimated by the terminal device 100 in FIG. 1 is edited. It is also assumed that the content C1 is content optimized for smart devices, and that the horizontal display size is the same as the horizontal display size of the screen of the terminal device 100. Further, the content C1 is assumed to be content whose vertical display size is longer than the vertical display size of the screen of the terminal device 100.

また、図2に示すように、端末装置100は、ユーザU1が図1の第3状態において選択したサムネイルD1〜D3に対応する行動情報を示すコンテンツC11、C12及びC14、並びに、行動の主題「仙台旅行」に関連する情報をユーザU1にレコメンドするためのコンテンツC13が含まれるコンテンツC1を画面に表示する。なお、図2の例において、端末装置100は、コンテンツC1に含まれるコンテンツを時系列順に配置して画面に表示する領域AR21を含むものとする。例えば、端末装置100は、コンテンツC1に含まれるコンテンツに対応する行動情報に対して、画像解析や、形態素解析等の種々の従来技術を適宜用いて解析することにより、時間情報を抽出する。そして、端末装置100は、領域AR21のうち、抽出した時間情報に対応する表示位置にコンテンツを配置して表示する。 In addition, as illustrated in FIG. 2, the terminal device 100 includes the contents C11, C12, and C14 indicating the behavior information corresponding to the thumbnails D1 to D3 selected by the user U1 in the third state of FIG. The content C1 including the content C13 for recommending information related to “Sendai trip” to the user U1 is displayed on the screen. Note that in the example of FIG. 2, the terminal device 100 includes an area AR21 in which the contents included in the content C1 are arranged in chronological order and displayed on the screen. For example, the terminal device 100 extracts time information by analyzing the action information corresponding to the content included in the content C1 by appropriately using various conventional techniques such as image analysis and morphological analysis. Then, the terminal device 100 arranges and displays the content in the display position corresponding to the extracted time information in the area AR21.

ここで、以下の説明において、端末装置100が、コンテンツC12に対応する行動情報から出発日時「1月13日7時56分」及び到着日時「1月13日9時30分」を時間情報として抽出したものとする。この場合、端末装置100は、領域AR21のうち、コンテンツC12から抽出した時間情報に対応する表示位置に配置して表示する。 Here, in the following description, the terminal device 100 uses the departure date and time "January 13, 7:56" and the arrival date and time "January 13, 9:30" as time information from the action information corresponding to the content C12. It shall be extracted. In this case, the terminal device 100 arranges and displays it in the display position corresponding to the time information extracted from the content C12 in the area AR21.

また、以下の説明において、端末装置100が、コンテンツC14に対応する行動情報からホテルBへのチェックイン可能時間「15時30分〜29時」を時間情報として抽出したものとする。この場合、ユーザU1の行動の主題「仙台旅行」において、コンテンツC14に対応するユーザU1の行動(ホテルBへのチェックイン)がスケジュールの最後に行われることが想定されるため、端末装置100は、領域AR21の最下端にコンテンツC14を配置して表示する。そして、端末装置100は、コンテンツC14への選択操作(例えば、タップ)を受け付け、ユーザU1の指F10のドラッグ操作に応じてコンテンツC14の表示位置を、領域AR21のうち、チェックイン可能時間「15時30分〜29時」に対応する表示位置の範囲内で移動させる。 In addition, in the following description, it is assumed that the terminal device 100 has extracted the check-in possible time “15:30 to 29:00” to the hotel B as the time information from the behavior information corresponding to the content C14. In this case, since it is assumed that the behavior of the user U1 (check-in to the hotel B) corresponding to the content C14 is performed at the end of the schedule in the subject “Sendai trip” of the behavior of the user U1, the terminal device 100 , The content C14 is arranged and displayed at the bottom end of the area AR21. Then, the terminal device 100 accepts a selection operation (for example, a tap) on the content C14, and displays the display position of the content C14 in the area AR21 in accordance with the drag operation of the finger F10 of the user U1 by checking the checkable time “15”. It is moved within the range of the display position corresponding to "30 minutes to 29:00".

また、以下の説明において、端末装置100が、コンテンツC11に対応する行動情報から、時間情報として「飲食店A」の営業時間のみが抽出され、固定された時間(例えば、予約日時など)が抽出されなかったものとする。この場合、端末装置100は、コンテンツC12に対応するユーザU1の行動(飲食店Aへ来店)が行われる時間が未確定であるとして、領域AR21以外の領域(コンテンツC1の最上端)にコンテンツC12を配置して表示する。すなわち、初期状態の「仙台旅行」のスケジュールには、飲食店Aへの来店に関する行動が組み込まれていない。 Further, in the following description, the terminal device 100 extracts only the business hours of the “restaurant A” as the time information from the behavior information corresponding to the content C11, and extracts the fixed time (for example, the reserved date and time). It was not done. In this case, the terminal device 100 determines that the time when the action of the user U1 (visiting the restaurant A) corresponding to the content C12 is performed is undetermined, and the content C12 is placed in an area other than the area AR21 (the uppermost end of the content C1). Place and display. In other words, the schedule of the "Sendai trip" in the initial state does not include the action regarding the visit to the restaurant A.

また、図2における説明において、端末装置100は、領域AR21のうち、他のコンテンツが配置されていない領域(すなわち、スケジュールが確定していない空白時間に対応する位置)にコンテンツC13を配置して表示する。 Further, in the description with reference to FIG. 2, the terminal device 100 arranges the content C13 in the area AR21 in which no other content is arranged (that is, the position corresponding to the blank time when the schedule is not fixed). indicate.

図2の第1状態は、端末装置100が画面にコンテンツC1を表示する初期状態を示す。図2の第1状態において、端末装置100は、コンテンツC1のうち最上端からコンテンツC11及びコンテンツC12を画面に表示する。そして、端末装置100は、コンテンツC1の表示態様の変更を端末装置100に指示するための領域AR22をコンテンツC1に重畳させて表示する。また、端末装置100は、コンテンツC1(ボード)の保存を端末装置100に指示するための領域AR23をコンテンツC1に重畳させて表示する。領域AR23がユーザU1に選択された場合、端末装置100はコンテンツC1の編集処理を終了し、領域AR21に配置されたコンテンツ、並びに、各コンテンツに対応する時間に関する情報を、「仙台旅行」のスケジュールとして端末装置100の記憶部に格納する。なお、端末装置100は、各コンテンツに対応する時間に関する情報に基づいてユーザU1に通知するアラームを設定してもよい。 The first state of FIG. 2 shows an initial state in which the terminal device 100 displays the content C1 on the screen. In the first state of FIG. 2, the terminal device 100 displays the content C11 and the content C12 from the uppermost end of the content C1 on the screen. Then, the terminal device 100 superimposes and displays the area AR22 for instructing the terminal device 100 to change the display mode of the content C1 on the content C1. Further, the terminal device 100 superimposes and displays the area AR23 for instructing the terminal device 100 to save the content C1 (board) on the content C1. When the area AR23 is selected by the user U1, the terminal device 100 ends the editing process of the content C1 and displays the content arranged in the area AR21 and the information on the time corresponding to each content in the “Sendai trip” schedule. Is stored in the storage unit of the terminal device 100. Note that the terminal device 100 may set an alarm to notify the user U1 based on the information regarding the time corresponding to each content.

ここで、図2の第1状態において、ユーザU1が飲食店Aへの来店を希望したものとする。この場合、端末装置100は、ユーザU1の指F10によるコンテンツC11への選択操作を受け付け、ユーザU1の指F10のドラッグ操作に応じてコンテンツC11の表示位置を移動させる。そして、端末装置100は、ユーザU1の指F10によるコンテンツC11への選択が解除された位置にコンテンツC11を配置して画面に表示する。なお、図2の説明において、領域AR21のうち、「10時」から「12時」に対応する領域にコンテンツC11が配置されたものとする。 Here, in the first state of FIG. 2, it is assumed that the user U1 desires to visit the restaurant A. In this case, the terminal device 100 receives a selection operation on the content C11 by the finger F10 of the user U1, and moves the display position of the content C11 according to the drag operation of the finger F10 of the user U1. Then, the terminal device 100 arranges the content C11 at the position where the selection of the content C11 by the finger F10 of the user U1 is released, and displays the content C11 on the screen. In the description of FIG. 2, it is assumed that the content C11 is arranged in a region corresponding to “12:00” to “12:00” in the region AR21.

続いて、図2の第2状態は、ユーザU1のスクロール操作等によりコンテンツC1が下方向に移動することによって、第1状態では非表示となっていたコンテンツC1の領域が画面に表示された状態を示す。図2の第2状態において、端末装置100は、コンテンツC11、コンテンツC12及びコンテンツC13を画面に表示する。また、第2状態においても、端末装置100は、領域AR22及び領域AR23をコンテンツC1に重畳させて表示する。 Subsequently, in the second state of FIG. 2, the content C1 is moved downward by a scrolling operation of the user U1 or the like, so that the area of the content C1 which is hidden in the first state is displayed on the screen. Indicates. In the second state of FIG. 2, the terminal device 100 displays the content C11, the content C12, and the content C13 on the screen. Also in the second state, the terminal device 100 displays the area AR22 and the area AR23 by superimposing them on the content C1.

ここで、図2の第2状態において、ユーザU1が空白時間にスケジュールを組み込むことを希望したものとする。この場合、端末装置100は、ユーザU1によるコンテンツC13への選択操作を受け付け、画面を第3状態に遷移させる。 Here, in the second state of FIG. 2, it is assumed that the user U1 desires to incorporate the schedule in the blank time. In this case, the terminal device 100 receives a selection operation for the content C13 by the user U1 and transitions the screen to the third state.

続いて、図2の第3状態は、行動の主題「仙台旅行」に関連する情報を示すコンテンツをコンテンツC1に替えて画面に表示した状態を示す。図2の第3状態において、端末装置100は、行動の主題と対応する情報を検索し、検索した情報に対応するコンテンツをユーザU1にレコメンドするコンテンツとして画面に表示する。例えば、端末装置100は、ウェブ上(ウェブページや、端末装置100にインストールされた各種アプリ)から、行動の主題「仙台旅行」と対応する情報を検索する。また、端末装置100は、端末装置100に実装された情報収集アプリにより収集したコンテンツC11、コンテンツC12及びコンテンツC13に対応する行動情報以外のユーザU1の行動情報であって、行動の主題「仙台旅行」に関連する行動情報を検索する。また、端末装置100は、ユーザU1の行動情報に基づくデモグラフィック属性やサイコグラフィック属性に基づいて、行動の主題「仙台旅行」と対応する情報を検索する。そして、端末装置100は、検索した情報のうち、空白時間においてユーザU1が実施可能な行動に関するコンテンツを、ユーザU1にレコメンドする情報を示すコンテンツとして表示する。なお、図2の第3状態において、端末装置100は、ユーザU1にレコメンドする情報を示すコンテンツとして、コンテンツC15及びコンテンツC16を画面に表示したものとする。 Subsequently, the third state of FIG. 2 shows a state in which the content indicating the information related to the action subject “Sendai trip” is displayed on the screen in place of the content C1. In the third state of FIG. 2, the terminal device 100 searches for information corresponding to the subject of the action, and displays the content corresponding to the searched information on the screen as content recommended for the user U1. For example, the terminal device 100 searches the web (a web page or various applications installed in the terminal device 100) for information corresponding to the action subject “Sendai Travel”. In addition, the terminal device 100 is the action information of the user U1 other than the action information corresponding to the content C11, the content C12, and the content C13 collected by the information collection application installed in the terminal device 100, and the subject of the action “Sendai Travel”. Search for behavior information related to. In addition, the terminal device 100 searches for information corresponding to the subject “Sendai trip” of the action based on the demographic attribute or the psychographic attribute based on the action information of the user U1. Then, the terminal device 100 displays, among the retrieved information, the content related to the action that the user U1 can perform in the blank time, as the content indicating the information recommended to the user U1. In addition, in the third state of FIG. 2, it is assumed that the terminal device 100 displays the content C15 and the content C16 on the screen as the content indicating the information recommended to the user U1.

図2の第3状態において、空白時間にコンテンツC15に関するスケジュールを組み込むことを希望したものとする。この場合、端末装置100は、ユーザU1によるコンテンツC15への選択操作を受け付け、画面を第4状態に遷移させる。 In the third state of FIG. 2, it is assumed that it is desired to incorporate the schedule regarding the content C15 in the blank time. In this case, the terminal device 100 receives the selection operation for the content C15 by the user U1, and transitions the screen to the fourth state.

続いて、図2の第4状態は、新たなコンテンツがコンテンツC13に替えて表示された画面の状態を示す。図2の第4状態において、端末装置100は、第3状態においてユーザU1が選択したコンテンツC15に対応するコンテンツC17をコンテンツC13に替えて画面に表示する。また、第2状態においても、端末装置100は、領域AR22及び領域AR23をコンテンツC1に重畳させて表示する。 Subsequently, the fourth state of FIG. 2 shows the state of the screen in which the new content is displayed in place of the content C13. In the fourth state of FIG. 2, the terminal device 100 displays the content C17 corresponding to the content C15 selected by the user U1 in the third state on the screen instead of the content C13. Also in the second state, the terminal device 100 displays the area AR22 and the area AR23 by superimposing them on the content C1.

ここで、図2の第4状態において、領域AR22が選択された場合、端末装置100は、画面を第5状態または第6状態に遷移させる。 Here, in the fourth state of FIG. 2, when the area AR22 is selected, the terminal device 100 transitions the screen to the fifth state or the sixth state.

続いて、図2の第5状態は、コンテンツC1の領域AR21に配置されたコンテンツを、地図上の各コンテンツに対応する位置に配置した画面の状態を示す。例えば、図2の例において、端末装置100は、コンテンツC11及びコンテンツC14に対応する行動情報、並びに、コンテンツC17に関する情報に対して、画像解析や、形態素解析等の種々の従来技術を適宜用いて解析することにより、位置情報を抽出する。そして、端末装置100は、仙台市の地図上のコンテンツC11に対応する位置P1、コンテンツC17に対応する位置P2、並びに、コンテンツC14に対応する位置P3に各コンテンツを配置して画面に表示する。 Subsequently, the fifth state of FIG. 2 shows a state of the screen in which the content arranged in the area AR21 of the content C1 is arranged at the position corresponding to each content on the map. For example, in the example of FIG. 2, the terminal device 100 appropriately uses various conventional techniques such as image analysis and morphological analysis for the action information corresponding to the content C11 and the content C14 and the information regarding the content C17. The position information is extracted by analyzing. Then, the terminal device 100 arranges each content at the position P1 corresponding to the content C11, the position P2 corresponding to the content C17, and the position P3 corresponding to the content C14 on the map of Sendai city, and displays them on the screen.

なお、端末装置100は、コンテンツC1に含まれるコンテンツに対応する行動情報から抽出した位置情報に基づいて、各コンテンツをコンテンツC1に配置して表示してもよい。例えば、端末装置100は、「仙台駅」を出発地点として設定する。そして、端末装置100は、コンテンツC1に含まれる各コンテンツに対応する行動情報から位置情報を抽出し、抽出した位置情報の「仙台駅」からの距離に応じて各コンテンツをコンテンツC1に配置して表示する。 The terminal device 100 may arrange and display each content in the content C1 based on the position information extracted from the action information corresponding to the content included in the content C1. For example, the terminal device 100 sets “Sendai Station” as the departure point. Then, the terminal device 100 extracts position information from the action information corresponding to each content included in the content C1, and arranges each content in the content C1 according to the distance from the “Sendai Station” of the extracted position information. indicate.

また、端末装置100は、領域AR21に配置された各コンテンツに対応する時間に関する情報(各コンテンツに対応する位置にユーザU1が移動する時間に関する情報)に基づいて、仙台市の地図上の位置P1〜P3にユーザU1が訪問する順番に関する情報を表示してもよい。 Further, the terminal device 100, based on the information on the time corresponding to each content arranged in the area AR21 (the information on the time when the user U1 moves to the position corresponding to each content), the position P1 on the map of Sendai city. Information about the order in which the user U1 visits may be displayed on to P3.

続いて、図2の第6状態は、コンテンツC1の領域AR21に配置されたコンテンツに対応するサムネイルをアルバムの形式で表示する画面の状態を示す。図2の第6状態において、端末装置100は、コンテンツC1の領域AR21に配置されたコンテンツC11、コンテンツC12、コンテンツC14及びコンテンツC17に対応するサムネイルをアルバムの形式で画面に表示する。 Subsequently, the sixth state of FIG. 2 shows a state of a screen for displaying thumbnails corresponding to the content arranged in the area AR21 of the content C1 in the form of an album. In the sixth state of FIG. 2, the terminal device 100 displays thumbnails corresponding to the content C11, the content C12, the content C14, and the content C17 arranged in the area AR21 of the content C1 on the screen in the form of an album.

なお、図2の例において、第6状態に示すように行動の主題「仙台旅行」におけるユーザU1の持ち物に関するコンテンツC18を表示してもよい。例えば、端末装置100は、ユーザU1によるコンテンツC18への選択操作を受け付け、画面を行動の主題「仙台旅行」におけるユーザU1の持ち物の編集画面に遷移させる。また、端末装置100は、ユーザU1が持ち物の編集画面への遷移を端末装置100に指示するためのアイコン画像等を図2の第1状態〜第6状態に重畳させて表示してもよい。 In the example of FIG. 2, as shown in the sixth state, the content C18 relating to the belongings of the user U1 in the action subject “Sendai trip” may be displayed. For example, the terminal device 100 receives a selection operation for the content C18 by the user U1, and transitions the screen to the edit screen of the property of the user U1 in the action subject “Sendai trip”. In addition, the terminal device 100 may superimpose and display an icon image or the like for the user U1 to instruct the terminal device 100 to transition to the editing screen of the property, in the first state to the sixth state of FIG.

また、図2の例において、端末装置100は、コンテンツC1に含まれるコンテンツに対応する位置間の移動手段に関する情報を検索し、検索した情報に対応するコンテンツをコンテンツC1に表示してもよい。例えば、図2の第2状態において、端末装置100は、仙台駅から飲食店Aの所在地までの交通手段を路線検索サービス等において検索し、検索結果を示すコンテンツをコンテンツC11及びコンテンツC12の間に配置する。 Further, in the example of FIG. 2, the terminal device 100 may search for information regarding a transportation means between positions corresponding to the content included in the content C1, and display the content corresponding to the searched information on the content C1. For example, in the second state of FIG. 2, the terminal device 100 searches for a means of transportation from Sendai Station to the location of the restaurant A by a route search service or the like, and a content indicating the search result is displayed between the content C11 and the content C12. Deploy.

また、図2の例において、端末装置100は、コンテンツC1の表示後、行動の主題「仙台旅行」に関連する行動情報が新たに収集された場合、新たに収集された行動情報に対応するコンテンツをコンテンツC1に配置するか否かに関する通知を行ってもよい。 In addition, in the example of FIG. 2, when the behavior information related to the subject “Sendai trip” of the behavior is newly collected after the content C1 is displayed, the terminal device 100 displays the content corresponding to the newly collected behavior information. May be notified as to whether or not to place in the content C1.

次に、図3を用いて、サムネイルに行動情報に関する情報を重畳させて表示する表示処理について説明する。図3は、実施形態に係る端末装置の一例を示す図(3)である。図3では、情報収集アプリにより収集したユーザU1の行動情報に対応するサムネイルを画面に表示する際(図1の第2状態に相当)、各サムネイルに行動情報に関する情報(以下、「対象情報」と記載する場合がある)を重畳させて表示する例を示す。ここで、以下の説明において、対象情報とは、行動情報に対して画像解析、形態素解析等の種々の従来技術を適宜用いて解析することにより取得した情報(例えば、テキスト情報、時間情報、位置情報など)や、行動情報の提供元(例えば、アプリケーション、ウェブサービスなど)を特定するための情報、行動情報の提供元に対応するアイコン画像(例えば、アプリアイコンや、ウェブサービスに設定されているアイコン画像(ウェブクリックアイコン)など)等を示す。なお、以下の説明において、情報収集アプリは、対象情報を行動情報に対応付けて取得しているものとする。 Next, with reference to FIG. 3, description will be given of a display process for displaying information regarding action information by superimposing it on the thumbnail. FIG. 3 is a diagram (3) illustrating an example of the terminal device according to the embodiment. In FIG. 3, when the thumbnail corresponding to the behavior information of the user U1 collected by the information collection application is displayed on the screen (corresponding to the second state in FIG. 1), the information regarding the behavior information (hereinafter referred to as “target information”) is displayed in each thumbnail. May be described) is displayed in an overlapping manner. Here, in the following description, the target information is information acquired by analyzing the action information by appropriately using various conventional techniques such as image analysis and morphological analysis (for example, text information, time information, position Information), information for identifying the source of behavior information (for example, application, web service, etc.), icon image corresponding to the source of behavior information (for example, app icon, set to web service) Indicates an icon image (web click icon), etc. In addition, in the following description, it is assumed that the information collection application acquires target information in association with behavior information.

また、以下の説明において、情報収集アプリが収集した行動情報に対応するサムネイルD1〜D9を端末装置100が表示する例を示す。サムネイルD1〜D3は、図1において示したものと同一であるため、説明を省略する。サムネイルD4は、チケット販売サービスにおいて、ユーザU1が端末装置100を用いて購入したコンサートCのチケットの発券コード(QRコード(登録商標))を表示した画面のスクリーンショットに対応する。サムネイルD5は、地図アプリにおけるスクリーンショットに対応する。サムネイルD6〜9は、電子商取引サービスにおいてユーザU1がブックマークした商品に対応する。 In the following description, an example in which the terminal device 100 displays the thumbnails D1 to D9 corresponding to the action information collected by the information collection application will be shown. Since the thumbnails D1 to D3 are the same as those shown in FIG. 1, their description will be omitted. The thumbnail D4 corresponds to a screen shot of a screen displaying the ticket issuing code (QR code (registered trademark)) of the ticket of the concert C purchased by the user U1 using the terminal device 100 in the ticket sales service. The thumbnail D5 corresponds to the screen shot in the map application. The thumbnails D6 to D9 correspond to products bookmarked by the user U1 in the electronic commerce service.

図3の第1状態は、情報収集アプリにより収集したユーザU1の行動情報に対応するサムネイルを表示した画面の状態を示す。図3の例において、端末装置100は、対象情報を表示する領域AR18を、各サムネイルに重畳させて表示する。なお、領域AR13〜AR15は、図1の第2状態おいて示したものと同一であるため、説明を省略する。 The first state of FIG. 3 shows a state of a screen displaying thumbnails corresponding to the behavior information of the user U1 collected by the information collection application. In the example of FIG. 3, the terminal device 100 superimposes and displays the area AR18 for displaying the target information on each thumbnail. Since the areas AR13 to AR15 are the same as those shown in the second state of FIG. 1, the description thereof will be omitted.

図3の例において、端末装置100は、対象情報として、行動情報から取得したテキスト情報、並びに、行動情報の提供元に対応するアイコン画像を領域AR18に表示する。例えば、図3の例において、端末装置100は、サムネイルD1及びD5に対して、行動情報の提供元に対応するアイコン画像と共にテキスト情報を重畳させて表示する。また、端末装置100は、行動情報に時間情報(例えば、出発日時や、予約日時など)が含まれる場合、サムネイルD2〜D5に示すように、時間情報を含む対象情報を重畳させて表示する。また、端末装置100は、行動情報に商品や、商品の価格等の商品情報が含まれる場合、サムネイルD6〜D9に示すように、商品情報を含む対象情報を重畳させて表示する。 In the example of FIG. 3, the terminal device 100 displays the text information acquired from the behavior information and the icon image corresponding to the provider of the behavior information in the area AR18 as the target information. For example, in the example of FIG. 3, the terminal device 100 superimposes and displays the text information on the thumbnails D1 and D5 together with the icon image corresponding to the source of the action information. Further, when the behavior information includes time information (for example, departure date and time and reservation date and time), the terminal device 100 superimposes and displays the target information including the time information as shown in the thumbnails D2 to D5. Further, when the behavior information includes the product and product information such as the price of the product, the terminal device 100 superimposes and displays the target information including the product information as shown in the thumbnails D6 to D9.

なお、端末装置100は、対象情報として取得された文字列と対応する処理を実行してもよい。例えば、時間情報を含む対象情報をサムネイルに重畳させて表示する場合、端末装置100は、当該時間情報に基づいてユーザU1に通知するアラーム(例えば、飲食店紹介サービスにおいてユーザがブックマークした飲食店が営業時間外または休業日である旨のアラート)を設定してもよい。また、端末装置100は、ユーザU1の現在位置に基づいてユーザU1に通知するアラームを設定してもよい。例えば、行動情報(例えば、飲食店紹介サービスにおいてユーザがブックマークした飲食店に関するコンテンツ)に位置情報が含まれる場合、端末装置100は、ユーザU1の現在位置が当該位置情報から所定の範囲内(例えば、100メートル、500メートルなど)である場合、ユーザU1に当該行動情報に関する通知を行ってもよい。また、例えば、端末装置100は、ユーザにサービスを提供するサービス提供装置などの外部装置等からユーザU1の現在位置周辺の店舗に関する情報を収集してもよい。そして、端末装置100は、ユーザU1の現在位置から所定の範囲内の店舗にユーザの行動情報に対応する商品(例えば、サムネイルD6〜9に対応する商品)を扱う店舗が存在する場合、ユーザU1に当該行動情報に関する通知を行ってもよい。 The terminal device 100 may execute the process corresponding to the character string acquired as the target information. For example, when the target information including the time information is displayed by being superimposed on the thumbnail, the terminal device 100 notifies the user U1 of the alarm based on the time information (for example, the restaurant bookmarked by the user in the restaurant introduction service is Alerts indicating that it is outside business hours or closed days) may be set. Further, the terminal device 100 may set an alarm for notifying the user U1 based on the current position of the user U1. For example, when the position information is included in the behavior information (for example, the content about the restaurant bookmarked by the user in the restaurant introduction service), the terminal device 100 determines that the current position of the user U1 is within a predetermined range from the position information (for example, the position information). , 100 meters, 500 meters, etc.), the user U1 may be notified of the action information. Further, for example, the terminal device 100 may collect information about stores around the current position of the user U1 from an external device such as a service providing device that provides a service to the user. Then, when there is a store that handles products corresponding to the behavior information of the user (for example, products corresponding to the thumbnails D6 to 9) in a store within a predetermined range from the current position of the user U1, the terminal device 100, the user U1. May be notified to the action information.

また、端末装置100は、行動情報の提供元から提供される情報に基づいて更新された対象情報を表示してもよい。例えば、端末装置100は、サムネイルD1に対し、飲食店Aの営業時間や、休業日などの変更に関する情報を含む対象情報を重畳させて表示してもよい。また、端末装置100は、サムネイルD2に対し、電車の遅延情報を含む対象情報を重畳させて表示してもよい。また、端末装置100は、サムネイルD6〜D9に対し、商品の価格の変更に関する情報(例えば、値引きに関する情報)を含む対象情報を重畳させて表示してもよい。また、端末装置100は、行動情報の提供元から提供される情報に基づいて対象情報が更新された旨の通知をユーザU1に行ってもよい。 In addition, the terminal device 100 may display the target information updated based on the information provided by the behavior information provider. For example, the terminal device 100 may display the thumbnail D1 by superimposing the target information including the information about the business hours of the restaurant A, the change of holidays, and the like. Further, the terminal device 100 may superimpose and display target information including train delay information on the thumbnail D2. Further, the terminal device 100 may superimpose and display the target information including the information regarding the change in the price of the product (for example, the information regarding the discount) on the thumbnails D6 to D9. Further, the terminal device 100 may notify the user U1 that the target information has been updated based on the information provided by the source of the behavior information.

続いて、図3の第2状態は、第1状態で表示したサムネイルがユーザU1に選択された場合に表示される画面の状態を示す。図3の例において、端末装置100は、第1状態で表示したサムネイルがユーザU1に選択された場合、当該サムネイルに対応する行動情報の提供元のコンテンツであって、当該行動情報に対応するコンテンツを画面に表示する。ここで、図3の例において、サムネイルD2が選択されたものとする。この場合、端末装置100は、ユーザU1がサムネイルD2に対応する行動情報であるスクリーンショットを取得した際の路線検索サービス上のコンテンツ(検索結果)を画面に表示する。すなわち、端末装置100は、行動情報を取得した際に入力されたパラメータ情報と同一のものを入力した状態で、当該行動情報の提供元であるアプリケーションやウェブサービスを表示する。 Subsequently, the second state of FIG. 3 shows the state of the screen displayed when the thumbnail displayed in the first state is selected by the user U1. In the example of FIG. 3, when the thumbnail displayed in the first state is selected by the user U1, the terminal device 100 is content that is the source of the action information corresponding to the thumbnail and that corresponds to the action information. Is displayed on the screen. Here, in the example of FIG. 3, it is assumed that the thumbnail D2 is selected. In this case, the terminal device 100 displays the content (search result) on the route search service at the time when the user U1 acquires the screen shot, which is the action information corresponding to the thumbnail D2, on the screen. That is, the terminal device 100 displays the application or the web service that is the source of the action information in a state where the same parameter information as that input when the action information is acquired is input.

なお、端末装置100は、ユーザU1が実店舗において端末装置100が有する撮像部を用いて撮影した商品の画像に対応するサムネイルが選択された場合、当該商品に対応する所定の電子商取引サービス上のコンテンツを表示してもよい。 In addition, when the thumbnail corresponding to the image of the product taken by the user U1 using the imaging unit of the terminal device 100 in the actual shop is selected, the terminal device 100 selects a predetermined e-commerce service corresponding to the product. Content may be displayed.

次に、図4を用いて、ユーザの行動の主題に関連する情報を示すコンテンツ(以下、「関連コンテンツ」と記載する場合がある)の表示処理について説明する。図4は、実施形態に係る端末装置の一例を示す図(4)である。図4では、図1において端末装置100が推定したユーザU1の行動の主題「仙台旅行」に対応するコンテンツC2(「仙台旅行」のスケジュールに関するコンテンツ)の編集処理において、関連コンテンツを表示する例を示す。また、コンテンツC2は、スマートデバイス用に最適化されたコンテンツであり、横方向の表示サイズが、端末装置100が有する画面の横方向の表示サイズと同じウェブページであるものとする。また、コンテンツC2は、縦方向の表示サイズが、端末装置100が有する画面の縦方向の表示サイズよりも長いコンテンツであるものとする。 Next, with reference to FIG. 4, a display process of content (hereinafter, may be referred to as “related content”) indicating information related to the subject of the user's action will be described. FIG. 4 is a diagram (4) illustrating an example of the terminal device according to the embodiment. 4, an example in which related content is displayed in the editing process of the content C2 (content related to the schedule of "Sendai trip") corresponding to the subject "Sendai trip" of the behavior of the user U1 estimated by the terminal device 100 in FIG. Show. It is also assumed that the content C2 is content optimized for smart devices, and that the horizontal display size is the same as the horizontal display size of the screen of the terminal device 100. The content C2 is assumed to be content whose vertical display size is longer than the vertical display size of the screen of the terminal device 100.

また、図4に示すように、端末装置100は、ユーザU1が図1の第3状態において選択したサムネイルD2及びD3に対応する行動情報を示すコンテンツC12及びC14が含まれるコンテンツC2を画面に表示する。なお、図4の例におけるコンテンツC12及びC14は、図2において示したものと同一であるため、説明を省略する。 Further, as shown in FIG. 4, the terminal device 100 displays on the screen the content C2 including the content C12 and C14 indicating the action information corresponding to the thumbnails D2 and D3 selected by the user U1 in the third state of FIG. To do. The contents C12 and C14 in the example of FIG. 4 are the same as those shown in FIG.

図4の第1状態は、端末装置100が画面にコンテンツC2を表示する初期状態を示す。図4の第1状態において、端末装置100は、コンテンツC2のうち最上端からコンテンツC12を画面に表示する。そして、端末装置100は、領域AR22及びAR23をコンテンツC2に重畳させて表示する。なお、図4の例における領域AR22及びAR23は、図2において示したものと同一であるため、説明を省略する。 The first state of FIG. 4 shows an initial state in which the terminal device 100 displays the content C2 on the screen. In the first state of FIG. 4, the terminal device 100 displays the content C12 on the screen from the uppermost end of the content C2. Then, the terminal device 100 superimposes and displays the areas AR22 and AR23 on the content C2. The areas AR22 and AR23 in the example of FIG. 4 are the same as those shown in FIG.

ここで、図4の第1状態において、ユーザU1の指F10による画面最下部(領域AR23ではない)に対する上方向へのスライド操作が行われたものとする。この場合、端末装置100は、画面を第2状態に遷移させる。 Here, in the first state of FIG. 4, it is assumed that the user F1's finger F10 has performed an upward sliding operation on the lowermost portion of the screen (not the area AR23). In this case, the terminal device 100 transitions the screen to the second state.

続いて、図4の第2状態は、関連コンテンツを表示する領域(以下、「関連コンテンツ領域」と記載する場合がある)をコンテンツC2に重畳させて表示した状態を示す。図4の例において、関連コンテンツ領域には、ユーザU1が図1の第3状態において選択したサムネイルD1に対応する行動情報(言い換えると、ユーザU1が図1の第3状態において選択した行動情報のうち、行動情報に対応するユーザU1の行動が行われる時間が未確定である行動情報)を示すコンテンツC11、並びに、行動の主題「仙台旅行」に関連する情報であって、ユーザU1にレコメンドする情報を示すコンテンツC19及びコンテンツC20が含まれる。なお、図4の例におけるコンテンツC11は、図2において示したものと同一であるため、説明を省略する。 Subsequently, the second state of FIG. 4 shows a state in which an area for displaying related content (hereinafter, sometimes referred to as “related content area”) is displayed by being superimposed on the content C2. In the example of FIG. 4, in the related content area, the behavior information corresponding to the thumbnail D1 selected by the user U1 in the third state of FIG. 1 (in other words, of the behavior information selected by the user U1 in the third state of FIG. 1). Among them, the content C11 indicating the action information in which the time of the action of the user U1 corresponding to the action information is undetermined), and the information related to the subject “Sendai trip” of the action and recommended to the user U1. Content C19 and content C20 indicating information are included. Note that the content C11 in the example of FIG. 4 is the same as that shown in FIG. 2, so description thereof will be omitted.

ここで、図4の第2状態において、ユーザU1の指F10によるコンテンツC11への選択操作が行われたものとする。この場合、端末装置100は、画面を第3状態に遷移させる。 Here, in the second state of FIG. 4, it is assumed that the selection operation for the content C11 is performed by the finger F10 of the user U1. In this case, the terminal device 100 transitions the screen to the third state.

続いて、図4の第3状態は、関連コンテンツ領域を縮小させた状態を示す。なお、図4の第3状態において、ユーザU1の指F10によるコンテンツC11への選択操作が継続されているものとする。この場合、端末装置100は、コンテンツC11の表示位置がユーザU1の指F10により保持された状態で関連コンテンツ領域を縮小させる。すなわち、端末装置100は、コンテンツC11をユーザU1の指F10により保持された状態でコンテンツC2に重畳して表示させる。 Subsequently, the third state of FIG. 4 shows a state in which the related content area is reduced. In addition, in the third state of FIG. 4, it is assumed that the selection operation for the content C11 by the finger F10 of the user U1 is continued. In this case, the terminal device 100 reduces the related content area while the display position of the content C11 is held by the finger F10 of the user U1. That is, the terminal device 100 superimposes the content C11 on the content C2 and displays it while being held by the finger F10 of the user U1.

続いて、図4の第4状態は、関連コンテンツ領域が縮小し、コンテンツC11以外の関連コンテンツが端末装置100の画面上から非表示となった状態を示す。なお、図4の第3状態において、ユーザU1の指F10によるコンテンツC11への選択操作が継続されているものとする。ここで、端末装置100は、ユーザU1の指F10によるコンテンツC11へのドラッグ操作に応じてコンテンツC11の表示位置を移動させる。 Subsequently, the fourth state of FIG. 4 shows a state in which the related content area is reduced and related contents other than the content C11 are hidden from the screen of the terminal device 100. In addition, in the third state of FIG. 4, it is assumed that the selection operation for the content C11 by the finger F10 of the user U1 is continued. Here, the terminal device 100 moves the display position of the content C11 according to the drag operation to the content C11 by the finger F10 of the user U1.

続いて、図4の第5状態は、コンテンツC11の表示位置を移動させた状態を示す。図4の第5状態に示すように、端末装置100は、ユーザU1の指F10による操作に応じた位置にコンテンツC11を表示する。 Subsequently, the fifth state of FIG. 4 shows a state where the display position of the content C11 is moved. As shown in the fifth state in FIG. 4, the terminal device 100 displays the content C11 at a position corresponding to the operation by the finger F10 of the user U1.

続いて、図4の第6状態は、ユーザU1の指F10によるコンテンツC11への選択操作が解除された状態を示す。図4の第6状態に示すように、端末装置100は、コンテンツC11への選択操作が解除された位置(時間帯)に、コンテンツC11に関するスケジュールを組み込む。 Subsequently, the sixth state of FIG. 4 shows a state in which the selection operation on the content C11 by the finger F10 of the user U1 is released. As shown in the sixth state of FIG. 4, the terminal device 100 incorporates the schedule related to the content C11 at the position (time zone) where the selection operation for the content C11 is released.

なお、端末装置100は、画面に表示したコンテンツC2のうち、所定の領域に関連コンテンツ領域を重畳させて表示してもよい。例えば、端末装置100は、画面に表示したコンテンツC2のうち、画面の最下部から画面の中央までの領域(すなわち、画面の下半分の領域)に関連コンテンツ領域を重畳させて表示する。また、端末装置100は、図4の第1状態において、画面最下部から、ユーザU1の指F10による画面最下部に対する上方向へのスライド操作が解除された位置までの領域に関連コンテンツ領域をする。 Note that the terminal device 100 may display the related content area by superimposing it on a predetermined area of the content C2 displayed on the screen. For example, the terminal device 100 superimposes and displays the related content area on the area from the bottom of the screen to the center of the screen (that is, the lower half area of the screen) in the content C2 displayed on the screen. Further, in the first state of FIG. 4, the terminal device 100 sets the related content area in the area from the bottom of the screen to the position where the upward sliding operation on the bottom of the screen by the finger F10 of the user U1 is released. ..

また、端末装置100は、コンテンツC2に配置されたコンテンツに対する所定の操作(例えば、フリック操作)を受け付けた場合、当該コンテンツをコンテンツC2から削除し、関連コンテンツ領域において表示してもよい。 Further, when the terminal device 100 receives a predetermined operation (for example, a flick operation) on the content arranged in the content C2, the terminal device 100 may delete the content from the content C2 and display the content in the related content area.

また、端末装置100は、コンテンツC2に配置されたコンテンツに対するユーザU1の指F10による選択操作(例えば、タッチ操作。以下、「移動操作」と記載する場合がある)を受け付けた場合、当該コンテンツをユーザU1の指F10による操作に応じた位置に表示し、コンテンツC2のうち、移動操作が解除された位置に当該コンテンツを表示してもよい。ここで、端末装置100は、コンテンツの移動操作が解除された位置(時間帯)に応じて、当該コンテンツに対応する行動情報(例えば、時間情報)を更新してもよい。 When the terminal device 100 receives a selection operation (for example, a touch operation, which may be referred to as a “move operation” below) with the finger F10 of the user U1 with respect to the content arranged in the content C2, the terminal device 100 selects the content. The content may be displayed at a position corresponding to the operation of the finger F10 of the user U1, and the content may be displayed at a position of the content C2 where the moving operation is released. Here, the terminal device 100 may update the action information (for example, time information) corresponding to the content according to the position (time zone) where the movement operation of the content is released.

また、端末装置100は、コンテンツC2に配置されたコンテンツに対するユーザU1の指F10による選択操作であって、移動操作とは異なる選択操作(例えば、ロングタップ。)を受け付けた場合、当該コンテンツをユーザU1の指F10により保持された状態で関連コンテンツ領域をコンテンツC2に重畳して表示させてもよい。そして、端末装置100は、関連コンテンツ領域上で上記コンテンツの選択が解除された場合、上記コンテンツをコンテンツC2から削除し、関連コンテンツ領域において表示してもよい。 In addition, when the terminal device 100 receives a selection operation (for example, a long tap) different from the movement operation, which is a selection operation performed by the finger F10 of the user U1 on the content arranged in the content C2, the terminal device 100 receives the content. The related content area may be displayed superimposed on the content C2 while being held by the finger F10 of U1. Then, when the selection of the content is canceled in the related content area, the terminal device 100 may delete the content from the content C2 and display the content in the related content area.

また、上記の説明における端末装置100の画面のスクリーンショットは、情報収集アプリの機能により取得されてもよいし、端末装置100のOS(Operating System)の機能によって取得されてもよい。 Further, the screen shot of the screen of the terminal device 100 in the above description may be acquired by the function of the information collecting application or the function of the OS (Operating System) of the terminal device 100.

また、上記の説明におけるユーザの行動情報は、情報収集アプリの機能により収集されたものに限らず、ユーザの操作に応じて情報収集アプリに追加された情報を含んでもよい。 In addition, the user behavior information in the above description is not limited to the information collected by the function of the information collection application, and may include information added to the information collection application according to the user's operation.

一般に、ユーザは何らかの行動の指針に基づいて物事を調べ、収集した情報を使って予定を立て、行動する。このとき、情報収集した結果を集約し、スケジュール等の形でユーザに提供した場合、ユーザ体験は向上する。ここで、実施形態に係る端末装置100は、上記のようにユーザの行動情報に基づいてユーザの行動の主題を推定し、行動の主題に対応するコンテンツを表示する。すなわち、実施形態に係る端末装置100は、ユーザの行動の指針に基づいて情報を提供できる。 In general, a user investigates things based on some action guideline, uses the collected information to make a schedule, and acts. At this time, if the collected information results are aggregated and provided to the user in the form of a schedule or the like, the user experience is improved. Here, the terminal device 100 according to the embodiment estimates the subject of the action of the user based on the action information of the user as described above, and displays the content corresponding to the subject of the action. That is, the terminal device 100 according to the embodiment can provide information based on the guideline of the behavior of the user.

また、従来、携帯端末のアプリケーションを操作中に表示画面のスクリーンショットを撮影して画像データを取得する技術や、スクリーンショット画像がウェブページの場合にタイトルやURLを重畳させて表示する技術が開示されている。しかしながら、従来の技術では、過去に取得したスクリーンショットのもとになったアプリケーションやITサービスが直感的にわからず、ユーザビリティ向上の余地があった。これに対し、実施形態に係る端末装置100は、上記のようにスクリーンショットに含まれるテキスト情報や、スクリーンショットの提供元に関する情報を、スクリーンショットに重畳させて表示することができる。すなわち、実施形態に係る端末装置100は、ユーザビリティを向上できる。 Further, conventionally, a technique of taking a screen shot of a display screen to acquire image data while operating an application of a mobile terminal, and a technique of displaying a screen shot image by superimposing a title or a URL on the web page are disclosed. Has been done. However, in the conventional technology, the application or IT service that is the basis of the screenshot obtained in the past cannot be intuitively understood, and there is room for improving usability. On the other hand, the terminal device 100 according to the embodiment can display the text information included in the screenshot and the information regarding the provider of the screenshot by superimposing them on the screenshot. That is, the terminal device 100 according to the embodiment can improve usability.

また、従来、メイン情報の表示領域とは別の、サブ表示の表示領域の配置に基づいてコンテンツ(メイン情報やサブ情報)のレイアウトを調整する技術が提案されている。しかしながら、従来の技術では、コンテンツの配置をユーザが変更する際の操作性は考慮されておらず、ユーザビリティ向上の余地があった。これに対し、実施形態に係る端末装置100は、上記のように関連コンテンツ領域において表示される情報(サブ情報)を、ユーザの感覚的な操作によりメインのコンテンツに配置することができる。すなわち、実施形態に係る端末装置100は、ユーザビリティを向上できる。 Further, conventionally, there has been proposed a technique for adjusting the layout of contents (main information and sub information) based on the arrangement of a display area for sub display, which is different from the display area for main information. However, in the conventional technology, operability when the user changes the arrangement of the contents is not taken into consideration, and there is room for improving usability. On the other hand, the terminal device 100 according to the embodiment can arrange the information (sub-information) displayed in the related content area as described above in the main content by a user's intuitive operation. That is, the terminal device 100 according to the embodiment can improve usability.

〔2.表示処理システムの構成〕
次に、上述した表示処理を実現するための表示処理システム1ついて図5を用いて説明する。図5は、実施形態に係る表示処理システムの構成例を示す図である。図5に示すように、表示処理システム1は、端末装置100と、コンテンツ配信サーバ10と、外部装置20とを含む。端末装置100、コンテンツ配信サーバ10及び外部装置20は、ネットワークNを介して有線または無線により通信可能に接続される。なお、ネットワークNは、LAN(Local Area Network)、WAN(Wide Area Network)、電話網(携帯電話網、固定電話網等)、地域IP(Internet Protocol)網、インターネット等の通信ネットワークである。ネットワークNには、有線ネットワークが含まれていてもよいし、無線ネットワークが含まれていてもよい。また、図5に示す表示処理システム1には、複数台の端末装置100や、複数台のコンテンツ配信サーバ10や、複数台の外部装置20が含まれてもよい。
[2. Configuration of display processing system]
Next, the display processing system 1 for realizing the above-mentioned display processing will be described with reference to FIG. FIG. 5 is a diagram illustrating a configuration example of the display processing system according to the embodiment. As shown in FIG. 5, the display processing system 1 includes a terminal device 100, a content distribution server 10, and an external device 20. The terminal device 100, the content distribution server 10 and the external device 20 are communicably connected to each other via a network N in a wired or wireless manner. The network N is a communication network such as a LAN (Local Area Network), a WAN (Wide Area Network), a telephone network (a mobile telephone network, a fixed telephone network, etc.), a regional IP (Internet Protocol) network, and the Internet. The network N may include a wired network or a wireless network. In addition, the display processing system 1 illustrated in FIG. 5 may include a plurality of terminal devices 100, a plurality of content distribution servers 10, and a plurality of external devices 20.

コンテンツ配信サーバ10は、端末装置100に情報収集アプリに関するコンテンツを配信するサーバ装置である。なお、コンテンツ配信サーバ10は、コンテンツとして情報収集アプリのデータそのものを端末装置100に配信してもよい。なお、コンテンツ配信サーバ10は、端末装置100に制御情報を配信する配信装置として機能してもよい。ここで、制御情報は、例えば、JavaScript(登録商標)等のスクリプト言語やCSS(Cascading Style Sheets)等のスタイルシート言語により記述される。なお、コンテンツ配信サーバ10から配信される情報収集アプリそのものを制御情報とみなしてもよい。コンテンツ配信サーバ10の構成は後述する。 The content distribution server 10 is a server device that distributes content related to the information collection application to the terminal device 100. The content distribution server 10 may distribute the data itself of the information collection application as the content to the terminal device 100. The content distribution server 10 may function as a distribution device that distributes control information to the terminal device 100. Here, the control information is described in a script language such as JavaScript (registered trademark) or a style sheet language such as CSS (Cascading Style Sheets). The information collection application itself distributed from the content distribution server 10 may be regarded as the control information. The configuration of the content distribution server 10 will be described later.

外部装置20は、端末装置100に各種コンテンツの情報を配信するサーバ装置である。外部装置20は、例えば、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、ウェブブログなどに関連する各種情報が配置されたウェブページを端末装置100に配信する装置である。なお、外部装置20は、例えば、端末装置100にインストールされた各種アプリ(例えば、ポータルアプリ、ニュースアプリ、オークションサイト、天気予報アプリ、ショッピングアプリ、ファイナンス(株価)アプリ、路線検索アプリ、地図提供アプリ、旅行アプリ、飲食店紹介アプリ、ブログ閲覧アプリ等)に表示する情報を端末装置100に配信する装置であってもよい。また、外部装置20は、アプリケーションのデータそのものを配信するサーバであってもよい。また、外部装置20は、端末装置100に制御情報を配信する配信装置として機能してもよい。ここで、制御情報は、例えば、JavaScript(登録商標)等のスクリプト言語やCSS等のスタイルシート言語により記述される。なお、外部装置20から配信されるアプリケーションそのものを制御情報とみなしてもよい。 The external device 20 is a server device that distributes information of various contents to the terminal device 100. The external device 20 is related to, for example, a portal site, a news site, an auction site, a weather forecast site, a shopping site, a finance (stock price) site, a route search site, a map providing site, a travel site, a restaurant introduction site, a web blog, and the like. It is a device for delivering to the terminal device 100 a web page on which various types of information are placed. The external device 20 is, for example, various applications installed in the terminal device 100 (for example, portal application, news application, auction site, weather forecast application, shopping application, finance (stock price) application, route search application, map providing application). , A travel application, a restaurant introduction application, a blog browsing application, etc.) may be a device that distributes information to the terminal device 100. The external device 20 may also be a server that delivers the application data itself. The external device 20 may also function as a distribution device that distributes control information to the terminal device 100. Here, the control information is described in a script language such as JavaScript (registered trademark) or a style sheet language such as CSS. The application itself delivered from the external device 20 may be regarded as the control information.

端末装置100は、ユーザによって利用される情報処理装置である。端末装置100は、ユーザの操作に従って、コンテンツ配信サーバ10から情報収集アプリに関する情報を取得する。また、端末装置100は、ユーザの操作に従って、外部装置20から各種コンテンツの情報を取得する。また、端末装置100は、上述の表示処理を実現する制御情報をコンテンツ配信サーバ10から受け取った場合には、制御情報に従って表示処理を実現する。端末装置100の構成は後述する。 The terminal device 100 is an information processing device used by a user. The terminal device 100 acquires information about the information collection application from the content distribution server 10 according to the user's operation. In addition, the terminal device 100 acquires information of various contents from the external device 20 according to a user's operation. Further, when the terminal device 100 receives the control information for realizing the above-mentioned display process from the content distribution server 10, the terminal device 100 realizes the display process according to the control information. The configuration of the terminal device 100 will be described later.

〔3.コンテンツ配信サーバの構成〕
次に、図6を用いて、実施形態に係るコンテンツ配信サーバ10の構成について説明する。図6は、実施形態に係るコンテンツ配信サーバの構成例を示す図である。図6に示すように、コンテンツ配信サーバ10は、通信部11と、記憶部12と、制御部14とを有する。
[3. Content distribution server configuration]
Next, the configuration of the content distribution server 10 according to the embodiment will be described with reference to FIG. FIG. 6 is a diagram illustrating a configuration example of the content distribution server according to the embodiment. As shown in FIG. 6, the content distribution server 10 includes a communication unit 11, a storage unit 12, and a control unit 14.

(通信部11について)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークNと有線または無線で接続され、端末装置100、外部装置20等との間で情報の送受信を行う。
(About communication unit 11)
The communication unit 11 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 11 is connected to the network N in a wired or wireless manner, and transmits/receives information to/from the terminal device 100, the external device 20, and the like.

(記憶部12について)
記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図6に示すように、記憶部12は、コンテンツ情報記憶部13を有する。
(About storage unit 12)
The storage unit 12 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 6, the storage unit 12 has a content information storage unit 13.

(コンテンツ情報記憶部13について)
コンテンツ情報記憶部13は、コンテンツに関する情報を記憶する。例えば、コンテンツ情報記憶部13は、ユーザの行動の主題に対応するコンテンツ(図2の例における「コンテンツC1」に相当)を記憶する。また、コンテンツ情報記憶部13は、ユーザの行動の主題に関連する情報であって、ユーザにレコメンドする情報を示すコンテンツを記憶する。また、コンテンツ情報記憶部13は、ユーザの行動情報や属性情報に応じてレコメンドするユーザの行動の主題に対応するコンテンツを記憶する。ここで、図7を用いて、コンテンツ情報記憶部13が記憶するコンテンツに関する情報の一例を説明する。図7は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図7の例において、コンテンツ情報記憶部13は、「コンテンツID」、「コンテンツ情報」、「属性情報」、「行動履歴」といった項目を有する。
(About the content information storage unit 13)
The content information storage unit 13 stores information about content. For example, the content information storage unit 13 stores content (corresponding to “content C1” in the example of FIG. 2) corresponding to the subject of the user's action. The content information storage unit 13 also stores content that is information related to the subject of the user's action and that indicates information recommended to the user. Further, the content information storage unit 13 stores the content corresponding to the subject of the action of the user that is recommended according to the action information and the attribute information of the user. Here, an example of information about the content stored in the content information storage unit 13 will be described with reference to FIG. 7. FIG. 7 is a diagram illustrating an example of the content information storage unit according to the embodiment. In the example of FIG. 7, the content information storage unit 13 has items such as “content ID”, “content information”, “attribute information”, and “action history”.

「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ情報」は、コンテンツを構成する情報を示す。図7では、「コンテンツ情報」に「コンテンツ情報1」といった概念的な情報が格納される例を示したが、実際には、コンテンツの内容を示すテキスト情報や、画像情報、映像情報、または、その格納場所を示すファイルパス名などが格納される。 The “content ID” indicates identification information for identifying the content. “Content information” indicates information that constitutes the content. In FIG. 7, an example in which conceptual information such as “contents information 1” is stored in “contents information” is shown. However, in reality, text information indicating the contents, image information, video information, or A file path name indicating the storage location is stored.

「属性情報」は、「コンテンツ情報」に格納されたコンテンツの配信対象となるユーザのデモグラフィック属性やサイコグラフィック属性等の情報が格納される。「行動履歴」は、「コンテンツ情報」に格納されたコンテンツの配信対象となるユーザの行動情報の履歴が格納される。 The “attribute information” stores information such as demographic attributes and psychographic attributes of the users who are the distribution targets of the content stored in the “content information”. The “action history” stores the history of the action information of the user who is the distribution target of the content stored in the “content information”.

すなわち、図7では、「属性情報1」に対応する属性を有し、「行動履歴1」に示す行動を行ったユーザに対し、コンテンツID「C101」によって識別される「コンテンツ情報1」が配信される例を示す。 That is, in FIG. 7, the “content information 1” identified by the content ID “C101” is distributed to the user who has the attribute corresponding to the “attribute information 1” and who has performed the action shown in the “action history 1”. The following is an example.

(制御部14について)
制御部14は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、コンテンツ配信サーバ10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部14は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部14は、図6に示すように、受付部15と、取得部16と、推定部17と、配信部18とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
(About control unit 14)
The control unit 14 is a controller, and various programs stored in a storage device inside the content distribution server 10 use a RAM as a work area by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). It is realized by being executed as. The control unit 14 is a controller, and is realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). As shown in FIG. 6, the control unit 14 according to the embodiment includes a reception unit 15, an acquisition unit 16, an estimation unit 17, and a distribution unit 18, and has functions and actions of information processing described below. Realize or execute.

(受付部15について)
受付部15は、端末装置100からコンテンツの配信要求や、行動情報を受け付ける。
(About reception section 15)
The receiving unit 15 receives a content distribution request and action information from the terminal device 100.

(取得部16について)
取得部16は、受付部15が端末装置100から受け付けた行動情報に対して、画像解析、形態素解析等の種々の従来技術を適宜用いて解析することにより、行動情報に関する情報(対象情報)を取得する。例えば、取得部16は、行動情報の提供元に対応するアイコン画像(例えば、アプリアイコンや、ウェブサービスに設定されているアイコン画像(ウェブクリックアイコン)など)を含む対象情報を取得する。また、取得部16は、行動情報に対して画像解析、形態素解析等の種々の従来技術を適宜用いて解析することにより、テキスト情報や、時間情報、位置情報等を含む対象情報を取得する。
(About acquisition unit 16)
The acquisition unit 16 analyzes the action information received by the receiving unit 15 from the terminal device 100 by appropriately using various conventional techniques such as image analysis and morphological analysis to obtain information (target information) about the action information. get. For example, the acquisition unit 16 acquires target information including an icon image (for example, an application icon or an icon image (web click icon) set in a web service) corresponding to a source of behavior information. In addition, the acquisition unit 16 acquires target information including text information, time information, position information, and the like by analyzing action information by appropriately using various conventional techniques such as image analysis and morphological analysis.

(推定部17について)
推定部17は、ユーザの行動に関する行動情報に基づいて、ユーザの行動と対応する主題を推定する。例えば、推定部17は、受付部15が端末装置100から受け付けた行動情報に対して、画像解析、形態素解析等の種々の従来技術を適宜用いて解析することにより、行動情報に含まれるテキスト情報や、時間情報、位置情報等の情報を抽出する。そして、推定部17は、行動情報から抽出した情報に基づいて、ユーザの行動の主題を推定する。
(About the estimation unit 17)
The estimation unit 17 estimates the subject corresponding to the user's action based on the action information regarding the user's action. For example, the estimating unit 17 analyzes the action information received by the receiving unit 15 from the terminal device 100 by appropriately using various conventional techniques such as image analysis and morphological analysis, and thereby the text information included in the action information. Also, information such as time information and position information is extracted. Then, the estimation unit 17 estimates the subject of the user's action based on the information extracted from the action information.

(配信部18について)
配信部18は、受付部15によってコンテンツの配信要求が受け付けられた場合に、端末装置100を利用するユーザの属性情報や行動情報に応じてコンテンツ情報記憶部13に格納されたコンテンツを配信する。また、配信部18は、取得部16が取得した対象情報を端末装置100に配信する。また、配信部18は、ユーザが利用する端末装置であって、推定部17により推定された主題と対応する情報の表示処理を行う端末装置に主題に関する情報を配信する。例えば、配信部18は、推定部17が推定したユーザの行動の主題に関する情報を端末装置100に配信する。
(About distribution unit 18)
When the receiving unit 15 receives a content distribution request, the distribution unit 18 distributes the content stored in the content information storage unit 13 according to the attribute information and the behavior information of the user who uses the terminal device 100. Further, the distribution unit 18 distributes the target information acquired by the acquisition unit 16 to the terminal device 100. The distribution unit 18 is a terminal device used by the user, and distributes information about a subject to a terminal device that displays information corresponding to the subject estimated by the estimation unit 17. For example, the delivery unit 18 delivers the information on the subject of the user's action estimated by the estimation unit 17 to the terminal device 100.

〔4.端末装置の構成〕
次に、図8を用いて、実施形態に係る端末装置100の構成について説明する。図8は、実施形態に係る端末装置の構成例を示す図である。図8に示すように、端末装置100は、通信部110と、記憶部120と、入力部130と、出力部140と、撮像部150と、制御部160とを有する。
[4. Configuration of terminal device]
Next, the configuration of the terminal device 100 according to the embodiment will be described with reference to FIG. FIG. 8 is a diagram illustrating a configuration example of the terminal device according to the embodiment. As shown in FIG. 8, the terminal device 100 includes a communication unit 110, a storage unit 120, an input unit 130, an output unit 140, an imaging unit 150, and a control unit 160.

(通信部110について)
通信部110は、例えば、NIC等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、コンテンツ配信サーバ10、外部装置20等との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC. Then, the communication unit 110 is connected to the network N by wire or wirelessly, and transmits/receives information to/from the content distribution server 10, the external device 20, and the like.

(記憶部120について)
記憶部120は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図8に示すように、記憶部120は、行動情報記憶部121を有する。
(About storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 8, the storage unit 120 has a behavior information storage unit 121.

(行動情報記憶部121について)
行動情報記憶部121は、ユーザの行動に関する行動情報を記憶する。ここで、図9を用いて、行動情報記憶部121が記憶する行動情報の一例を説明する。図9は、実施形態に係る行動情報記憶部の一例を示す図である。図9の例において、行動情報記憶部121は、「日付」、「行動情報」、「解析結果情報」といった項目を有する。
(About the behavior information storage unit 121)
The behavior information storage unit 121 stores behavior information regarding the behavior of the user. Here, an example of the action information stored in the action information storage unit 121 will be described with reference to FIG. 9. FIG. 9 is a diagram illustrating an example of the behavior information storage unit according to the embodiment. In the example of FIG. 9, the behavior information storage unit 121 has items such as “date”, “action information”, and “analysis result information”.

「日付」は、端末装置100を利用するユーザが「行動情報」に格納された情報によって示される行動を行った日付を示す。「行動情報」は、端末装置100を利用するユーザが行なった行動に関する情報を示す。なお、図9では、「行動情報」に「コンテンツ情報1」といった概念的な情報が格納される例を示したが、実際には、端末装置100の画面のスクリーンショットや、ユーザが端末装置100を用いて撮影した画像及び動画、ユーザが端末装置100を用いて閲覧した画像及び動画、ユーザが端末装置100を用いて送受信した電子メール、ユーザが端末装置100を介して利用したアプリケーション、ウェブサービス等においてブックマークしたコンテンツ等の情報、または、その格納場所を示すファイルパス名が格納される。 The “date” indicates the date when the user who uses the terminal device 100 takes the action indicated by the information stored in the “action information”. The “action information” indicates information regarding an action performed by a user who uses the terminal device 100. Note that FIG. 9 shows an example in which conceptual information such as “contents information 1” is stored in the “behavior information”. Images and videos captured by using the terminal device 100, images and videos viewed by the user using the terminal device 100, emails sent and received by the user using the terminal device 100, applications used by the user via the terminal device 100, and web services. Information such as bookmarked content in the file etc., or a file path name indicating the storage location is stored.

「解析結果情報」は、「行動情報」に格納された情報に対して、画像解析や、形態素解析等の種々の従来技術を適宜用いて解析することにより抽出した時間情報や、位置情報等の情報(図3の例における対象情報)を示す。 “Analysis result information” is information such as time information and position information extracted by analyzing the information stored in “behavior information” by appropriately using various conventional techniques such as image analysis and morphological analysis. The information (target information in the example of FIG. 3) is shown.

すなわち、図9では、日付「20XX/1/9」に端末装置100を利用するユーザが「行動情報1」に示す行動を行い、「行動情報1」から「解析結果1」が抽出された例を示す。 That is, in FIG. 9, an example in which the user who uses the terminal device 100 performs the action shown in “action information 1” on the date “20XX/1/9” and “analysis result 1” is extracted from “action information 1” Indicates.

(入力部130及び出力部140について)
入力部130は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部130は、キーボードやマウスや操作キー等によって実現される。出力部140は、各種情報を表示するための表示装置である。つまり、出力部140は、端末装置100の表示画面に相当する。例えば、出力部140は、液晶ディスプレイ等によって実現される。なお、端末装置100にタッチパネルが採用される場合、入力部130及び出力部140は一体化される。
(Regarding the input unit 130 and the output unit 140)
The input unit 130 is an input device that receives various operations from a user. For example, the input unit 130 is realized by a keyboard, a mouse, operation keys, or the like. The output unit 140 is a display device for displaying various information. That is, the output unit 140 corresponds to the display screen of the terminal device 100. For example, the output unit 140 is realized by a liquid crystal display or the like. When the touch panel is used as the terminal device 100, the input unit 130 and the output unit 140 are integrated.

(撮像部150について)
撮像部150は、レンズ等の光学系と、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子とを有する。
(About the imaging unit 150)
The image pickup unit 150 has an optical system such as a lens, and an image pickup element such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor.

(制御部160について)
制御部160は、コントローラであり、例えば、CPUやMPU等によって、端末装置100内部の記憶装置に記憶されている各種プログラム(表示プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。なお、制御部160は、上述した表示処理を実現する制御情報又はアプリケーションをコンテンツ配信サーバ10から配信された場合、かかる制御情報又はアプリケーションに従って動作し、表示処理を実現する。
(About control unit 160)
The control unit 160 is a controller, and various programs (corresponding to an example of a display program) stored in a storage device inside the terminal device 100 are executed by a RAM as a work area by a CPU, an MPU, or the like, for example. Will be realized. When the control information or application for realizing the above-mentioned display processing is distributed from the content distribution server 10, the control unit 160 operates according to the control information or application to realize the display processing.

また、制御部160は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。実施形態に係る制御部160は、図8に示すように、取得部161と、処理部162と、推定部163と、検索部164と、表示部165と、表示制御部166とを有し、以下に説明する情報処理の機能や作用を実現または実行する。 The control unit 160 is a controller and is realized by an integrated circuit such as an ASIC or FPGA. As illustrated in FIG. 8, the control unit 160 according to the embodiment includes an acquisition unit 161, a processing unit 162, an estimation unit 163, a search unit 164, a display unit 165, and a display control unit 166. It realizes or executes the functions and actions of information processing described below.

(取得部161について)
取得部161は、撮影画像を用いて、当該撮影画像に撮影された撮影対象に関する情報である対象情報を取得する。例えば、図3の例において、取得部161は、端末装置100の画面のスクリーンショットや、ユーザU1が端末装置100を用いて撮影した画像及び動画、ユーザU1が端末装置100を用いて閲覧した画像及び動画、ユーザU1が端末装置100を用いて送受信した電子メール、ユーザU1が端末装置100を介して利用したアプリケーション、ウェブサービス等においてブックマークしたコンテンツ等を含む行動情報に対して、画像解析、形態素解析等の種々の従来技術を適宜用いて解析することにより、対象情報を取得する。
(About the acquisition unit 161)
The acquisition unit 161 acquires, using the captured image, target information that is information regarding the capturing target captured in the captured image. For example, in the example of FIG. 3, the acquisition unit 161 includes a screen shot of the screen of the terminal device 100, images and videos captured by the user U1 using the terminal device 100, and images browsed by the user U1 using the terminal device 100. Image analysis, morpheme to action information including moving images, e-mails transmitted and received by the user U1 using the terminal device 100, applications used by the user U1 via the terminal device 100, contents bookmarked in web services, and the like. The target information is acquired by performing analysis by appropriately using various conventional techniques such as analysis.

また、取得部161は、撮影対象の提供元となるアプリケーションに関する情報を示す対象情報を取得してもよい。例えば、図3の例において、取得部161は、行動情報の提供元(例えば、アプリケーション、ウェブサービスなど)を特定するための情報を含む対象情報を取得する。 The acquisition unit 161 may also acquire target information indicating information about an application that is a provider of a shooting target. For example, in the example of FIG. 3, the acquisition unit 161 acquires target information including information for specifying the source of the behavior information (for example, application, web service, etc.).

また、取得部161は、撮影対象の提供元となるアプリケーションを示すアイコン画像を含む対象情報を取得してもよい。例えば、図3の例において、取得部161は、行動情報の提供元に対応するアイコン画像(例えば、アプリアイコンや、ウェブサービスに設定されているアイコン画像(ウェブクリックアイコン)など)等を含む対象情報を取得する。 The acquisition unit 161 may also acquire target information including an icon image indicating an application that is a provider of a shooting target. For example, in the example of FIG. 3, the acquisition unit 161 includes a target including an icon image (for example, an application icon or an icon image (web click icon) set in a web service) corresponding to the source of the behavior information. Get information.

また、取得部161は、撮影対象となる文字列の解析結果を対象情報として取得してもよい。例えば、図3の例において、取得部161は、行動情報に対して、画像解析、形態素解析等の種々の従来技術を適宜用いて解析することにより、テキスト情報や、時間情報、位置情報等を含む対象情報を取得する。 In addition, the acquisition unit 161 may acquire the analysis result of the character string to be captured as the target information. For example, in the example of FIG. 3, the acquisition unit 161 analyzes text information, time information, position information, and the like by analyzing action information by appropriately using various conventional techniques such as image analysis and morphological analysis. Acquire the target information that includes.

また、取得部161は、撮影対象となる二次元コードが示す情報を示す対象情報を取得する。通常、チケット販売サービス等から提供されるチケットの発券コード(例えば、QRコード(登録商標)等)の表示画面には、発券コードと共に発券コードに対応するイベントの開催日時に関する時間情報や、開催地に関する位置情報等の情報が表示されることが想定される。そのため、取得部161は、二次元コードを表示した画面のスクリーンショットに対して、画像解析を用いて解析することにより、二次元コードが示す情報を示す時間情報や、位置情報等の対象情報を取得する。 In addition, the acquisition unit 161 acquires target information indicating information indicated by the two-dimensional code to be captured. Normally, a ticket issuing code (eg, QR code (registered trademark)) display screen provided by a ticket sales service or the like displays time information about the date and time of the event corresponding to the ticket issuing code together with the ticket issuing code and the venue. It is assumed that information such as location information regarding is displayed. Therefore, the acquisition unit 161 analyzes the screen shot of the screen displaying the two-dimensional code using image analysis to obtain target information such as time information indicating the information indicated by the two-dimensional code and position information. get.

なお、取得部161は、コンテンツ配信サーバ10から対象情報を取得してもよい。例えば、取得部161は、行動情報の提供元を特定するための情報と共に行動情報をコンテンツ配信サーバ10に送信する。そして、取得部161は、コンテンツ配信サーバ10が行動情報の提供元を特定するための情報及び行動情報を解析することにより抽出した対象情報をコンテンツ配信サーバ10から受け付けることにより、対象情報を取得してもよい。 The acquisition unit 161 may acquire the target information from the content distribution server 10. For example, the acquisition unit 161 transmits the behavior information to the content distribution server 10 together with the information for identifying the provider of the behavior information. Then, the acquisition unit 161 acquires the target information by receiving from the content distribution server 10 the target information extracted by the content distribution server 10 analyzing the information for identifying the source of the behavior information and the behavior information. May be.

(処理部162について)
処理部162は、対象情報として取得された文字列と対応する処理を実行する。例えば、処理部162は、ユーザU1の現在位置に基づいて、対象情報として取得された文字列と対応する処理を実行する。例えば、図3の例において、行動情報(例えば、飲食店紹介サービスにおいてユーザがブックマークした飲食店に関するコンテンツ)に位置情報が含まれる場合、処理部162は、ユーザU1の現在位置が当該位置情報から所定の範囲内(例えば、100メートル、500メートルなど)である場合、ユーザU1に当該行動情報に関する通知を行う。
(About processing unit 162)
The processing unit 162 executes a process corresponding to the character string acquired as the target information. For example, the processing unit 162 executes processing corresponding to the character string acquired as the target information, based on the current position of the user U1. For example, in the example of FIG. 3, when the action information (for example, the content related to the restaurant bookmarked by the user in the restaurant introduction service) includes the position information, the processing unit 162 determines that the current position of the user U1 is from the position information. When it is within a predetermined range (for example, 100 meters, 500 meters, etc.), the user U1 is notified of the action information.

また、例えば、図3の例において、処理部162は、ユーザU1にサービスを提供するサービス提供装置などの外部装置20等からユーザU1の現在位置周辺の店舗に関する情報を収集する。そして、端末装置100は、ユーザU1の現在位置から所定の範囲内の店舗にユーザの行動情報に対応する商品(例えば、サムネイルD6〜9に対応する商品)を扱う店舗が存在する場合、ユーザU1に当該行動情報に関する通知を行う。 Further, for example, in the example of FIG. 3, the processing unit 162 collects information about stores around the current position of the user U1 from the external device 20 or the like such as a service providing device that provides a service to the user U1. Then, when there is a store that handles products corresponding to the behavior information of the user (for example, products corresponding to the thumbnails D6 to 9) in a store within a predetermined range from the current position of the user U1, the terminal device 100, the user U1. To the relevant action information.

また、処理部162は、行動情報の提供元から提供される情報に基づいて対象情報が更新された旨の通知をユーザU1に行ってもよい。例えば、図3の例において、処理部162は、サムネイルD1の行動情報に対応する飲食店Aの営業時間や、休業日などの変更に関する情報や、サムネイルD2の行動情報に対応する電車の遅延情報、サムネイルD6〜D9の行動情報に対応する商品の価格の変更に関する情報等の通知をユーザU1に行ってもよい。また、処理部162は、各種交通手段の遅延情報の通知とともに、迂回案に関する情報をユーザU1に通知してもよい。 In addition, the processing unit 162 may notify the user U1 that the target information has been updated based on the information provided by the behavior information provider. For example, in the example of FIG. 3, the processing unit 162 includes information about changes in the business hours of the restaurant A corresponding to the behavior information of the thumbnail D1, holidays, and train delay information corresponding to the behavior information of the thumbnail D2. Alternatively, the user U1 may be notified of information such as information regarding price changes of products corresponding to the behavior information of the thumbnails D6 to D9. Further, the processing unit 162 may notify the user U1 of the information regarding the detour plan as well as the notification of the delay information of various transportation means.

また、処理部162は、対象情報として取得された文字列が時刻を示す場合は、当該時刻を利用者に通知する処理を実行してもよい。例えば、図3の例において、処理部162は、対象情報に時間情報が含まれるサムネイルD2〜D4に対応する行動情報に関する通知を当該時間情報に基づいて行ってもよい。 In addition, when the character string acquired as the target information indicates the time, the processing unit 162 may execute a process of notifying the user of the time. For example, in the example of FIG. 3, the processing unit 162 may notify the action information corresponding to the thumbnails D2 to D4 whose target information includes time information based on the time information.

(推定部163について)
推定部163は、ユーザの行動に関する行動情報に基づいて、ユーザの行動と対応する主題を推定する。例えば、図1の例において、推定部163は、端末装置100に実装された情報収集アプリにより収集されたユーザU1の行動情報に基づいて、ユーザU1の行動と対応する主題を推定する。
(About the estimation unit 163)
The estimation unit 163 estimates the subject corresponding to the user's action based on the action information regarding the user's action. For example, in the example of FIG. 1, the estimation unit 163 estimates the subject corresponding to the action of the user U1 based on the action information of the user U1 collected by the information collection application installed in the terminal device 100.

また、推定部163は、行動情報のうち一部の行動情報に基づいて、主題を推定してもよい。例えば、図1の例において、推定部163は、「仙台」に関連する行動情報(サムネイルD1〜D3に対応する行動情報)に基づいて、ユーザU1の行動の主題を推定する。 In addition, the estimation unit 163 may estimate the subject based on a part of the behavior information among the behavior information. For example, in the example of FIG. 1, the estimation unit 163 estimates the subject of the action of the user U1 based on the action information related to “Sendai” (action information corresponding to the thumbnails D1 to D3).

また、推定部163は、行動情報のうちユーザによって選択された行動情報に基づいて、主題を推定してもよい。例えば、図1の例において、推定部163は、ユーザU1が選択したサムネイルD1〜D3に対応する行動情報に基づいて、ユーザU1の行動の主題を推定する。 In addition, the estimation unit 163 may estimate the subject based on the action information selected by the user from the action information. For example, in the example of FIG. 1, the estimation unit 163 estimates the subject of the behavior of the user U1 based on the behavior information corresponding to the thumbnails D1 to D3 selected by the user U1.

また、推定部163は、ユーザの操作に応じて保存された情報である行動情報に基づいて、主題を推定してもよい。例えば、図1の例において、推定部163は、ユーザU1が端末装置100を用いて取得した端末装置100の画面のスクリーンショットや、ユーザU1が端末装置100を用いて撮影した画像及び動画、ユーザU1が端末装置100を用いて閲覧した画像及び動画、ユーザU1が端末装置100を用いて送受信した電子メール、ユーザU1が端末装置100を介して利用したアプリケーション、ウェブサービス等においてブックマークしたコンテンツなどといった、ユーザU1の能動的な操作によって取得された行動情報に基づいて、ユーザU1の行動の主題を推定する。 In addition, the estimation unit 163 may estimate the subject based on the action information that is information stored according to the user's operation. For example, in the example of FIG. 1, the estimation unit 163 uses a screen shot of the screen of the terminal device 100 acquired by the user U1 using the terminal device 100, images and videos captured by the user U1 using the terminal device 100, and the user. Images and videos viewed by the U1 using the terminal device 100, e-mails transmitted and received by the user U1 using the terminal device 100, applications used by the user U1 via the terminal device 100, contents bookmarked in web services, etc. , The subject of the action of the user U1 is estimated based on the action information acquired by the active operation of the user U1.

また、推定部163は、電子メールに関する情報を含む行動情報に基づいて、主題を推定してもよい。例えば、図1の例において、推定部163は、ユーザU1が端末装置100を用いて受信した、「1月13日」における仙台市内のホテルBの予約確認に関する電子メールを含む行動情報に基づいて、ユーザU1の行動の主題を推定する。 In addition, the estimation unit 163 may estimate the subject based on the action information including the information regarding the electronic mail. For example, in the example of FIG. 1, the estimation unit 163 is based on the behavior information that the user U1 receives using the terminal device 100 and that includes the email regarding the reservation confirmation of the hotel B in Sendai city on “January 13”. Then, the subject of the behavior of the user U1 is estimated.

また、推定部163は、アプリケーションの表示画面に関する画像の画像認識結果に基づく情報を含む行動情報に基づいて、主題を推定してもよい。例えば、図1の例において、推定部163は、所定のアプリケーション上における路線検索サービスの表示画面のスクリーンショットに対し、種々の従来技術を適宜用いて解析することによりテキスト情報や、時間情報、位置情報等の情報を抽出する。そして、推定部163は、抽出した情報を含む行動情報に基づいてユーザU1の行動の主題を推定する。 In addition, the estimation unit 163 may estimate the subject based on the action information including the information based on the image recognition result of the image regarding the display screen of the application. For example, in the example of FIG. 1, the estimation unit 163 analyzes text information, time information, and position by analyzing screen shots of the display screen of the route search service on a predetermined application by appropriately using various conventional techniques. Extract information such as information. Then, the estimation unit 163 estimates the subject of the behavior of the user U1 based on the behavior information including the extracted information.

また、推定部163は、ユーザが行った経路検索の結果を含む行動情報を取得し、経路検索の結果に基づいてユーザが訪問する地域を推定し、推定した地域を主題としてもよい。例えば、図1の例において、推定部163は、ユーザU1が行った路線検索サービスにおける検索結果の表示画面のスクリーンショットを含む行動情報を取得する。そして、推定部163は、表示画面のスクリーンショットに対し、種々の従来技術を適宜用いて解析することにより抽出した到着地「仙台」に関連する主題「仙台旅行」をユーザU1の行動の主題とする。 In addition, the estimation unit 163 may acquire the behavior information including the result of the route search performed by the user, estimate the region visited by the user based on the result of the route search, and use the estimated region as the subject. For example, in the example of FIG. 1, the estimation unit 163 acquires action information including a screen shot of a search result display screen in the route search service performed by the user U1. Then, the estimation unit 163 sets the subject “Sendai trip” related to the destination “Sendai” extracted by analyzing the screen shot of the display screen by appropriately using various conventional techniques as the subject of the behavior of the user U1. To do.

また、推定部163は、行動情報のうちユーザによって選択された行動情報に基づいて、主題を推定してもよい。例えば、図1の例において、推定部163は、ユーザU1によって選択されたサムネイルD1〜D3に対応する行動情報に基づいて、ユーザU1の行動の主題を推定する。 In addition, the estimation unit 163 may estimate the subject based on the action information selected by the user from the action information. For example, in the example of FIG. 1, the estimation unit 163 estimates the subject of the action of the user U1 based on the action information corresponding to the thumbnails D1 to D3 selected by the user U1.

なお、推定部163は、コンテンツ配信サーバ10から行動情報に含まれるテキスト情報や、時間情報、位置情報等の情報を取得してもよい。例えば、推定部163は、行動情報をコンテンツ配信サーバ10に送信する。そして、推定部163は、コンテンツ配信サーバ10が行動情報を解析することにより抽出したテキスト情報や、時間情報、位置情報等の情報をコンテンツ配信サーバ10から受け付け、受け付けた情報に基づいてユーザの行動の主題を推定する。また、推定部163は、コンテンツ配信サーバ10に送信した行動情報に基づいてコンテンツ配信サーバ10(推定部17)が推定したユーザの行動の主題に関する情報を取得してもよい。また、推定部163は、推定部163が推定したユーザの行動の主題と、コンテンツ配信サーバ10が推定したユーザの行動の主題との同期をとるようにしてもよい。 The estimating unit 163 may acquire information such as text information, time information, and position information included in the behavior information from the content distribution server 10. For example, the estimation unit 163 transmits the behavior information to the content distribution server 10. Then, the estimation unit 163 receives information such as text information extracted by the content distribution server 10 by analyzing the behavior information, time information, and position information from the content distribution server 10, and the user's behavior based on the received information. Estimate the subject of. In addition, the estimation unit 163 may acquire information on the subject of the user's action estimated by the content delivery server 10 (estimation unit 17) based on the action information transmitted to the content delivery server 10. The estimating unit 163 may synchronize the subject of the user's action estimated by the estimating unit 163 and the subject of the user's action estimated by the content distribution server 10.

(検索部164について)
検索部164は、推定部163により推定された主題と対応する情報を検索する。例えば、図2の例において、検索部164は、行動情報記憶部121や、ユーザU1にサービスを提供するサービス提供装置などの外部装置20等から、行動の主題「仙台旅行」と対応する情報を検索する。
(About the search unit 164)
The search unit 164 searches for information corresponding to the subject estimated by the estimation unit 163. For example, in the example of FIG. 2, the search unit 164 obtains information corresponding to the subject “Sendai trip” of the action from the action information storage unit 121, the external device 20 such as the service providing device that provides the service to the user U1, and the like. Search for.

また、検索部164は、行動情報から主題と対応する情報を検索してもよい。例えば、図2の例において、検索部164は、端末装置100に実装された情報収集アプリにより収集した行動情報であって、行動の主題「仙台旅行」に関連する行動情報を検索する。 Further, the search unit 164 may search the action information for information corresponding to the subject. For example, in the example of FIG. 2, the search unit 164 searches the behavior information collected by the information collection application installed in the terminal device 100 and related to the behavior subject “Sendai trip”.

また、検索部164は、主題と対応するウェブ上の情報を検索してもよい。例えば、図2の例において、検索部164は、ウェブページや、端末装置100にインストールされた各種アプリから、行動の主題「仙台旅行」と対応する情報を検索する。 The search unit 164 may search for information on the web corresponding to the subject. For example, in the example of FIG. 2, the search unit 164 searches the web page and various applications installed in the terminal device 100 for information corresponding to the subject “Sendai trip” of the action.

また、検索部164は、主題と対応する施設であって、ユーザによって選択された行動情報と対応する位置から所定の範囲内にある施設の情報を検索してもよい。例えば、検索部164は、ユーザによって選択された行動情報に位置情報が含まれる場合、当該位置情報から所定の範囲内(例えば、100メートル、500メートルなど)にある主題と対応する施設の情報を検索する。 Further, the search unit 164 may search for information on facilities that correspond to the subject and that are within a predetermined range from the position that corresponds to the behavior information selected by the user. For example, when the action information selected by the user includes location information, the search unit 164 retrieves information on facilities corresponding to subjects within a predetermined range (for example, 100 meters, 500 meters, etc.) from the location information. Search for.

また、検索部164は、ユーザの検索履歴に基づいて、施設の情報を検索する。例えば、検索部164は、端末装置100に実装された情報収集アプリにより収集した行動情報に含まれるユーザの検索履歴に基づいて、施設の情報を検索する。 In addition, the search unit 164 searches for facility information based on the search history of the user. For example, the search unit 164 searches facility information based on the user's search history included in the behavior information collected by the information collection application installed in the terminal device 100.

なお、検索部164は、推定部163がコンテンツ配信サーバ10から取得したユーザの行動の主題に関する情報に基づいて、当該情報が示すユーザの行動の主題に対応する情報を検索してもよい。例えば、検索部164は、推定部163がコンテンツ配信サーバ10から取得したユーザの行動の主題に関する情報が「仙台旅行」を示すものである場合、「仙台旅行」と対応する情報を行動情報記憶部121や、ユーザU1にサービスを提供するサービス提供装置などの外部装置20等から検索する。 The search unit 164 may search for information corresponding to the subject of the user's action indicated by the information, based on the information on the subject of the user's action acquired by the estimation unit 163 from the content distribution server 10. For example, when the information about the subject of the user's action acquired from the content distribution server 10 by the estimation unit 163 indicates “Sendai trip”, the search unit 164 stores information corresponding to “Sendai trip” in the action information storage unit. 121 or an external device 20 such as a service providing device that provides a service to the user U1.

(表示部165について)
表示部165は、少なくとも、検索部164により検索された情報に基づいたコンテンツを表示する。例えば、図2の例において、表示部165は、ユーザU1にサービスを提供するサービス提供装置などの外部装置20や、端末装置100に実装された情報収集アプリにより収集したユーザU1の行動情報等から検索部164により検索された行動の主題「仙台旅行」と対応する情報に基づいたコンテンツC1を表示する。
(About display unit 165)
The display unit 165 displays at least the content based on the information retrieved by the retrieval unit 164. For example, in the example of FIG. 2, the display unit 165 displays the external device 20 such as a service providing device that provides a service to the user U1, the action information of the user U1 collected by the information collecting application installed in the terminal device 100, and the like. The content C1 based on the information corresponding to the action subject “Sendai trip” retrieved by the retrieval unit 164 is displayed.

また、表示部165は、ユーザの行動に関する行動情報と、検索部164により検索された情報とに基づいたコンテンツを表示してもよい。例えば、図2の例において、表示部165は、端末装置100に実装された情報収集アプリにより収集した行動情報に対応するコンテンツC11、コンテンツC12及びコンテンツC13と、検索部164により検索された情報に対応するコンテンツC17とに基づいたコンテンツC1を表示する。 The display unit 165 may also display content based on the behavior information regarding the behavior of the user and the information retrieved by the retrieval unit 164. For example, in the example of FIG. 2, the display unit 165 displays the content C11, the content C12, and the content C13 corresponding to the behavior information collected by the information collection application installed in the terminal device 100, and the information searched by the search unit 164. The content C1 based on the corresponding content C17 is displayed.

また、表示部165は、ユーザの状況に応じた態様でコンテンツを表示してもよい。例えば、図2の例において、表示部165は、現在時刻が朝(例えば、5時から8時)または夜(例えば、18時から24時)の場合にコンテンツC1を表示する際、ユーザU1が当日のスケジュールまたは翌日のスケジュールを確認することを目的としてコンテンツC1を閲覧することが想定されるため、コンテンツC1をタイムラインの形式(図2の第1状態、第2状態及び第4状態)や、アルバムの形式(図2の第6状態)で表示する。 In addition, the display unit 165 may display the content in a mode according to the situation of the user. For example, in the example of FIG. 2, when the current time is morning (for example, 5:00 to 8:00) or night (for example, 18:00 to 24:00), the display unit 165 displays the content C1 by the user U1. Since it is assumed that the content C1 is browsed for the purpose of confirming the schedule of the current day or the schedule of the next day, the content C1 is displayed in a timeline format (first state, second state and fourth state in FIG. 2) or , Album format (sixth state in FIG. 2).

また、例えば、表示部165は、端末装置100に実装された種々のセンサにより検知されたセンサ情報に基づいて推定されるユーザの状況に応じた態様でコンテンツを表示する。例えば、図2の例において、端末装置100に実装された種々のセンサにより、ユーザの状況が「歩行状態」と推定された場合、表示部165は、コンテンツC1をマップの形式(図2の第5状態)で表示する。 Further, for example, the display unit 165 displays the content in a mode according to the situation of the user estimated based on the sensor information detected by various sensors mounted on the terminal device 100. For example, in the example of FIG. 2, when the user's situation is estimated to be the “walking state” by the various sensors mounted on the terminal device 100, the display unit 165 displays the content C1 in the map format (see FIG. 2). 5 states).

また、表示部165は、主題に応じた態様でコンテンツを表示する。例えば、図2の例において、表示部165は、推定部163がユーザU1の行動の主題を「仙台旅行」と推定したため、旅行に応じたイムラインの形式でコンテンツC1を表示し、編集操作を受け付ける。なお、表示部165は、推定部163が推定したユーザの行動の主題に応じて、種々の態様でコンテンツを表示してもよい。ここで、図10を用いて、コンテンツをアルバムの形式で表示する例を示す。図10は、実施形態に係る端末装置の一例を示す図(5)である。 Further, the display unit 165 displays the content in a mode according to the subject. For example, in the example of FIG. 2, the display unit 165 displays the content C1 in the format of the imline according to the trip and accepts the editing operation because the estimation unit 163 has estimated that the subject of the user U1's action is “Sendai trip”. .. The display unit 165 may display the content in various modes according to the subject of the behavior of the user estimated by the estimation unit 163. Here, an example of displaying the content in the form of an album will be described with reference to FIG. FIG. 10 is a diagram (5) illustrating an example of the terminal device according to the embodiment.

なお、図10の例において、電子商取引サービスにおいてユーザU1がブックマークした商品(靴H〜靴K)に関する行動情報が選択され、推定部163がユーザU1の行動の主題を「購入する靴を検討中(ほしいものメモ)」と推定したものとする。そして、図10の第1状態(図1の第5状態に相当)において、表示部165がユーザU1の行動の主題「ほしいものメモ」に対応するコンテンツを領域AR11に表示したものとする。 In the example of FIG. 10, the behavior information regarding the product (shoes H to shoes K) bookmarked by the user U1 in the electronic commerce service is selected, and the estimation unit 163 sets the subject of the behavior of the user U1 as “under consideration of shoes to purchase”. (Note of what you want)”. Then, in the first state of FIG. 10 (corresponding to the fifth state of FIG. 1), it is assumed that the display unit 165 displays content corresponding to the subject “wanted memo” of the behavior of the user U1 in the area AR11.

図10の第1状態において、行動の主題「ほしいものメモ」に対応するコンテンツに対するユーザU1の選択操作を受け付けることにより、表示部165は、画面を第2状態に遷移させる。図10の第2状態は、ユーザが選択した行動情報に対応する情報が表示された状態を示す。図10の例において、表示部165は、ユーザが選択した行動情報に対応するコンテンツC21〜C24を画面に表示する。また、表示部165は、コンテンツC21〜C24の表示態様の変更をユーザU1が指示するための領域AR22を画面に表示する。 In the first state of FIG. 10, the display unit 165 transitions the screen to the second state by accepting the selection operation of the user U1 with respect to the content corresponding to the action subject “wanted memo”. The second state of FIG. 10 shows a state in which information corresponding to the action information selected by the user is displayed. In the example of FIG. 10, the display unit 165 displays the contents C21 to C24 corresponding to the action information selected by the user on the screen. Further, the display unit 165 displays an area AR22 for the user U1 to instruct to change the display mode of the contents C21 to C24 on the screen.

図10の第2状態において、表示部165は、行動情報の提供元から取得した商品の画像や、商品の価格、値引きに関する情報等を含むコンテンツC21〜C24を表示する。なお、図10の第2状態において、表示部165は、ユーザU1の行動情報に基づくデモグラフィック属性やサイコグラフィック属性に基づいて、ユーザU1の行動の主題において購入の検討対象となっている靴に関する情報を表示してもよい。 In the second state of FIG. 10, the display unit 165 displays the content C21 to C24 including the image of the product acquired from the source of the action information, the price of the product, the information about the discount, and the like. Note that, in the second state of FIG. 10, the display unit 165 relates to the shoes that are considered for purchase in the subject of the behavior of the user U1, based on the demographic attribute or the psychographic attribute based on the behavior information of the user U1. Information may be displayed.

また、図10の第2状態において、領域AR22が選択された場合、表示部165は、コンテンツC21〜C24に対応する商品を販売している実店舗の位置を示す地図情報を画面に表示してもよい。例えば、表示部165は、ユーザU1の現在位置から所定の範囲内(例えば、100メートル、500メートルなど)でコンテンツC21〜C24に対応する商品を販売している実店舗の位置を示す地図情報を画面に表示する。 Further, in the second state of FIG. 10, when the area AR22 is selected, the display unit 165 displays map information indicating the position of the actual store that sells the products corresponding to the contents C21 to C24 on the screen. Good. For example, the display unit 165 displays map information indicating the position of a physical store that sells products corresponding to the contents C21 to C24 within a predetermined range (for example, 100 meters, 500 meters, etc.) from the current position of the user U1. Display on screen.

続いて、図10の第3状態は、ユーザU1が選択した行動情報に対応する情報が表示された状態を示す。例えば、図10の例において、表示部165は、電子商取引サービスにおいてユーザU1が選択した行動情報に対応する商品のページを情報収集アプリに含まれるブラウザに表示する。 Subsequently, the third state of FIG. 10 shows a state in which information corresponding to the action information selected by the user U1 is displayed. For example, in the example of FIG. 10, the display unit 165 displays the page of the product corresponding to the behavior information selected by the user U1 in the electronic commerce service on the browser included in the information collection application.

また、表示部165は、主題と対応する情報から時間情報または位置情報を抽出し、当該時間情報または当該位置情報に基づく表示位置に主題と対応する情報を配置したコンテンツを表示してもよい。例えば、図2の例において、表示部165は、コンテンツC1に含まれるコンテンツに対応する行動情報から時間情報を抽出し、抽出した時間情報に対応する表示位置にコンテンツを配置して画面に表示する。また、図2の例において、表示部165は、「仙台駅」を出発地点として設定し、コンテンツC1に含まれる各コンテンツに対応する行動情報等から位置情報を抽出する。そして、表示部165は、抽出した位置情報の「仙台駅」からの距離に応じて各コンテンツをコンテンツC1に配置して画面に表示する。 Further, the display unit 165 may extract time information or position information from the information corresponding to the subject, and display the content in which the information corresponding to the subject is arranged at the display position based on the time information or the position information. For example, in the example of FIG. 2, the display unit 165 extracts the time information from the action information corresponding to the content included in the content C1, arranges the content at the display position corresponding to the extracted time information, and displays the content on the screen. .. Further, in the example of FIG. 2, the display unit 165 sets “Sendai Station” as a departure point and extracts position information from action information or the like corresponding to each content included in the content C1. Then, the display unit 165 arranges each content in the content C1 according to the distance from the “Sendai Station” of the extracted position information and displays it on the screen.

また、表示部165は、位置情報に基づいて、主題と対応する情報を配置した地図情報を含むコンテンツを表示してもよい。例えば、図2の例において、表示部165は、コンテンツC1に含まれるコンテンツに対応する行動情報等から位置情報を抽出し、仙台市の地図上において抽出した位置情報に対応する位置に各コンテンツを配置して画面に表示する。 Further, the display unit 165 may display the content including the map information in which the information corresponding to the subject is arranged based on the position information. For example, in the example of FIG. 2, the display unit 165 extracts the position information from the action information or the like corresponding to the content included in the content C1, and displays each content at the position corresponding to the extracted position information on the map of Sendai city. Place and display on the screen.

また、表示部165は、時間情報または位置情報に基づいて、主題と対応する情報を時系列に沿った順に配置したコンテンツを表示してもよい。例えば、図2の例において、表示部165は、コンテンツC1に含まれるコンテンツに対応する行動情報等から時間情報または位置情報を抽出し、コンテンツC1に含まれる各コンテンツを、領域AR21に配置して画面に表示する。 The display unit 165 may also display content in which information corresponding to the subject is arranged in chronological order based on the time information or the position information. For example, in the example of FIG. 2, the display unit 165 extracts time information or position information from the action information or the like corresponding to the content included in the content C1 and arranges each content included in the content C1 in the area AR21. Display on screen.

また、表示部165は、ユーザによって選択された行動情報と、ウェブ上の情報とを表示してもよい。例えば、図2の例において、表示部165は、ユーザU1によって選択された行動情報に対応するコンテンツC11、コンテンツC12及びコンテンツC13と、検索部164が検索した情報に対応するコンテンツを含むコンテンツC1を表示する。 Further, the display unit 165 may display the action information selected by the user and the information on the web. For example, in the example of FIG. 2, the display unit 165 displays the content C11, the content C12, and the content C13 corresponding to the action information selected by the user U1, and the content C1 including the content corresponding to the information searched by the search unit 164. indicate.

なお、表示部165は、行動の主題のレコメンドを表示してもよい。ここで、図11を用いて、行動の主題のレコメンドを表示する例を示す。図11は、実施形態に係る端末装置の一例を示す図(6)である。 The display unit 165 may display the recommendation of the subject of the action. Here, with reference to FIG. 11, an example of displaying the recommendation of the subject of the action will be described. FIG. 11 is a diagram (6) illustrating an example of the terminal device according to the embodiment.

なお、図11の例において、端末装置100に実装された情報収集アプリによって、映画Lに関するユーザU1の行動情報が収集されているものとする。例えば、図11の例において、映画Lに関する行動情報として、ユーザU1が端末装置100を用いて閲覧した映画Lに関する画像及び動画、映画Lを上映している映画館Mに関するウェブサービスにおけるブックマーク等が情報収集アプリによって収集されているものとする。また、図11の例において、推定部163が映画Lに関する行動情報に基づいて、ユーザU1の行動の主題を「映画L」と推定したものとする。そして、図11の第1状態(図1の第5状態に相当)において、表示部165がユーザU1にレコメンドする行動の主題「映画L」に対応するコンテンツを領域AR11に表示したものとする。 In addition, in the example of FIG. 11, it is assumed that the action information of the user U1 regarding the movie L is collected by the information collection application installed in the terminal device 100. For example, in the example of FIG. 11, as the action information regarding the movie L, an image and a movie regarding the movie L browsed by the user U1 using the terminal device 100, a bookmark in a web service regarding the movie theater M showing the movie L, and the like. It is supposed to be collected by the information collection app. Further, in the example of FIG. 11, it is assumed that the estimation unit 163 estimates the subject of the action of the user U1 as “movie L” based on the action information regarding the movie L. Then, in the first state of FIG. 11 (corresponding to the fifth state of FIG. 1), it is assumed that the display unit 165 displays content corresponding to the subject “movie L” of the action recommended to the user U1 in the area AR11.

図11の第1状態は、行動の主題のレコメンドを表示した状態を示す。図11の第1状態において、表示部165は、行動の主題「映画L」に対応するコンテンツの視認性を低下させた状態で、「今週末映画を見に行きませんか?」といったテキストと共に表示する。ここで、行動の主題「映画L」に対応するコンテンツに対するユーザU1の選択操作を受け付けることにより、表示部165は、画面を第2状態に遷移させる。 The first state of FIG. 11 shows a state in which recommendations of the subject of action are displayed. In the first state of FIG. 11, the display unit 165 reduces the visibility of the content corresponding to the action subject “Movie L” and displays the text “Why not go see a movie this weekend?” indicate. Here, the display unit 165 transitions the screen to the second state by accepting the selection operation of the user U1 with respect to the content corresponding to the action subject “movie L”.

続いて、図11の第2状態は、行動の主題「映画L」に関連するコンテンツが表示された状態を示す。例えば、図11の例において、検索部164は、行動の主題「映画L」に関連する情報を検索する。そして、表示部165は、検索部164が検索した情報から時間情報を抽出し、抽出した時間情報に対応する表示位置に当該情報を示すコンテンツC25〜C27の視認性を低下させて表示する。また、図11の第1状態においても、端末装置100は、領域AR22及び領域AR23を表示する。ここで、コンテンツC25は、路線検索サービスにおけるユーザU1の居住地域「下北沢」から映画館Mの所在地「新宿」までの乗り換え案内に関する情報を示す。また、コンテンツC26は、映画館Mにおける映画Lの上映時間に関する情報を示す。また、コンテンツC27は、検索部164が行動の主題「映画L」においてユーザU1が訪問する地域「新宿」に関連する情報(所在地が「新宿」である飲食店Nに関する情報)を検索した結果を示す。 Subsequently, the second state of FIG. 11 shows a state in which the content related to the action subject “movie L” is displayed. For example, in the example of FIG. 11, the search unit 164 searches for information related to the action subject “movie L”. Then, the display unit 165 extracts the time information from the information searched by the search unit 164, and displays it at the display position corresponding to the extracted time information while reducing the visibility of the contents C25 to C27 indicating the information. Further, also in the first state of FIG. 11, the terminal device 100 displays the area AR22 and the area AR23. Here, the content C25 indicates information regarding transfer guidance from the residential area "Shimokitazawa" of the user U1 to the location "Shinjuku" of the movie theater M in the route search service. Also, the content C26 indicates information regarding the show time of the movie L in the movie theater M. In addition, the content C27 is a result of the search unit 164 searching for information related to the area “Shinjuku” that the user U1 visits in the action subject “movie L” (information about the restaurant N whose location is “Shinjuku”). Show.

なお、図11の第2状態において、コンテンツC25〜C27に所定の操作(例えば、タップ、ロングタップなど)が行われた場合、各コンテンツに対応するアプリケーションや、ウェブサービス、コンテンツ等を表示してもよい。例えば、コンテンツC25に所定の操作が行われた場合、表示部165は、路線検索サービスをコンテンツC25に対応するパラメータ情報が入力された状態で立ち上げる。そして、表示部165は、パラメータ情報が変更(例えば、到着時間が変更)された場合、図11の第2状態において、変更後のパラメータ情報に対応する表示位置にコンテンツC25を表示する。また、例えば、コンテンツC26またはC27に所定の操作が行われた場合、表示部165は、施設予約サービスにおける映画Lまたは飲食店Nの予約に関するページを表示する。また、例えば、コンテンツC27に所定の操作が行われた場合、表示部165は、ユーザU1が訪問する地域「新宿」に関連する情報であって、飲食店Nに関する情報とは異なる情報に対応するコンテンツをユーザU1にレコメンドするコンテンツとして画面に表示する。 In the second state of FIG. 11, when a predetermined operation (for example, tap, long tap, etc.) is performed on the contents C25 to C27, an application corresponding to each content, a web service, contents, etc. are displayed. Good. For example, when a predetermined operation is performed on the content C25, the display unit 165 launches the route search service with the parameter information corresponding to the content C25 input. Then, when the parameter information is changed (for example, the arrival time is changed), the display unit 165 displays the content C25 at the display position corresponding to the changed parameter information in the second state of FIG. Further, for example, when a predetermined operation is performed on the content C26 or C27, the display unit 165 displays a page relating to the reservation of the movie L or the restaurant N in the facility reservation service. Further, for example, when a predetermined operation is performed on the content C27, the display unit 165 corresponds to information related to the area “Shinjuku” visited by the user U1 and different from the information on the restaurant N. The content is displayed on the screen as content recommended to the user U1.

続いて、図11の第3状態は、第2状態において表示したコンテンツがユーザU1に選択された状態を示す。なお、図11の例において、ユーザU1にコンテンツC25〜C27が選択されたものとする。この場合、表示部165は、コンテンツC25〜C27の視認性を高めて表示する。そして、図11の第3状態において領域AR23が選択されたことにより、表示部165は、行動の主題「映画L」に関連するコンテンツを記憶部120に格納し、画面を第4状態に遷移させる。 Subsequently, the third state of FIG. 11 shows a state in which the content displayed in the second state is selected by the user U1. In the example of FIG. 11, it is assumed that the contents C25 to C27 are selected by the user U1. In this case, the display unit 165 displays the contents C25 to C27 with enhanced visibility. Then, since the area AR23 is selected in the third state of FIG. 11, the display unit 165 stores the content related to the subject “movie L” of the action in the storage unit 120 and shifts the screen to the fourth state. ..

続いて、図11の第4状態は、行動の主題のレコメンドがユーザU1に選択された状態を示す。図11の第4状態に示すように、表示部165は、行動の主題「映画L」に対応するコンテンツの視認性を高めた状態で表示する。 Then, the 4th state of FIG. 11 shows the state in which the recommendation of the subject of action was selected by the user U1. As shown in the fourth state in FIG. 11, the display unit 165 displays the content corresponding to the subject “movie L” of the action in a highly visible state.

また、表示部165は、取得部161により取得された対象情報を撮影画像に重畳させて表示してもよい。例えば、図3の例において、表示部165は、取得部161により取得された対象情報を表示する領域AR18を、各サムネイルに重畳させて表示する。 In addition, the display unit 165 may display the target information acquired by the acquisition unit 161 by superimposing it on the captured image. For example, in the example of FIG. 3, the display unit 165 displays the area AR18 displaying the target information acquired by the acquisition unit 161 so as to be superimposed on each thumbnail.

また、表示部165は、撮影対象の提供元となるアプリケーションから提供される情報に基づいて更新された対象情報を、撮影画像に重畳させて表示してもよい。例えば、図3の例において、表示部165は、撮影対象の提供元から提供される飲食店の営業時間や、休業日などの変更に関する情報や、各種交通手段の遅延情報、商品の価格の変更に関する情報によって更新された対象情報を各サムネイルに重畳させて表示する。 Further, the display unit 165 may superimpose the target information updated based on the information provided by the application that is the source of the shooting target on the captured image and display the target information. For example, in the example of FIG. 3, the display unit 165 displays information about changes in the business hours of restaurants, holidays, etc. provided by the provider of the shooting target, delay information on various transportation means, and price changes of products. The target information updated by the information regarding the above is superimposed and displayed on each thumbnail.

また、表示部165は、撮影画像が選択された場合、撮影対象に対応する画面であって、撮影対象の提供元となるアプリケーションが提供する画面を表示してもよい。例えば、図3の例において、表示部165は、ユーザU1が選択したサムネイルに対応する行動情報を取得した際に入力されたパラメータ情報と同一のものを入力した状態で、当該行動情報の提供元であるアプリケーションやウェブサービスを表示する。 In addition, the display unit 165 may display a screen corresponding to the shooting target, which is provided by an application that is a provider of the shooting target, when the shot image is selected. For example, in the example of FIG. 3, the display unit 165 has input the same parameter information as the parameter information input when the action information corresponding to the thumbnail selected by the user U1 is input, and the source of the action information is displayed. Display applications and web services that are.

また、表示部165は、第1コンテンツに対し、第2コンテンツが配置された第3コンテンツを重畳させて表示してもよい。例えば、図4の例において、表示部165は、関連コンテンツを表示する関連コンテンツ領域をコンテンツC2に重畳させて表示する。 In addition, the display unit 165 may superimpose and display the third content in which the second content is arranged on the first content. For example, in the example of FIG. 4, the display unit 165 displays the related content area for displaying the related content by superimposing it on the content C2.

また、表示部165は、第1コンテンツに対し、複数の第2コンテンツが配置された第3コンテンツを重畳させて表示してもよい。例えば、図4の例において、表示部165は、ユーザU1にレコメンドする情報を示すコンテンツC19及びコンテンツC20が含まれる関連コンテンツ領域をコンテンツC2に重畳させて表示する。 In addition, the display unit 165 may superimpose and display the third content in which the plurality of second contents are arranged on the first content. For example, in the example of FIG. 4, the display unit 165 displays the related content area including the content C19 and the content C20 indicating the information recommended for the user U1 by being superimposed on the content C2.

また、表示部165は、第1コンテンツに含まれる第4コンテンツが選択された場合、第3コンテンツを表示してもよい。例えば、図4の例において、表示部165は、コンテンツC2に配置されたコンテンツに対するユーザU1の指F10による選択操作を受け付けた場合、当該コンテンツをユーザU1の指F10により保持された状態で関連コンテンツ領域をコンテンツC2に重畳して表示させる。 The display unit 165 may also display the third content when the fourth content included in the first content is selected. For example, in the example of FIG. 4, when the display unit 165 receives a selection operation by the finger F10 of the user U1 for the content arranged in the content C2, the display unit 165 holds the content with the finger F10 of the user U1 and the related content. The area is displayed so as to be superimposed on the content C2.

また、表示部165は、選択された第4コンテンツの位置を保持したまま第3コンテンツを表示してもよい。例えば、図4の例において、表示部165は、コンテンツC2に配置されたコンテンツに対するユーザU1の指F10による選択操作であって、移動操作とは異なる選択操作を受け付けた場合、当該コンテンツをユーザU1の指F10により保持された状態で関連コンテンツ領域をコンテンツC2に重畳して表示する。 Further, the display unit 165 may display the third content while holding the position of the selected fourth content. For example, in the example of FIG. 4, when the display unit 165 receives a selection operation different from the moving operation, which is a selection operation by the finger F10 of the user U1 with respect to the content placed in the content C2, the content is displayed by the user U1. The related content area is displayed while being superposed on the content C2 while being held by the finger F10.

(表示制御部166について)
表示制御部166は、第2コンテンツが選択された場合、第1コンテンツと、選択された当該第2コンテンツとを表示させたまま、第3コンテンツが表示される領域を縮小させる。例えば、図4の例において、表示制御部166は、ユーザU1の指F10による選択操作が行われたコンテンツC11を表示させた状態で、関連コンテンツ領域を縮小させる。
(About display control unit 166)
When the second content is selected, the display control unit 166 reduces the area in which the third content is displayed while displaying the first content and the selected second content. For example, in the example of FIG. 4, the display control unit 166 reduces the related content area while displaying the content C11 that has been selected by the finger F10 of the user U1.

また、表示制御部166は、第2コンテンツを第1コンテンツに重畳させて表示させてもよい。例えば、図4の例において、表示制御部166は、ユーザU1の指F10による選択操作が行われたコンテンツC11をコンテンツC2に重畳させて表示する。 Also, the display control unit 166 may display the second content by superimposing it on the first content. For example, in the example of FIG. 4, the display control unit 166 displays the content C11 on which the selection operation by the finger F10 of the user U1 has been performed by superimposing it on the content C2.

また、表示制御部166は、選択された第2コンテンツの表示態様を変更した状態で、第1コンテンツに重畳して表示させてもよい。例えば、表示制御部166は、バイブレーションや、点滅、色付け、サイズアップ、サイズダウン、輝度アップ、輝度ダウン、マーキングの追加等が行われた状態の第2コンテンツを、第1コンテンツに重畳して表示させる。 Further, the display control unit 166 may display the selected second content in a state where the display mode of the selected second content is changed so as to be superimposed on the first content. For example, the display control unit 166 displays the second content in a state where vibration, blinking, coloring, size up, size down, brightness up, brightness down, marking addition, and the like are superimposed on the first content. Let

また、表示制御部166は、第2コンテンツが選択された場合、第1コンテンツ及び第3コンテンツの表示態様を変更した状態で表示させてもよい。例えば、表示制御部166は、バイブレーションや、点滅、色付け、サイズアップ、サイズダウン、輝度アップ、輝度ダウン、マーキングの追加等が行われた状態の第1コンテンツ及び第3コンテンツを表示する。 Further, when the second content is selected, the display control unit 166 may display the first content and the third content in a changed display mode. For example, the display control unit 166 displays the first content and the third content in a state in which vibration, blinking, coloring, size up, size down, brightness up, brightness down, marking addition, and the like have been performed.

また、表示制御部166は、選択された第2コンテンツの視認性を高めた状態で、第1コンテンツに重畳して表示させてもよい。例えば、図4の例において、表示制御部166は、ユーザU1の指F10による選択操作が行われたコンテンツC11の視認性を高めた状態でコンテンツC2に重畳させて表示する。 Further, the display control unit 166 may superimpose and display the first content in a state where the visibility of the selected second content is enhanced. For example, in the example of FIG. 4, the display control unit 166 superimposes and displays the content C11 on which the selection operation is performed with the finger F10 of the user U1 in a state in which the visibility is enhanced.

また、表示制御部166は、選択された第2コンテンツの視認性を低下させた状態で、第1コンテンツに重畳して表示させてもよい。例えば、図4の例において、表示制御部166は、ユーザU1の指F10による選択操作が行われたコンテンツC11の視認性を低下させた状態でコンテンツC2に重畳させて表示する。 Further, the display control unit 166 may display the selected second content in a state in which the visibility of the selected second content is reduced and superimposed on the first content. For example, in the example of FIG. 4, the display control unit 166 displays the content C11 superimposed on the content C2 in a state in which the visibility of the content C11 that has been selected by the finger F10 of the user U1 is reduced.

また、表示制御部166は、第1コンテンツ及び第3コンテンツの視認性を低下させた状態で表示させてもよい。例えば、図4の例において、表示制御部166は、ユーザU1の指F10によりコンテンツC11への選択操作が行われた後、コンテンツC2及び関連コンテンツ領域の視認性を低下させた状態で表示する。 Further, the display control unit 166 may display the first content and the third content in a state in which the visibility is reduced. For example, in the example of FIG. 4, the display control unit 166 displays the content C2 and the related content area with reduced visibility after the selection operation of the content C11 is performed by the finger F10 of the user U1.

また、表示制御部166は、第3コンテンツが表示される領域を徐々に縮小させてもよい。例えば、図4の例において、表示制御部166は、ユーザU1の指F10によりコンテンツC11への選択操作が行われた後、関連コンテンツ領域を徐々に縮小させる。 Further, the display control unit 166 may gradually reduce the area in which the third content is displayed. For example, in the example of FIG. 4, the display control unit 166 gradually reduces the related content area after the selection operation to the content C11 is performed by the finger F10 of the user U1.

また、表示制御部166は、第1コンテンツが表示される領域を徐々に拡大させてもよい。例えば、図4の例において、表示制御部166は、ユーザU1の指F10によりコンテンツC11への選択操作が行われた後、コンテンツC2を徐々に拡大させる。 Further, the display control unit 166 may gradually expand the area in which the first content is displayed. For example, in the example of FIG. 4, the display control unit 166 gradually enlarges the content C2 after the selection operation for the content C11 is performed by the finger F10 of the user U1.

また、表示制御部166は、第2コンテンツの位置を保持したまま、第3コンテンツが表示される領域を縮小させてもよい。例えば、図4の例において、表示制御部166は、コンテンツC11をユーザU1の指F10により保持された状態で関連コンテンツ領域を徐々に縮小させる。 Further, the display control unit 166 may reduce the area in which the third content is displayed while maintaining the position of the second content. For example, in the example of FIG. 4, the display control unit 166 gradually reduces the related content area while the content C11 is held by the finger F10 of the user U1.

また、表示制御部166は、第2コンテンツが選択され続けた場合、第3コンテンツが表示される領域を縮小させてもよい。例えば、図4の例において、表示制御部166は、コンテンツC11がユーザU1の指F10によりロングタップ等の操作が行われた場合、関連コンテンツ領域を縮小させる。 In addition, the display control unit 166 may reduce the area in which the third content is displayed when the second content is continuously selected. For example, in the example of FIG. 4, the display control unit 166 reduces the related content area when the content C11 is operated by a long tap or the like with the finger F10 of the user U1.

また、表示制御部166は、第2コンテンツが選択された選択位置が所定方向へ移動された場合、第3コンテンツが表示される領域を縮小させてもよい。例えば、図4の例において、表示制御部166は、ユーザU1の指F10によりコンテンツC11への選択操作が行われ、所定方向へ移動された場合、関連コンテンツ領域を縮小させる。 In addition, the display control unit 166 may reduce the area in which the third content is displayed when the selection position where the second content is selected is moved in the predetermined direction. For example, in the example of FIG. 4, the display control unit 166 reduces the related content area when the selection operation for the content C11 is performed by the finger F10 of the user U1 and the content C11 is moved in the predetermined direction.

また、表示制御部166は、第2コンテンツが選択された選択位置の移動に応じて、当該第2コンテンツの表示位置を移動させてもよい。例えば、図4の例において、表示制御部166は、ユーザU1の指F10によるコンテンツC11へのドラッグ操作に応じてコンテンツC11の表示位置を移動させる。 Further, the display control unit 166 may move the display position of the second content according to the movement of the selection position where the second content is selected. For example, in the example of FIG. 4, the display control unit 166 moves the display position of the content C11 according to the drag operation of the finger F10 of the user U1 onto the content C11.

また、表示制御部166は、第2コンテンツに対する選択が解除された場合、第1コンテンツのうち第2コンテンツの選択が解除された位置と対応する位置に第2コンテンツを重畳させて表示してもよい。例えば、図4の例において、表示制御部166は、コンテンツC2のうち、ユーザU1の指F10によるコンテンツC11への選択操作が解除された位置にコンテンツC11を表示する。 In addition, when the selection of the second content is released, the display control unit 166 may display the second content by superimposing the second content on a position corresponding to the position of the first content where the selection of the second content is released. Good. For example, in the example of FIG. 4, the display control unit 166 displays the content C11 at a position in the content C2 where the selection operation for the content C11 by the finger F10 of the user U1 is released.

また、表示制御部166は、いずれかの第2コンテンツが選択された場合は、第1コンテンツと選択された第2コンテンツとを表示させたまま、第3コンテンツが表示される領域を縮小させてもよい。例えば、図4の例において、表示制御部166は、関連コンテンツ領域に表示されたコンテンツC11、コンテンツC19及びコンテンツC20のいずれかのコンテンツが選択された場合、選択されたコンテンツを表示させたまま関連コンテンツ領域を縮小させる。 In addition, when any of the second contents is selected, the display control unit 166 reduces the area in which the third content is displayed while displaying the first content and the selected second content. Good. For example, in the example of FIG. 4, when the content C11, the content C19, or the content C20 displayed in the related content area is selected, the display control unit 166 associates the selected content with the selected content displayed. Shrink the content area.

また、表示制御部166は、第1コンテンツに含まれる第4コンテンツに対し所定の操作が行われた場合、第1コンテンツが表示される領域において4コンテンツを非表示としてもよい。例えば、図4の例において、表示制御部166は、コンテンツC2に配置されたコンテンツに対する所定の操作(例えば、フリック操作)を受け付けた場合、当該コンテンツをコンテンツC2から削除する。 In addition, the display control unit 166 may hide the four contents in the area where the first content is displayed when a predetermined operation is performed on the fourth content included in the first content. For example, in the example of FIG. 4, when the display control unit 166 receives a predetermined operation (for example, a flick operation) on the content placed in the content C2, the display control unit 166 deletes the content from the content C2.

また、表示制御部166は、第3コンテンツが表示される領域で第4コンテンツに対する選択が解除された場合、第1コンテンツが表示される領域において第4コンテンツを非表示とし、第3コンテンツが表示される領域において第4コンテンツを表示してもよい。例えば、図4の例において、表示制御部166は、コンテンツC2に配置されたコンテンツに対するユーザU1の指F10による選択操作に応じて表示部165が表示した関連コンテンツ領域上で、上記コンテンツの選択が解除された場合、上記コンテンツをコンテンツC2から削除し、関連コンテンツ領域において表示する。 Further, when the selection of the fourth content is canceled in the area where the third content is displayed, the display control unit 166 hides the fourth content in the area where the first content is displayed and displays the third content. The fourth content may be displayed in the displayed area. For example, in the example of FIG. 4, the display control unit 166 selects the content on the related content area displayed by the display unit 165 in response to the selection operation by the finger F10 of the user U1 on the content arranged in the content C2. When the content is released, the content is deleted from the content C2 and displayed in the related content area.

また、表示制御部166は、第3コンテンツが表示される領域で第4コンテンツに対する選択が解除された場合、第1コンテンツが表示される領域において第4コンテンツを非表示とし、第3コンテンツが表示される領域において第4コンテンツを表示したまま第3コンテンツが表示される領域を縮小させてもよい。例えば、図4の例において、表示制御部166は、コンテンツC2に配置されたコンテンツに対するユーザU1の指F10による選択が関連コンテンツ領域上で解除された場合、当該コンテンツをコンテンツC2から削除し、関連コンテンツ領域において表示したまま関連コンテンツ領域を縮小させる。 Further, when the selection of the fourth content is canceled in the area where the third content is displayed, the display control unit 166 hides the fourth content in the area where the first content is displayed and displays the third content. The area in which the third content is displayed may be reduced while the fourth content is displayed in the area. For example, in the example of FIG. 4, when the selection of the content placed in the content C2 by the finger F10 of the user U1 is canceled in the related content area, the display control unit 166 deletes the content from the content C2 and The related content area is reduced while being displayed in the content area.

〔5.表示処理のフロー〕
図12を用いて、実施形態に係る表示処理システム1のコンテンツの表示処理の手順について説明する。図12は、実施形態に係る表示処理手順の一例を示すフローチャート(1)である。
[5. Display processing flow]
The procedure of content display processing of the display processing system 1 according to the embodiment will be described with reference to FIG. FIG. 12 is a flowchart (1) showing an example of the display processing procedure according to the embodiment.

図12に示すように、端末装置100は、ユーザの行動情報に基づいて、ユーザの行動の主題を推定する(ステップS101)。続いて、端末装置100は、ユーザの行動の主題に対応する情報を検索する(ステップS102)。例えば、端末装置100は、ウェブ上(ウェブページや、端末装置100にインストールされた各種アプリ)や、端末装置100に実装された情報収集アプリが収集したユーザの行動情報から、ユーザの行動の主題に対応する情報を検索する。 As shown in FIG. 12, the terminal device 100 estimates the subject of the user's action based on the user's action information (step S101). Subsequently, the terminal device 100 searches for information corresponding to the subject of the user's action (step S102). For example, the terminal device 100 determines the subject of the user's action on the web (web page or various applications installed in the terminal device 100) or from the user's action information collected by the information collection application installed in the terminal device 100. Search for information corresponding to.

続いて、端末装置100は、検索した情報に基づくコンテンツを表示し(ステップS103)、処理を終了する。 Subsequently, the terminal device 100 displays the content based on the retrieved information (step S103), and ends the process.

次に、図13を用いて、実施形態に係る表示処理システム1の対象情報の表示処理の手順について説明する。図13は、実施形態に係る表示処理手順の一例を示すフローチャート(2)である。 Next, a procedure of display processing of target information of the display processing system 1 according to the embodiment will be described with reference to FIG. FIG. 13 is a flowchart (2) showing an example of the display processing procedure according to the embodiment.

図13に示すように、端末装置100は、行動情報から対象情報を取得する(ステップS201)。例えば、端末装置100は、行動情報に対して画像解析、形態素解析等の種々の従来技術を適宜用いて解析することにより、テキスト情報や、時間情報、位置情報、行動情報の提供元を特定するための情報、行動情報の提供元に対応するアイコン画像等を取得する。 As illustrated in FIG. 13, the terminal device 100 acquires target information from the behavior information (step S201). For example, the terminal device 100 identifies the source of the text information, the time information, the position information, and the action information by analyzing the action information by appropriately using various conventional techniques such as image analysis and morphological analysis. Information, an icon image corresponding to the provider of the action information, and the like are acquired.

続いて、端末装置100は、対象情報を撮影画像に重畳させて表示する(ステップS202)。例えば、端末装置100は、行動情報として取得した端末装置100のスクリーンショット等に対象情報を重畳させて表示する。 Then, the terminal device 100 superimposes and displays the target information on the captured image (step S202). For example, the terminal device 100 superimposes and displays the target information on the screen shot or the like of the terminal device 100 acquired as the behavior information.

続いて、端末装置100は、対象情報に対応する処理を実行し(ステップS203)、処理を終了する。例えば、端末装置100は、対象情報に時間情報が含まれる場合、当該時間情報に基づいてユーザに通知するアラームを設定する。 Subsequently, the terminal device 100 executes a process corresponding to the target information (step S203), and ends the process. For example, when the target information includes time information, the terminal device 100 sets an alarm to notify the user based on the time information.

次に、図14を用いて、実施形態に係る表示処理システム1のコンテンツの表示処理の手順について説明する。図14は、実施形態に係る表示処理手順の一例を示すフローチャート(3)である。 Next, a procedure of content display processing of the display processing system 1 according to the embodiment will be described with reference to FIG. FIG. 14 is a flowchart (3) showing an example of the display processing procedure according to the embodiment.

図14に示すように、端末装置100は、第1コンテンツを表示する(ステップS301)。例えば、図4の例において、端末装置100は、コンテンツC2を表示する。続いて、端末装置100は、第3コンテンツの表示処理を指示する操作が行われた場合(ステップS302;Yes)、第2コンテンツが配置された第3コンテンツを第1コンテンツに重畳させて表示する(ステップS303)。例えば、図4の例において、端末装置100は、関連コンテンツが配置された関連コンテンツ領域をコンテンツC2に重畳させて表示する。一方、端末装置100は、第3コンテンツの表示処理を指示する操作が行われない場合(ステップS302;No)、第1コンテンツをそのまま表示する。そして、端末装置100は、第1コンテンツの保存処理を指示する操作が行われた場合(ステップS306;Yes)、第1コンテンツを保存し(ステップS307)、処理を終了する。また、端末装置100は、第1コンテンツの保存処理を指示する操作が行われない場合(ステップS306;No)、第1コンテンツを継続して表示する。 As shown in FIG. 14, the terminal device 100 displays the first content (step S301). For example, in the example of FIG. 4, the terminal device 100 displays the content C2. Subsequently, when the operation for instructing the display processing of the third content is performed (step S302; Yes), the terminal device 100 displays the third content in which the second content is arranged by superimposing it on the first content. (Step S303). For example, in the example of FIG. 4, the terminal device 100 displays the related content area in which the related content is arranged by superimposing it on the content C2. On the other hand, when the operation for instructing the display processing of the third content is not performed (step S302; No), the terminal device 100 displays the first content as it is. Then, when the operation of instructing the storage processing of the first content is performed (step S306; Yes), the terminal device 100 stores the first content (step S307) and ends the processing. In addition, the terminal device 100 continuously displays the first content when the operation for instructing the storage processing of the first content is not performed (step S306; No).

続いて、端末装置100は、第2コンテンツが選択された場合(ステップS304;Yes)、第1コンテンツ及び第2コンテンツを表示させたまま第3コンテンツが表示される領域を縮小させる(ステップS305)。一方、端末装置100は、第2コンテンツが選択されない場合(ステップS304;No)、第3コンテンツが表示される領域を縮小させ、第1コンテンツを表示する。例えば、端末装置100は、第3コンテンツに所定の操作(例えば、スワイプ操作)が行われた場合、第3コンテンツが表示される領域を縮小させ、第1コンテンツを表示する。そして、端末装置100は、第1コンテンツの保存処理を指示する操作が行われた場合(ステップS306;Yes)、第1コンテンツを保存し(ステップS307)、処理を終了する。また、端末装置100は、第1コンテンツの保存処理を指示する操作が行われない場合(ステップS306;No)、第1コンテンツを継続して表示する。 Subsequently, when the second content is selected (step S304; Yes), the terminal device 100 reduces the area in which the third content is displayed while the first content and the second content are displayed (step S305). .. On the other hand, when the second content is not selected (step S304; No), the terminal device 100 reduces the area in which the third content is displayed and displays the first content. For example, when a predetermined operation (for example, a swipe operation) is performed on the third content, the terminal device 100 reduces the area in which the third content is displayed and displays the first content. Then, when the operation of instructing the storage processing of the first content is performed (step S306; Yes), the terminal device 100 stores the first content (step S307) and ends the processing. In addition, the terminal device 100 continuously displays the first content when the operation for instructing the storage processing of the first content is not performed (step S306; No).

続いて、第1コンテンツの保存処理を指示する操作が行われた場合(ステップS306;Yes)、第1コンテンツを保存し(ステップS307)、処理を終了する。例えば、端末装置100は、第2コンテンツが配置された状態の第1コンテンツを保存する。一方、端末装置100は、第1コンテンツの保存処理を指示する操作が行われない場合(ステップS306;No)、第2コンテンツが配置された状態の第1コンテンツを継続して表示する。 Then, when an operation for instructing the storage processing of the first content is performed (step S306; Yes), the first content is stored (step S307), and the processing ends. For example, the terminal device 100 stores the first content in the state where the second content is arranged. On the other hand, when the operation of instructing the storage processing of the first content is not performed (step S306; No), the terminal device 100 continuously displays the first content in which the second content is arranged.

〔6.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
[6. Modification example)
The above-mentioned embodiment shows an example, and various modifications and applications are possible.

〔6−1.行動情報について〕
上述の実施形態において、行動情報とは、ユーザU1が端末装置100を用いて取得した端末装置100の画面のスクリーンショットや、ユーザU1が端末装置100を用いて撮影した画像及び動画、ユーザU1が端末装置100を用いて閲覧した画像及び動画、ユーザU1が端末装置100を用いて送受信した電子メール、ユーザU1が端末装置100を介して利用したアプリケーション、ウェブサービス等においてブックマークしたコンテンツ等である例を示したが、行動情報は上述した例に限られない。行動情報とは、情報処理装置等により取得可能なユーザの行動に関する情報であれば、どのような情報であってもよい。
[6-1. About behavior information]
In the above-described embodiment, the behavior information is a screen shot of the screen of the terminal device 100 acquired by the user U1 using the terminal device 100, an image and a moving image captured by the user U1 using the terminal device 100, or the user U1. Examples of images and videos browsed using the terminal device 100, emails sent and received by the user U1 using the terminal device 100, applications used by the user U1 via the terminal device 100, contents bookmarked in web services, and the like. However, the action information is not limited to the example described above. The behavior information may be any information as long as it is information about the behavior of the user that can be acquired by the information processing device or the like.

〔6−2.表示部165及び表示制御部166について〕
上述した図4の例において、表示部165及び表示制御部166が、関連コンテンツを表示する関連コンテンツ領域を画面に重畳させて表示する例を示したが、表示部165及び表示制御部166の機能は上述した例に限られない。第2コンテンツは、第1コンテンツに対し付加が可能な情報であれば、どのような情報であってもよい。例えば、表示部165は、メッセージアプリを第1コンテンツとして表示し、メッセージに付加可能なテキスト、画像、動画等の情報である第2コンテンツが配置された第3コンテンツを第1コンテンツに重畳させて表示する。そして、表示制御部166は、上記メッセージアプリにおいて、上述した表示制御を行う。
[6-2. Regarding Display Unit 165 and Display Control Unit 166]
In the example of FIG. 4 described above, an example in which the display unit 165 and the display control unit 166 display the related content area displaying the related content by superimposing the related content area on the screen is shown. However, the functions of the display unit 165 and the display control unit 166 are described. Is not limited to the above example. The second content may be any information as long as the information can be added to the first content. For example, the display unit 165 displays the message application as the first content, and superimposes the third content on which the second content, which is information such as text, image, and moving image that can be added to the message, is arranged on the first content. indicate. Then, the display control unit 166 performs the above-described display control in the message application.

〔6−3.ユーザの行動パターンに基づくコンテンツの表示について〕
表示部165は、ユーザの行動パターンに基づくコンテンツを表示してもよい。例えば、ユーザが地域Oに継続して訪問していることを示す行動情報が収集された場合、推定部163は、ユーザの行動の主題を「地域Oへの訪問」と推定する。そして、表示部165は、検索部164が検索した地域Oに関する情報(地域O周辺の飲食店等の施設など)を含むコンテンツを表示する。また、表示部165は、上記所定の地域に関するコンテンツを表示する際、毎回コンテンツの内容を変更して表示してもよい。また、表示部165は、ユーザが実際に表示部165の表示したコンテンツに対応する行動を行った後の当該コンテンツの評価に関する情報に基づいて、ユーザにコンテンツを表示してもよい。
[6-3. Displaying content based on user behavior patterns]
The display unit 165 may display the content based on the behavior pattern of the user. For example, when the action information indicating that the user continues to visit the region O is collected, the estimation unit 163 estimates that the subject of the user's action is “a visit to the region O”. Then, the display unit 165 displays the content including the information on the region O searched by the search unit 164 (facility such as restaurants around the region O). In addition, the display unit 165 may change and display the content of the content each time the content related to the predetermined area is displayed. Further, the display unit 165 may display the content to the user based on the information regarding the evaluation of the content after the user has actually performed the action corresponding to the content displayed by the display unit 165.

〔6−4.行動情報に関連するコンテンツの表示について〕
表示部165は、収集されたユーザの行動情報に関連するコンテンツを表示してもよい。例えば、ユーザの行動情報として、コンサートの観賞や、イベントの参加などの情報が含まれる場合、表示部165は、当該コンサートの次回作に関するコンテンツや、当該イベントの次年度の開催に関するコンテンツを表示する。
[6-4. Display of content related to activity information]
The display unit 165 may display the content related to the collected behavior information of the user. For example, when the user's behavior information includes information such as concert viewing and event participation, the display unit 165 displays content related to the next work of the concert and content related to the next year of the event. ..

〔7.効果〕
上述してきたように、実施形態に係る端末装置100は、取得部161と、処理部162と、推定部163と、検索部164と、表示部165と、表示制御部166とを有する。取得部161は、撮影画像を用いて、当該撮影画像に撮影された撮影対象に関する情報である対象情報を取得する。処理部162は、対象情報として取得された文字列と対応する処理を実行する。推定部163は、ユーザの行動に関する行動情報に基づいて、ユーザの行動と対応する主題を推定する。検索部164は、推定部163により推定された主題と対応する情報を検索する。表示部165は、少なくとも、検索部164により検索された情報に基づいたコンテンツを表示する。また、表示部165は、取得部161により取得された対象情報を撮影画像に重畳させて表示する。また、表示部165は、第1コンテンツに対し、第2コンテンツが配置された第3コンテンツを重畳させて表示する。表示制御部166は、第2コンテンツが選択された場合、第1コンテンツと、選択された当該第2コンテンツとを表示させたまま、第3コンテンツが表示される領域を縮小させる。
[7. effect〕
As described above, the terminal device 100 according to the embodiment has the acquisition unit 161, the processing unit 162, the estimation unit 163, the search unit 164, the display unit 165, and the display control unit 166. The acquisition unit 161 acquires, using the captured image, target information that is information regarding the capturing target captured in the captured image. The processing unit 162 executes a process corresponding to the character string acquired as the target information. The estimation unit 163 estimates the subject corresponding to the user's action based on the action information regarding the user's action. The search unit 164 searches for information corresponding to the subject estimated by the estimation unit 163. The display unit 165 displays at least the content based on the information retrieved by the retrieval unit 164. Further, the display unit 165 displays the target information acquired by the acquisition unit 161 so as to be superimposed on the captured image. Further, the display unit 165 displays the first content by superimposing the third content on which the second content is arranged. When the second content is selected, the display control unit 166 reduces the area in which the third content is displayed while displaying the first content and the selected second content.

これにより、実施形態に係る端末装置100は、ユーザの行動の主題に対応する情報に基づくコンテンツを表示するため、ユーザの行動の指針に基づいて情報を提供できる。また、実施形態に係る端末装置100は、撮影対象に関する対象情報を撮影画像に重畳させて表示するため、ユーザビリティを向上できる。また、実施形態に係る端末装置100は、コンテンツが動的に変化する場合に応じてコンテンツの表示を制御するため、ユーザビリティを向上できる。 Accordingly, the terminal device 100 according to the embodiment displays the content based on the information corresponding to the subject of the user's action, and thus can provide the information based on the guideline of the user's action. Moreover, since the terminal device 100 according to the embodiment displays the target information regarding the shooting target in a manner that the target information is superimposed on the captured image, usability can be improved. In addition, the terminal device 100 according to the embodiment controls the display of the content according to the case where the content dynamically changes, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、推定部163は、行動情報のうち一部の行動情報に基づいて、主題を推定する。そして、検索部164は、行動情報から主題と対応する情報を検索する。 Further, in the terminal device 100 according to the embodiment, for example, the estimation unit 163 estimates the subject based on a part of the action information among the action information. Then, the search unit 164 searches the action information for information corresponding to the subject.

これにより、実施形態に係る端末装置100は、行動情報のうち関連性を有する行動情報に基づいてユーザの行動の主題を推定し、ユーザの行動情報からユーザに提供する情報を検索するため、推定の精度を高め、且つ、訴求力の高い情報をユーザに提供できる。 As a result, the terminal device 100 according to the embodiment estimates the subject of the user's action based on the action information having relevance in the action information, and retrieves the information to be provided to the user from the user's action information. It is possible to provide the user with information with high accuracy and high appeal.

また、実施形態に係る端末装置100において、例えば、推定部163は、行動情報のうちユーザによって選択された行動情報に基づいて、主題を推定する。 Further, in the terminal device 100 according to the embodiment, for example, the estimation unit 163 estimates the subject based on the action information selected by the user from the action information.

これにより、実施形態に係る端末装置100は、ユーザが選択した行動情報に基づいてユーザの行動の主題を推定するため、ユーザの要望に沿った情報を提供できる。 With this, the terminal device 100 according to the embodiment estimates the subject of the user's action based on the action information selected by the user, and thus can provide information according to the user's request.

また、実施形態に係る端末装置100において、例えば、表示部165は、ユーザの行動に関する行動情報と、検索部164により検索された情報とに基づいたコンテンツを表示する。 Further, in the terminal device 100 according to the embodiment, for example, the display unit 165 displays content based on the action information regarding the action of the user and the information searched by the search unit 164.

これにより、実施形態に係る端末装置100は、ユーザの行動の主題に対応するコンテンツを表示するため、訴求力の高い情報をユーザに提供できる。 Accordingly, the terminal device 100 according to the embodiment displays the content corresponding to the subject of the user's action, and thus can provide the user with highly appealing information.

また、実施形態に係る端末装置100において、例えば、表示部165は、ユーザの状況に応じた態様でコンテンツを表示する。 Further, in the terminal device 100 according to the embodiment, for example, the display unit 165 displays the content in a mode according to the situation of the user.

これにより、実施形態に係る端末装置100は、ユーザがコンテンツを閲覧する時間帯や、ユーザの移動状態に応じてコンテンツを表示するため、ユーザビリティを向上できる。 As a result, the terminal device 100 according to the embodiment displays the content according to the time period when the user browses the content and the moving state of the user, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示部165は、主題に応じた態様でコンテンツを表示する。 Further, in the terminal device 100 according to the embodiment, for example, the display unit 165 displays the content in a mode according to the subject.

これにより、実施形態に係る端末装置100は、ユーザの行動の主題に応じた態様でコンテンツを表示できるため、ユーザビリティを向上できる。 Accordingly, the terminal device 100 according to the embodiment can display the content in a mode according to the subject of the user's action, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示部165は、主題と対応する情報から時間情報または位置情報を抽出し、当該時間情報または当該位置情報に基づく表示位置に主題と対応する情報を配置したコンテンツを表示する。 Further, in the terminal device 100 according to the embodiment, for example, the display unit 165 extracts time information or position information from information corresponding to the subject, and information corresponding to the subject at the display position based on the time information or the position information. Display the content with placed.

これにより、実施形態に係る端末装置100は、時間情報または位置情報に基づくコンテンツを表示できるため、ユーザビリティを向上できる。 Thereby, the terminal device 100 according to the embodiment can display the content based on the time information or the position information, and thus the usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示部165は、位置情報に基づいて、主題と対応する情報を配置した地図情報を含むコンテンツを表示する。 Further, in the terminal device 100 according to the embodiment, for example, the display unit 165 displays the content including the map information in which the information corresponding to the subject is arranged based on the position information.

これにより、実施形態に係る端末装置100は、地図上での位置とともにユーザに情報を提供するため、ユーザビリティを向上できる。 As a result, the terminal device 100 according to the embodiment provides the user with information along with the position on the map, so that usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示部165は、時間情報または位置情報に基づいて、主題と対応する情報を時系列に沿った順に配置したコンテンツを表示する。 Further, in the terminal device 100 according to the embodiment, for example, the display unit 165 displays content in which information corresponding to the subject is arranged in chronological order based on time information or position information.

これにより、実施形態に係る端末装置100は、時系列順に情報を表示するため、ユーザビリティを向上できる。 Accordingly, the terminal device 100 according to the embodiment displays information in chronological order, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、推定部163は、ユーザの操作に応じて保存された情報である行動情報に基づいて、主題を推定する。 Further, in the terminal device 100 according to the embodiment, for example, the estimation unit 163 estimates the subject based on the action information that is the information stored according to the user's operation.

これにより、実施形態に係る端末装置100は、ユーザが保存した行動情報に基づいてユーザの行動の主題を推定するため、ユーザの要望に沿った情報を提供できる。 Accordingly, the terminal device 100 according to the embodiment estimates the subject of the user's action based on the action information stored by the user, and thus can provide information according to the user's request.

また、実施形態に係る端末装置100において、例えば、推定部163は、電子メールに関する情報を含む行動情報に基づいて、主題を推定する。 In addition, in the terminal device 100 according to the embodiment, for example, the estimation unit 163 estimates the subject based on the action information including the information regarding the email.

これにより、実施形態に係る端末装置100は、電子メールを含めてユーザの行動の主題を推定するため、ユーザビリティを向上できる。 As a result, the terminal device 100 according to the embodiment estimates the subject of the user's action including the email, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、推定部163は、アプリケーションの表示画面に関する画像の画像認識結果に基づく情報を含む行動情報に基づいて、主題を推定する。 Further, in the terminal device 100 according to the embodiment, for example, the estimation unit 163 estimates the subject based on the action information including the information based on the image recognition result of the image regarding the display screen of the application.

これにより、実施形態に係る端末装置100は、アプリケーションの表示画面を含めてユーザの行動の主題を推定するため、ユーザビリティを向上できる。 Accordingly, the terminal device 100 according to the embodiment estimates the subject of the user's action including the display screen of the application, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、推定部163は、ユーザが行った経路検索の結果を含む行動情報を取得し、経路検索の結果に基づいてユーザが訪問する地域を推定し、推定した地域を主題とする。 Further, in the terminal device 100 according to the embodiment, for example, the estimation unit 163 acquires the behavior information including the result of the route search performed by the user, and estimates the region visited by the user based on the result of the route search, The subject is the estimated area.

これにより、実施形態に係る端末装置100は、ユーザの訪問地域に関する情報を提供するため、訴求力の高い情報をユーザに提供できる。 As a result, the terminal device 100 according to the embodiment provides the information about the visited area of the user, and thus can provide the user with highly appealing information.

また、実施形態に係る端末装置100において、例えば、推定部163は、行動情報のうちユーザによって選択された行動情報に基づいて、主題を推定する。そして、検索部164は、主題と対応するウェブ上の情報を検索する。そして、表示部165は、ユーザによって選択された行動情報と、ウェブ上の情報とを表示する。 Further, in the terminal device 100 according to the embodiment, for example, the estimation unit 163 estimates the subject based on the action information selected by the user from the action information. Then, the search unit 164 searches for information on the web corresponding to the subject. Then, the display unit 165 displays the action information selected by the user and the information on the web.

これにより、実施形態に係る端末装置100は、ユーザの行動の主題に関連する情報をウェブ上から検索し、表示するため、ユーザビリティを向上できる。 Thus, the terminal device 100 according to the embodiment searches the information related to the subject of the user's action on the web and displays the information, so that usability can be improved.

また、実施形態に係る端末装置100において、例えば、検索部164は、主題と対応する施設であって、ユーザによって選択された行動情報と対応する位置から所定の範囲内にある施設の情報を検索する。 Further, in the terminal device 100 according to the embodiment, for example, the search unit 164 searches for information on a facility corresponding to the subject and within a predetermined range from the position corresponding to the behavior information selected by the user. To do.

これにより、実施形態に係る端末装置100は、ユーザの行動の主題に関連する施設を表示するため、ユーザビリティを向上できる。 Thereby, the terminal device 100 according to the embodiment displays the facility related to the subject of the user's action, and thus the usability can be improved.

また、実施形態に係る端末装置100において、例えば、検索部164は、ユーザの検索履歴に基づいて、施設の情報を検索する。 Further, in the terminal device 100 according to the embodiment, for example, the search unit 164 searches facility information based on the search history of the user.

これにより、実施形態に係る端末装置100は、ユーザの検索履歴に基づいて施設を表示するため、ユーザビリティを向上できる。 Thereby, the terminal device 100 according to the embodiment displays the facility based on the search history of the user, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、取得部161は、撮影対象の提供元となるアプリケーションに関する情報を示す対象情報を取得する。また、例えば、取得部161は、撮影対象の提供元となるアプリケーションを示すアイコン画像を含む対象情報を取得する。また、例えば、表示部165は、撮影対象の提供元となるアプリケーションから提供される情報に基づいて更新された対象情報を、撮影画像に重畳させて表示する。 In addition, in the terminal device 100 according to the embodiment, for example, the acquisition unit 161 acquires target information indicating information regarding an application that is a provider of a shooting target. Further, for example, the acquisition unit 161 acquires target information including an icon image indicating an application that is a provider of a shooting target. In addition, for example, the display unit 165 displays the target information updated based on the information provided by the application that is the source of the shooting target, on the captured image in a superimposed manner.

これにより、実施形態に係る端末装置100は、撮影対象の提供元に関する情報を視認可能な状態で撮影画像を表示するため、ユーザビリティを向上できる。 As a result, the terminal device 100 according to the embodiment displays the captured image in a state in which the information regarding the provider of the capturing target can be visually recognized, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示部165は、撮影画像が選択された場合、撮影対象に対応する画面であって、撮影対象の提供元となるアプリケーションが提供する画面を表示する。 In addition, in the terminal device 100 according to the embodiment, for example, when the captured image is selected, the display unit 165 displays a screen corresponding to the capturing target, which is provided by the application that is the provider of the capturing target. To do.

これにより、実施形態に係る端末装置100は、撮影対象の提供元のアプリケーションの画面を表示するため、ユーザビリティを向上できる。 As a result, the terminal device 100 according to the embodiment displays the screen of the application of the provider of the shooting target, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、取得部161は、撮影対象となる文字列の解析結果を対象情報として取得する。また、例えば、取得部161は、撮影対象となる二次元コードが示す情報を示す対象情報を取得する。 Further, in the terminal device 100 according to the embodiment, for example, the acquisition unit 161 acquires the analysis result of the character string to be captured as target information. In addition, for example, the acquisition unit 161 acquires target information indicating the information indicated by the two-dimensional code to be captured.

これにより、実施形態に係る端末装置100は、撮影対象の情報視認可能な状態で撮影画像を表示するため、ユーザビリティを向上できる。 As a result, the terminal device 100 according to the embodiment displays the captured image in a state where the information of the capturing target is visible, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、処理部162は、対象情報として取得された文字列が時刻を示す場合は、当該時刻を利用者に通知する処理を実行する。 Further, in the terminal device 100 according to the embodiment, for example, when the character string acquired as the target information indicates time, the processing unit 162 executes a process of notifying the user of the time.

これにより、実施形態に係る端末装置100は、撮影対象に含まれる時間情報に基づいて撮影対象に関する通知を実行するため、ユーザビリティを向上できる。 As a result, the terminal device 100 according to the embodiment executes the notification regarding the shooting target based on the time information included in the shooting target, and thus usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示制御部166は、第2コンテンツを第1コンテンツに重畳させて表示させる。 Further, in the terminal device 100 according to the embodiment, for example, the display control unit 166 causes the second content to be superimposed on the first content and displayed.

これにより、実施形態に係る端末装置100は、ユーザの直観的な操作に応じてコンテンツを表示するため、ユーザビリティを向上できる。 With this, the terminal device 100 according to the embodiment displays the content according to the intuitive operation of the user, and thus the usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示制御部166は、選択された第2コンテンツの表示態様を変更した状態で、第1コンテンツに重畳して表示させる。また、例えば、表示制御部166は、第2コンテンツが選択された場合、第1コンテンツ及び第3コンテンツの表示態様を変更した状態で表示させる。また、例えば、表示制御部166は、選択された第2コンテンツの視認性を高めた状態で、第1コンテンツに重畳して表示させる。また、例えば、表示制御部166は、選択された第2コンテンツの視認性を低下させた状態で、第1コンテンツに重畳して表示させる。また、例えば、表示制御部166は、第1コンテンツ及び第3コンテンツの視認性を低下させた状態で表示させる。 Further, in the terminal device 100 according to the embodiment, for example, the display control unit 166 displays the selected second content in a state in which the display mode of the selected second content is changed so as to be superimposed on the first content. In addition, for example, when the second content is selected, the display control unit 166 causes the first content and the third content to be displayed in a changed display mode. In addition, for example, the display control unit 166 displays the selected second content in a state in which the visibility of the selected second content is enhanced and is superimposed on the first content. In addition, for example, the display control unit 166 displays the selected second content in a state where the visibility of the selected second content is reduced and is superimposed on the first content. Further, for example, the display control unit 166 displays the first content and the third content in a state in which the visibility is reduced.

これにより、実施形態に係る端末装置100は、ユーザの直観的な操作に応じてコンテンツを表示するため、ユーザビリティを向上できる。 With this, the terminal device 100 according to the embodiment displays the content according to the intuitive operation of the user, and thus the usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示制御部166は、第3コンテンツが表示される領域を徐々に縮小させる。また、例えば、表示制御部166は、第1コンテンツが表示される領域を徐々に拡大させる。 Further, in the terminal device 100 according to the embodiment, for example, the display control unit 166 gradually reduces the area in which the third content is displayed. Further, for example, the display control unit 166 gradually expands the area in which the first content is displayed.

これにより、実施形態に係る端末装置100は、ユーザの直観的な操作に応じてコンテンツを表示するため、ユーザビリティを向上できる。 With this, the terminal device 100 according to the embodiment displays the content according to the intuitive operation of the user, and thus the usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示制御部166は、第2コンテンツの位置を保持したまま、第3コンテンツが表示される領域を縮小させる。また、例えば、表示制御部166は、第2コンテンツが選択され続けた場合、第3コンテンツが表示される領域を縮小させる。また、例えば、表示制御部166は、第2コンテンツが選択された選択位置が所定方向へ移動された場合、第3コンテンツが表示される領域を縮小させる。 Further, in the terminal device 100 according to the embodiment, for example, the display control unit 166 reduces the area in which the third content is displayed while maintaining the position of the second content. Further, for example, the display control unit 166 reduces the area in which the third content is displayed when the second content is continuously selected. Further, for example, the display control unit 166 reduces the area in which the third content is displayed when the selection position where the second content is selected is moved in the predetermined direction.

これにより、実施形態に係る端末装置100は、ユーザの直観的な操作に応じてコンテンツを表示するため、ユーザビリティを向上できる。 With this, the terminal device 100 according to the embodiment displays the content according to the intuitive operation of the user, and thus the usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示制御部166は、第2コンテンツが選択された選択位置の移動に応じて、当該第2コンテンツの表示位置を移動させる。また、例えば、表示制御部166は、第2コンテンツに対する選択が解除された場合、第1コンテンツのうち第2コンテンツの選択が解除された位置と対応する位置に第2コンテンツを重畳させて表示する。 Further, in the terminal device 100 according to the embodiment, for example, the display control unit 166 moves the display position of the second content according to the movement of the selection position where the second content is selected. Further, for example, when the selection of the second content is canceled, the display control unit 166 displays the second content by superimposing the second content at a position corresponding to the position of the second content where the selection of the second content is canceled. ..

これにより、実施形態に係る端末装置100は、ユーザの直観的な操作に応じてコンテンツを表示するため、ユーザビリティを向上できる。 With this, the terminal device 100 according to the embodiment displays the content according to the intuitive operation of the user, and thus the usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示部165は、第1コンテンツに対し、複数の第2コンテンツが配置された第3コンテンツを重畳させて表示する。そして、表示制御部166は、いずれかの第2コンテンツが選択された場合は、第1コンテンツと選択された第2コンテンツとを表示させたまま、第3コンテンツが表示される領域を縮小させる。 In addition, in the terminal device 100 according to the embodiment, for example, the display unit 165 displays the first content by superimposing the third content in which the plurality of second contents are arranged. Then, when any one of the second contents is selected, the display control unit 166 reduces the area in which the third content is displayed while displaying the first content and the selected second content.

これにより、実施形態に係る端末装置100は、ユーザの直観的な操作に応じてコンテンツを表示するため、ユーザビリティを向上できる。 With this, the terminal device 100 according to the embodiment displays the content according to the intuitive operation of the user, and thus the usability can be improved.

また、実施形態に係る端末装置100において、例えば、表示制御部166は、第1コンテンツに含まれる第4コンテンツに対し所定の操作が行われた場合、第1コンテンツが表示される領域において第4コンテンツを非表示とする。また、例えば、表示部165は、第1コンテンツに含まれる第4コンテンツが選択された場合、第3コンテンツを表示する。そして、表示制御部166は、第3コンテンツが表示される領域で第4コンテンツに対する選択が解除された場合、第1コンテンツが表示される領域において第4コンテンツを非表示とし、第3コンテンツが表示される領域において第4コンテンツを表示する。また、例えば、表示部165は、選択された第4コンテンツの位置を保持したまま第3コンテンツを表示する。また、例えば、表示制御部166は、第1コンテンツが表示される領域において第4コンテンツを非表示とし、第3コンテンツが表示される領域において第4コンテンツを表示したまま第3コンテンツが表示される領域を縮小させる。 Further, in the terminal device 100 according to the embodiment, for example, when the predetermined operation is performed on the fourth content included in the first content, the display control unit 166 displays the fourth content in the area in which the first content is displayed. Hide content. Further, for example, the display unit 165 displays the third content when the fourth content included in the first content is selected. Then, when the selection of the fourth content is released in the area where the third content is displayed, the display control unit 166 hides the fourth content in the area where the first content is displayed and displays the third content. The fourth content is displayed in the displayed area. Further, for example, the display unit 165 displays the third content while holding the position of the selected fourth content. In addition, for example, the display control unit 166 hides the fourth content in the area in which the first content is displayed, and displays the third content while displaying the fourth content in the area in which the third content is displayed. Reduce the area.

これにより、実施形態に係る端末装置100は、ユーザの直観的な操作に応じてコンテンツを表示するため、ユーザビリティを向上できる。 With this, the terminal device 100 according to the embodiment displays the content according to the intuitive operation of the user, and thus the usability can be improved.

また、上述してきたように、実施形態に係るコンテンツ配信サーバ10は、受付部15と、取得部16と、推定部17と、配信部18とを有する。受付部15は、端末装置100からコンテンツの配信要求や、行動情報を受け付ける。取得部16は、受付部15が端末装置100から受け付けた行動情報に対して、画像解析、形態素解析等の種々の従来技術を適宜用いて解析することにより、行動情報に関する情報を取得する。推定部17は、ユーザの行動に関する行動情報に基づいて、ユーザの行動と対応する主題を推定する。配信部18は、ユーザが利用する端末装置であって、推定部17により推定された主題と対応する情報の表示処理を行う端末装置に主題に関する情報を配信する。 Further, as described above, the content distribution server 10 according to the embodiment has the reception unit 15, the acquisition unit 16, the estimation unit 17, and the distribution unit 18. The receiving unit 15 receives a content distribution request and action information from the terminal device 100. The acquisition unit 16 acquires information on the behavior information by analyzing the behavior information received by the reception unit 15 from the terminal device 100 by appropriately using various conventional techniques such as image analysis and morphological analysis. The estimation unit 17 estimates the subject corresponding to the user's action based on the action information regarding the user's action. The distribution unit 18 is a terminal device used by the user, and distributes information about a subject to a terminal device that displays information corresponding to the subject estimated by the estimation unit 17.

これにより、実施形態に係るコンテンツ配信サーバ10は、ユーザの行動情報に基づいてユーザの行動の主題を推定するため、ユーザの要望に沿った情報を提供できる。 As a result, the content distribution server 10 according to the embodiment estimates the subject of the user's action based on the user's action information, and thus can provide information according to the user's request.

〔8.ハードウェア構成〕
また、上述してきた各実施形態に係る端末装置は、例えば図15に示すような構成のコンピュータ1000によって実現される。以下、端末装置100を例に挙げて説明する。図15は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[8. Hardware configuration]
Further, the terminal device according to each of the embodiments described above is realized by, for example, a computer 1000 configured as shown in FIG. Hereinafter, the terminal device 100 will be described as an example. FIG. 15 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the terminal device. The computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I/F) 1500, an input/output interface (I/F) 1600, and a media interface (I/F) 1700.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 starts up, a program dependent on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from another device via the communication network 500 (corresponding to the network N of the embodiment) and sends the data to the CPU 1100, and also transmits data generated by the CPU 1100 via the communication network 500 to another device. Send to device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls output devices such as a display and a printer and input devices such as a keyboard and a mouse via the input/output interface 1600. The CPU 1100 acquires data from the input device via the input/output interface 1600. In addition, the CPU 1100 outputs the data generated via the input/output interface 1600 to the output device.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) and a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が端末装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部160の機能を実現する。また、HDD1400には、端末装置100の記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the terminal device 100, the CPU 1100 of the computer 1000 realizes the function of the control unit 160 by executing the program loaded on the RAM 1200. Further, the HDD 1400 stores each data in the storage device of the terminal device 100. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from other devices via a predetermined communication network.

〔9.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[9. Other]
As described above, some of the embodiments of the present application have been described in detail based on the drawings, but these are examples, and various modifications based on the knowledge of those skilled in the art, including the modes described in the section of the disclosure of the invention, It is possible to implement the present invention in other forms with improvements.

また、上述した端末装置100は、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 Further, the terminal device 100 described above can be flexibly changed in configuration, for example, by implementing an external platform or the like by calling it with an API (Application Programming Interface) or network computing depending on the function.

また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the “unit” described in the claims can be read as “means” or “circuit”. For example, the acquisition unit can be read as an acquisition unit or an acquisition circuit.

10 コンテンツ配信サーバ
11 通信部
12 記憶部
13 コンテンツ情報記憶部
14 制御部
15 受付部
16 取得部
17 推定部
18 配信部
20 外部装置
100 端末装置
110 通信部
120 記憶部
121 行動情報記憶部
130 入力部
140 出力部
150 撮像部
160 制御部
161 取得部
162 処理部
163 推定部
164 検索部
165 表示部
166 表示制御部
10 Content Distribution Server 11 Communication Unit 12 Storage Unit 13 Content Information Storage Unit 14 Control Unit 15 Reception Unit 16 Acquisition Unit 17 Estimating Unit 18 Distribution Unit 20 External Device 100 Terminal Device 110 Communication Unit 120 Storage Unit 121 Action Information Storage Unit 130 Input Unit 140 Output Unit 150 Imaging Unit 160 Control Unit 161 Acquisition Unit 162 Processing Unit 163 Estimating Unit 164 Searching Unit 165 Display Unit 166 Display Control Unit

Claims (19)

ユーザの行動に関する行動情報に基づいて、前記ユーザの行動と対応する主題を推定する推定手順と、
前記推定手順により推定された主題と対応する情報を検索する検索手順と、
少なくとも、前記検索手順により検索された情報に基づいたコンテンツを表示する表示手順と
をコンピュータに実行させることを特徴とする表示プログラム。
An estimation procedure for estimating a subject corresponding to the user's action based on action information about the user's action;
A search procedure for searching information corresponding to the subject estimated by the estimation procedure;
A display program for causing a computer to execute at least a display procedure for displaying content based on information retrieved by the retrieval procedure.
前記推定手順は、
前記行動情報のうち一部の行動情報に基づいて、前記主題を推定し、
前記検索手順は、
前記行動情報から前記主題と対応する情報を検索する
ことを特徴とする請求項1に記載の表示プログラム。
The estimation procedure is
Based on some of the behavior information of the behavior information, the subject is estimated,
The search procedure is
The display program according to claim 1, wherein the behavior information is searched for information corresponding to the subject.
前記推定手順は、
前記行動情報のうちユーザによって選択された行動情報に基づいて、前記主題を推定する
ことを特徴とする請求項2に記載の表示プログラム。
The estimation procedure is
The display program according to claim 2, wherein the subject is estimated based on action information selected by the user from the action information.
前記表示手順は、
前記ユーザの行動に関する行動情報と、前記検索手順により検索された情報とに基づいたコンテンツを表示する
ことを特徴とする請求項1から3のいずれか一つに記載の表示プログラム。
The display procedure is
The display program according to any one of claims 1 to 3, which displays content based on the behavior information regarding the behavior of the user and the information retrieved by the retrieval procedure.
前記表示手順は、
前記ユーザの状況に応じた態様で前記コンテンツを表示する
ことを特徴とする請求項1から4のいずれか一つに記載の表示プログラム。
The display procedure is
The display program according to any one of claims 1 to 4, wherein the content is displayed in a mode according to the situation of the user.
前記表示手順は、
前記主題に応じた態様で前記コンテンツを表示する
ことを特徴とする請求項1から5のいずれか一つに記載の表示プログラム。
The display procedure is
The display program according to any one of claims 1 to 5, wherein the content is displayed in a mode according to the subject.
前記表示手順は、
前記主題と対応する情報から時間情報または位置情報を抽出し、当該時間情報または当該位置情報に基づく表示位置に前記主題と対応する情報を配置した前記コンテンツを表示する
ことを特徴とする請求項1から6のいずれか一つに記載の表示プログラム。
The display procedure is
The time information or the position information is extracted from the information corresponding to the subject, and the content in which the information corresponding to the subject is arranged at a display position based on the time information or the position information is displayed. The display program according to any one of 1 to 6.
前記表示手順は、
前記位置情報に基づいて、前記主題と対応する情報を配置した地図情報を含む前記コンテンツを表示する
ことを特徴とする請求項7に記載の表示プログラム。
The display procedure is
The display program according to claim 7, which displays the content including map information in which information corresponding to the subject is arranged based on the position information.
前記表示手順は、
前記時間情報または前記位置情報に基づいて、前記主題と対応する情報を時系列に沿った順に配置した前記コンテンツを表示する
ことを特徴とする請求項7または8に記載の表示プログラム。
The display procedure is
The display program according to claim 7, further comprising: displaying the content in which information corresponding to the subject is arranged in chronological order based on the time information or the position information.
前記推定手順は、
前記ユーザの操作に応じて保存された情報である前記行動情報に基づいて、前記主題を推定する
ことを特徴とする請求項1から9のいずれか一つに記載の表示プログラム。
The estimation procedure is
The display program according to any one of claims 1 to 9, wherein the subject is estimated based on the action information that is information stored according to an operation of the user.
前記推定手順は、
電子メールに関する情報を含む前記行動情報に基づいて、前記主題を推定する
ことを特徴とする請求項1から10のいずれか一つに記載の表示プログラム。
The estimation procedure is
The display program according to any one of claims 1 to 10, wherein the subject is estimated based on the action information including information about electronic mail.
前記推定手順は、
アプリケーションの表示画面に関する画像の画像認識結果に基づく情報を含む前記行動情報に基づいて、前記主題を推定する
ことを特徴とする請求項1から11のいずれか一つに記載の表示プログラム。
The estimation procedure is
The display program according to any one of claims 1 to 11, wherein the subject is estimated based on the action information including information based on an image recognition result of an image regarding a display screen of an application.
前記推定手順は、
前記ユーザが行った経路検索の結果を含む前記行動情報を取得し、前記経路検索の結果に基づいて前記ユーザが訪問する地域を推定し、推定した地域を前記主題とする
ことを特徴とする請求項1から12のいずれか一つに記載の表示プログラム。
The estimation procedure is
The action information including the result of the route search performed by the user is acquired, the region visited by the user is estimated based on the result of the route search, and the estimated region is set as the subject. Item 13. A display program according to any one of items 1 to 12.
前記推定手順は、
前記行動情報のうちユーザによって選択された行動情報に基づいて、前記主題を推定し、
前記検索手順は、
前記主題と対応するウェブ上の情報を検索し、
前記表示手順は、
前記ユーザによって選択された行動情報と、前記ウェブ上の情報とを表示する
ことを特徴とする請求項1から13のいずれか一つに記載の表示プログラム。
The estimation procedure is
Based on the behavior information selected by the user of the behavior information, the subject is estimated,
The search procedure is
Search for information on the web that corresponds to the subject,
The display procedure is
The display program according to claim 1, wherein the behavior information selected by the user and the information on the web are displayed.
前記検索手順は、
前記主題と対応する施設であって、前記ユーザによって選択された行動情報と対応する位置から所定の範囲内にある施設の情報を検索する
ことを特徴とする請求項14に記載の表示プログラム。
The search procedure is
15. The display program according to claim 14, wherein information on facilities that correspond to the subject and are within a predetermined range from a position that corresponds to the behavior information selected by the user is searched.
前記検索手順は、
前記ユーザの検索履歴に基づいて、前記施設の情報を検索する
ことを特徴とする請求項15に記載の表示プログラム。
The search procedure is
The display program according to claim 15, wherein information on the facility is searched based on a search history of the user.
ユーザの行動に関する行動情報に基づいて、前記ユーザの行動と対応する主題を推定する推定部と、
前記推定部により推定された主題と対応する情報を検索する検索部と、
少なくとも、前記検索部により検索された情報に基づいたコンテンツを表示する表示部と
を備えることを特徴とする表示装置。
An estimation unit that estimates a subject corresponding to the user's action based on action information about the user's action;
A search unit for searching information corresponding to the subject estimated by the estimation unit;
At least a display unit for displaying content based on the information retrieved by the retrieval unit.
コンピュータが実行する表示方法であって、
ユーザの行動に関する行動情報に基づいて、前記ユーザの行動と対応する主題を推定する推定工程と、
前記推定工程により推定された主題と対応する情報を検索する検索工程と、
少なくとも、前記検索工程により検索された情報に基づいたコンテンツを表示する表示工程と
を含むことを特徴とする表示方法。
A display method performed by a computer,
An estimation step of estimating a subject corresponding to the user's action based on action information about the user's action;
A search step of searching information corresponding to the subject estimated by the estimating step;
At least, a display step of displaying content based on the information retrieved by the retrieval step.
ユーザの行動に関する行動情報に基づいて、前記ユーザの行動と対応する主題を推定する推定部と、
前記ユーザが利用する端末装置であって、前記推定部により推定された主題と対応する情報の表示処理を行う端末装置に前記主題に関する情報を配信する配信部と
を備えることを特徴とする情報処理装置。
An estimation unit that estimates a subject corresponding to the user's action based on action information about the user's action;
A terminal unit used by the user, comprising: a distribution unit that distributes information related to the subject to a terminal device that displays information corresponding to the subject estimated by the estimation unit. apparatus.
JP2018248526A 2018-12-28 2018-12-28 Display program, display device, display method, and information processing device Pending JP2020107288A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018248526A JP2020107288A (en) 2018-12-28 2018-12-28 Display program, display device, display method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248526A JP2020107288A (en) 2018-12-28 2018-12-28 Display program, display device, display method, and information processing device

Publications (1)

Publication Number Publication Date
JP2020107288A true JP2020107288A (en) 2020-07-09

Family

ID=71449240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248526A Pending JP2020107288A (en) 2018-12-28 2018-12-28 Display program, display device, display method, and information processing device

Country Status (1)

Country Link
JP (1) JP2020107288A (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156562A (en) * 2005-11-30 2007-06-21 Toshiba Corp Virtual travel experience system
JP2008052673A (en) * 2006-08-28 2008-03-06 Toshiba Corp Information distribution system, and processor and terminal for information distribution system
JP2008152606A (en) * 2006-12-19 2008-07-03 Dainippon Printing Co Ltd Information recommendation system
JP2011253256A (en) * 2010-05-31 2011-12-15 Nippon Telegr & Teleph Corp <Ntt> Related content presentation device and program
JP2012207940A (en) * 2011-03-29 2012-10-25 Denso Corp On-vehicle information presentation apparatus
JP2013210850A (en) * 2012-03-30 2013-10-10 Denso It Laboratory Inc Feedback function providing device, feedback function providing method, and program
JP2017078914A (en) * 2015-10-19 2017-04-27 ヤフー株式会社 Determination device, determination method, and determination program
JP2017097503A (en) * 2015-11-19 2017-06-01 ヤフー株式会社 Determination device, determination method, and determination program
JP2017123182A (en) * 2017-02-16 2017-07-13 株式会社ナビタイムジャパン Information processing system, information processing method, and information processing program
JP2018004510A (en) * 2016-07-05 2018-01-11 アルパイン株式会社 Display control device and display control method
JP2018092458A (en) * 2016-12-06 2018-06-14 ヤフー株式会社 Distribution apparatus, distribution method, distribution program, terminal apparatus, display method, and display program
US10080114B1 (en) * 2014-07-11 2018-09-18 Google Llc Detection and ranking of entities from mobile onscreen content
JP2018152124A (en) * 2018-06-04 2018-09-27 ヤフー株式会社 Extraction device, extraction method, and extraction program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156562A (en) * 2005-11-30 2007-06-21 Toshiba Corp Virtual travel experience system
JP2008052673A (en) * 2006-08-28 2008-03-06 Toshiba Corp Information distribution system, and processor and terminal for information distribution system
JP2008152606A (en) * 2006-12-19 2008-07-03 Dainippon Printing Co Ltd Information recommendation system
JP2011253256A (en) * 2010-05-31 2011-12-15 Nippon Telegr & Teleph Corp <Ntt> Related content presentation device and program
JP2012207940A (en) * 2011-03-29 2012-10-25 Denso Corp On-vehicle information presentation apparatus
JP2013210850A (en) * 2012-03-30 2013-10-10 Denso It Laboratory Inc Feedback function providing device, feedback function providing method, and program
US10080114B1 (en) * 2014-07-11 2018-09-18 Google Llc Detection and ranking of entities from mobile onscreen content
JP2017078914A (en) * 2015-10-19 2017-04-27 ヤフー株式会社 Determination device, determination method, and determination program
JP2017097503A (en) * 2015-11-19 2017-06-01 ヤフー株式会社 Determination device, determination method, and determination program
JP2018004510A (en) * 2016-07-05 2018-01-11 アルパイン株式会社 Display control device and display control method
JP2018092458A (en) * 2016-12-06 2018-06-14 ヤフー株式会社 Distribution apparatus, distribution method, distribution program, terminal apparatus, display method, and display program
JP2017123182A (en) * 2017-02-16 2017-07-13 株式会社ナビタイムジャパン Information processing system, information processing method, and information processing program
JP2018152124A (en) * 2018-06-04 2018-09-27 ヤフー株式会社 Extraction device, extraction method, and extraction program

Similar Documents

Publication Publication Date Title
JP6130335B2 (en) Information display program, distribution device, information display method, and information display device
US9702706B2 (en) Facility wayfinding system
JP5837108B2 (en) Distribution device, terminal device, distribution method, and distribution program
US20200344188A1 (en) Systems and Methods for Providing Real-Time, Interactive Email Content
CN108140253A (en) For providing computer implemented method, client device and the readable storage medium storing program for executing that map represents and controllable time section is shown
KR101907002B1 (en) Apparatus and method for creating and searching location-tagged contents in computing device
JP5714145B1 (en) Distribution device, terminal device, distribution method, and distribution program
JP5580924B1 (en) Distribution device, terminal device, distribution method, and distribution program
JP6664589B1 (en) Display program, display device, and display method
JP2017021436A (en) Information display program, information display device, information display method, distribution device and distribution method
JP2016181064A (en) Image recording apparatus and information providing system
JP2017162212A (en) Information processing device, information processing method, and program
JP5749819B1 (en) Distribution device, terminal device, distribution method, and distribution program
JP5996134B2 (en) Distribution device, terminal device, distribution method, and distribution program
JP6224682B2 (en) Information display program, information display device, information display method, and distribution device
JP6712614B2 (en) Page generation system, page generation method, and program
JP6664597B1 (en) Information display program, information display device, and information display method
JP6360114B2 (en) Display program, terminal device, display method, and distribution device
JP6005217B2 (en) DISTRIBUTION DEVICE, DISPLAY PROGRAM, TERMINAL DEVICE, INFORMATION DISPLAY METHOD, DISTRIBUTION METHOD, AND DISTRIBUTION PROGRAM
JP6158903B2 (en) Information display program, information display device, information display method, and distribution device
JP2020107288A (en) Display program, display device, display method, and information processing device
JP5767350B1 (en) Distribution device, terminal device, distribution method, and distribution program
JP2015099557A (en) Distribution device, terminal device, distribution method, distribution program, and terminal program
JP2017129752A (en) Information display program, information display method, and control device
JP6917531B1 (en) Information processing equipment, information processing methods and information processing programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190115

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201013