JP4393454B2 - Information presentation system, information presentation method, and information presentation device - Google Patents

Information presentation system, information presentation method, and information presentation device Download PDF

Info

Publication number
JP4393454B2
JP4393454B2 JP2005376254A JP2005376254A JP4393454B2 JP 4393454 B2 JP4393454 B2 JP 4393454B2 JP 2005376254 A JP2005376254 A JP 2005376254A JP 2005376254 A JP2005376254 A JP 2005376254A JP 4393454 B2 JP4393454 B2 JP 4393454B2
Authority
JP
Japan
Prior art keywords
content
viewing
information
user
viewed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005376254A
Other languages
Japanese (ja)
Other versions
JP2007179254A (en
Inventor
昌之 岡本
秀雄 梅木
千加夫 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005376254A priority Critical patent/JP4393454B2/en
Publication of JP2007179254A publication Critical patent/JP2007179254A/en
Application granted granted Critical
Publication of JP4393454B2 publication Critical patent/JP4393454B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、過去にユーザが視聴したコンテンツに関する情報を提示する情報提示システム、特に、ユーザの現在状況に応じて視聴済みのコンテンツに関する情報を提示する情報提示システムに関する。   The present invention relates to an information presentation system that presents information related to content that has been viewed by a user in the past, and more particularly, to an information presentation system that presents information related to content that has been viewed according to the current state of the user.

テレビなどのコンテンツ視聴による経験は疑似体験とも言えるものであるが、テレビ番組で見つけたレストランの場所や欲しいと思った商品などを、実際にユーザが関係する状況、例えばそのレストランの近くを通りかかったり、商品のある場所でそれを思い出したりするためには、あらかじめメモを取っておくなどして明示的に活用を意識する必要がある。   The experience of watching content such as TV is a pseudo-experience, but the location of the restaurant found on the TV program or the product you wanted, such as the situation where the user is actually concerned, such as passing near the restaurant In order to recall a product at a certain place, it is necessary to be aware of its usage by taking notes in advance.

従来、ユーザが適当な状況に置かれた場合に推薦・提示する方法としては、視聴結果からユーザの嗜好を表すユーザモデルを作成し、未視聴のコンテンツを推薦するような方法が提案されている。   Conventionally, as a method of recommending / presenting when a user is placed in an appropriate situation, a method has been proposed in which a user model representing a user's preference is created from viewing results and unviewed content is recommended. .

このユーザモデルによる方法では、マーキングを意識させず、ユーザの操作履歴からユーザの嗜好を学習し、ユーザに先立ってコンテンツを選択することが行われている。例えば、特許文献1では、テレビ番組において、視聴履歴に基づくユーザ嗜好に基づき、番組表からユーザに推薦する番組を選択して表示する方法が提案されている。
特開2003−114903号公報(第9〜14頁、図4,5)
In this method based on the user model, the user's preference is learned from the user's operation history without considering the marking, and the content is selected prior to the user. For example, Patent Literature 1 proposes a method of selecting and displaying a program recommended to a user from a program guide based on a user preference based on a viewing history in a television program.
JP 2003-114903 A (9th to 14th pages, FIGS. 4 and 5)

しかしながら、ユーザモデルに基づく推薦は、未視聴のコンテンツのうちユーザが好みそうなものを選択することが目的であり、視聴済みのコンテンツを更に活用することを目指したものではない。   However, the recommendation based on the user model is intended to select unviewed content that the user is likely to like, and is not intended to further utilize the viewed content.

本発明は、上記に鑑みてなされたものであって、ユーザが過去に視聴したコンテンツを後でユーザの現在状況に応じてそのコンテンツに関する情報を提示することによりユーザに過去の視聴経験を想起させる情報提示システム、情報提示方法、情報提示装置を提供することを目的とする。   The present invention has been made in view of the above and presents the user with a past viewing experience by presenting information related to the content that the user has viewed in the past according to the current situation of the user later. An object is to provide an information presentation system, an information presentation method, and an information presentation apparatus.

第1の発明は、視聴済みのコンテンツを格納するコンテンツ格納手段と、前記コンテンツの視聴属性を格納する視聴属性格納手段と、前記コンテンツを視聴したユーザ自身または周囲の現在の状況情報を入力する入力手段と、前記入力されたユーザ自身または周囲の現在の状況情報と前記コンテンツの視聴属性とを照合する照合手段と、前記照合手段によって、前記ユーザ自身または周囲の現在の状況情報と少なくとも部分一致すると照合された、視聴済みのコンテンツ情報をユーザに提示する提示手段とを備える情報提示システムである。   The first invention is a content storage means for storing content that has already been viewed, a viewing attribute storage means for storing a viewing attribute of the content, and an input for inputting current situation information of the user who has viewed the content or the surrounding area. Means for collating the input current situation information of the user or surroundings with the viewing attribute of the content, and the collating means at least partially matches the current situation information of the user itself or surroundings. It is an information presentation system comprising presentation means for presenting collated content information that has been viewed to a user.

第2の発明は、前記入力手段によって入力されたユーザ自身または周囲の現在の状況情報は、前記ユーザ自身の現在の位置情報、または、ユーザが閲覧している表示デバイスに表示されている情報であることを特徴とする第1の発明記載の情報提示システムである。   According to a second aspect of the present invention, the current status information of the user himself or his / her surroundings input by the input means is the current location information of the user himself / herself or information displayed on a display device being browsed by the user. There is provided an information presentation system according to the first invention.

第3の発明は、前記提示手段は、前記照合された視聴済みのコンテンツ情報内の画像データ又はテキストデータから画像クリップ又はメッセージデータを生成し、提示することを特徴とする第1の発明記載の情報提供システムである。   According to a third aspect of the invention, the presenting means generates and presents an image clip or message data from the image data or text data in the collated viewed content information. Information provision system.

第4の発明は、前記視聴属性格納手段は、前記視聴属性として、前記視聴済みのコンテンツの識別子、視聴日時、及び、音声または文字情報を組にして格納することを特徴とする第1の発明記載の情報提供システムである。   According to a fourth aspect of the invention, the viewing attribute storage means stores the identifier of the viewed content, the viewing date and time, and voice or text information as a pair as the viewing attribute. It is an information provision system of description.

第5の発明は、視聴済みのコンテンツを格納し、前記コンテンツの視聴属性を格納し、前記コンテンツを視聴したユーザ自身または周囲の現在の状況情報を入力し、前記入力されたユーザ自身または周囲の現在の状況情報と前記コンテンツの視聴属性とを照合し、前記ユーザ自身または周囲の現在の状況情報と少なくとも部分一致すると照合された、視聴済みのコンテンツ情報をユーザに提示することを特徴とする情報提示方法である。   The fifth invention stores the viewed content, stores the viewing attribute of the content, inputs the current status information of the user who has viewed the content or the surroundings, and the input user itself or the surroundings Information comparing current status information and viewing attributes of the content, and presenting the viewed content information that has been verified to match at least partially the current status information of the user or the surroundings to the user It is a presentation method.

第6の発明は、視聴済みのコンテンツを格納するコンテンツ格納手段と、前記コンテンツの視聴属性を格納する視聴属性格納手段と、前記コンテンツを視聴したユーザ自身または周囲の現在の状況情報を受信する受信手段と、前記入力されたユーザ自身または周囲の現在の状況情報と前記コンテンツの視聴属性とを照合する照合手段と、前記照合手段によって、前記ユーザ自身または周囲の現在の状況情報と少なくとも部分一致すると照合された、視聴済みのコンテンツ情報を表示装置に表示する送信手段とを備える情報提示装置である。   According to a sixth aspect of the present invention, there is provided content storage means for storing the viewed content, viewing attribute storage means for storing the viewing attribute of the content, and reception for receiving current status information of the user who viewed the content or the surrounding area. Means for collating the input current situation information of the user or surroundings with the viewing attribute of the content, and the collating means at least partially matches the current situation information of the user itself or surroundings. The information presenting apparatus includes a transmitting unit that displays the collated and viewed content information on the display device.

本発明によれば、ユーザが過去に視聴したコンテンツを後でユーザの現在状況に応じてそのコンテンツに関する情報を提示することによりユーザに過去の視聴経験を想起させる情報提示システム、情報提示方法、情報提示装置を提供することができる。   According to the present invention, the information presentation system, the information presentation method, and the information that make the user recall the past viewing experience by presenting information related to the content that the user has viewed in the past according to the current situation of the user later. A presentation device can be provided.

以下、本発明の実施の形態について図面を参照しながら説明する。本実施形態にかかる情報提示システムは、コンピュータ上で管理される視聴済みコンテンツの視聴属性をもとに、コンテンツに関する情報を提示するものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The information presentation system according to the present embodiment presents information related to content based on viewing attributes of viewed content managed on a computer.

本実施形態にかかる情報提示システムは、CPUなどの制御装置と、ROMやRAMなどの記憶装置と、HDDなどの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボード、マウスなどの入力装置とを備えた、一般的なコンピュータに適用することができる。   An information presentation system according to the present embodiment includes a control device such as a CPU, a storage device such as a ROM and a RAM, an external storage device such as an HDD, a display device such as a display device, and an input device such as a keyboard and a mouse. It can be applied to a general computer equipped with

以下では、利用者が過去に視聴したテレビ番組の映像コンテンツを用いて、テレビ視聴以外の作業を行う時に映像あるいは映像の視聴属性を提示する例を示す。なお、本実施形態では視聴コンテンツとしてテレビ番組の映像コンテンツを対象とするが、視聴コンテンツとして活用するのはテレビ番組に限るものではなく、DVDなど他の映像媒体や、音声コンテンツ、あるいはテキストやWebページなどの電子データを対象とするように構成してもよい。   In the following, an example is shown in which video or video viewing attributes are presented when work other than television viewing is performed using video content of a television program that the user has viewed in the past. In this embodiment, the video content of the TV program is targeted as the viewing content, but it is not limited to the TV program, but is used as the viewing content. Other video media such as a DVD, audio content, text, Web You may comprise so that electronic data, such as a page, may be made into object.

図1は、本実施形態にかかる情報提示システムの概略構成を示すブロック図である。同図に示すように、情報提示システムは、コンテンツを再生するコンテンツ再生部110と、再生したコンテンツを格納する視聴済みコンテンツ格納部120と、視聴日時等の属性を取得する視聴属性取得部130と、再生したコンテンツに対して音声認識処理及び画像認識処理を実行する音声認識部140及び画像認識部150と、認識結果に対し意味属性を付与する意味解析部160と、取得した視聴属性を格納する視聴属性格納部170と、ユーザの現在状況を入力する状況情報入力部180と、入力された状況情報と視聴属性情報と照合する視聴属性照合部190と、照合された視聴属性に応じてユーザに提示する情報を生成する表示内容生成部200と、生成された情報を表示する表示部210と、実際にユーザに提示された履歴を管理する表示履歴制御部220とを備えている。各格納部は、HDD、光ディスク、メモリカード、RAMなどの一般的に利用されているあらゆる記憶手段により構成することができる。   FIG. 1 is a block diagram showing a schematic configuration of the information presentation system according to the present embodiment. As shown in the figure, the information presentation system includes a content reproduction unit 110 that reproduces content, a viewed content storage unit 120 that stores the reproduced content, and a viewing attribute acquisition unit 130 that acquires attributes such as viewing date and time. The voice recognition unit 140 and the image recognition unit 150 that perform voice recognition processing and image recognition processing on the reproduced content, the semantic analysis unit 160 that assigns a semantic attribute to the recognition result, and the acquired viewing attribute are stored. A viewing attribute storage unit 170, a situation information input unit 180 for inputting the current situation of the user, a viewing attribute matching unit 190 for matching the inputted situation information and the viewing attribute information, and the user according to the checked viewing attribute Display content generation unit 200 for generating information to be presented, display unit 210 for displaying the generated information, and history actually presented to the user And a display history control unit 220 to manage. Each storage unit can be configured by any commonly used storage means such as an HDD, an optical disk, a memory card, and a RAM.

以下、各機能ブロックの説明を行う。それぞれの機能ブロックを構成するデータ構造や処理の流れは、必要に応じて後述する。   Hereinafter, each functional block will be described. The data structure and processing flow constituting each functional block will be described later as necessary.

コンテンツ再生部110は、ユーザが視聴するテレビ番組を再生する。コンテンツにはテレビ放送の映像自体に加え、EPGやデータ放送、字幕など映像信号と重畳して配信されるメタデータも含まれる。視聴されたコンテンツはその都度視聴済みコンテンツ格納部120に保存・格納されるとともに、視聴属性取得部130によって映像から画像認識処理等によって取得可能な情報や重畳されるメタデータが抽出される。   The content reproduction unit 110 reproduces a television program that the user views. In addition to the video of the television broadcast itself, the content includes metadata delivered by superimposing the video signal such as EPG, data broadcast, and caption. The viewed content is stored and stored in the viewed content storage unit 120 each time, and information that can be acquired by video recognition processing or the like from the video and superposed metadata are extracted from the video by the viewing attribute acquisition unit 130.

視聴属性取得部130は、音声認識部140や画像認識部150の認識結果から得られるテキストデータを入力し、視聴日時や各認識結果のテキストデータに含まれる人名、地名などのキーワードを意味解析部160を用いて抽出した後、映像情報に重畳されているメタデータや出現時刻、元の映像コンテンツのIDと組にして視聴属性格納部170に格納する。   The viewing attribute acquisition unit 130 receives text data obtained from the recognition results of the voice recognition unit 140 and the image recognition unit 150, and uses keywords such as names and place names included in the text data of the viewing date and time and each recognition result as a semantic analysis unit. After extracting using 160, the metadata is superimposed on the video information, the appearance time, and the ID of the original video content and stored in the viewing attribute storage unit 170.

音声認識部140は、映像情報中の音声または音楽を認識し、認識された音声または認識された音楽の曲名をテキストデータとして出力する。   The voice recognition unit 140 recognizes voice or music in the video information, and outputs the recognized voice or the music title of the recognized music as text data.

画像認識部150は、映像中の人物、建物、テロップなどの部分画像を認識し、認識した部分画像の範囲と認識結果の内容を表すテキストデータを出力する。   The image recognition unit 150 recognizes partial images such as a person, a building, and a telop in the video, and outputs text data representing the recognized partial image range and the content of the recognition result.

意味解析部160は、テキストデータ中に含まれる単語に対し、人名、地名などの意味属性を付与する。   The semantic analysis unit 160 assigns semantic attributes such as a person name and a place name to words included in the text data.

視聴属性格納部170は、視聴属性取得部130によって取得されたキーワードやメタデータ、出現時刻、コンテンツIDを組にしたものを格納する。   The viewing attribute storage unit 170 stores a combination of the keyword and metadata acquired by the viewing attribute acquisition unit 130, the appearance time, and the content ID.

状況情報入力部180は、ユーザの現在の場所や周囲にある表示デバイスなどユーザが利用するデバイスのリアルタイムに計測可能な情報を入力する。例えば、ユーザの周囲にある表示デバイスやGPS、無線タグなどユーザが身につけている機器、あるいは顔画像認識などによりユーザを同定する機器であればよい。   The status information input unit 180 inputs information that can be measured in real time on a device used by the user, such as a current location of the user and a display device around the user. For example, a display device around the user, a device worn by the user such as a GPS or a wireless tag, or a device that identifies the user by face image recognition or the like may be used.

視聴済みコンテンツ格納部120は、ユーザが視聴した映像コンテンツ自体を格納する。   The viewed content storage unit 120 stores the video content itself viewed by the user.

視聴属性照合部190は、状況情報入力部180により入力された情報と視聴属性格納部170に格納された情報とを照合し、対応する視聴属性、すなわち、少なくとも部分一致する視聴属性が存在するかどうか照合する。   The viewing attribute collation unit 190 collates the information input by the situation information input unit 180 with the information stored in the viewing attribute storage unit 170, and whether there is a corresponding viewing attribute, that is, at least a partially matching viewing attribute. Please check.

表示内容生成部200は、視聴属性照合部190によって照合された視聴属性と対応する視聴済みコンテンツ情報から、提示する内容を生成する。すなわち、コンテンツ情報内の画像データから画像クリップを、または、コンテンツ情報内のテキストデータからメッセージデータを生成する。   The display content generation unit 200 generates the content to be presented from the viewed content information corresponding to the viewing attribute verified by the viewing attribute verification unit 190. That is, an image clip is generated from the image data in the content information, or message data is generated from the text data in the content information.

表示部210は、表示内容生成部200によって決定された提示内容をユーザに提示する。   The display unit 210 presents the presentation content determined by the display content generation unit 200 to the user.

表示履歴制御部220は、実際にユーザに提示された情報に対応するコンテンツに関して提示済みフラグを設定する。   The display history control unit 220 sets a presented flag for content corresponding to information actually presented to the user.

次に、このように構成された本実施形態にかかる情報提示システムによる情報提示処理について説明する。   Next, information presentation processing by the information presentation system according to the present embodiment configured as described above will be described.

図2は、本実施形態においてテレビ視聴時に視聴属性が抽出・格納されるまでの処理の流れを示す。ユーザがコンテンツを再生し(S210)、視聴すると(S220のYes)、コンテンツは視聴済みコンテンツ格納部120に逐次格納される(S230)。また、視聴中のコンテンツに対しては音声認識・画像認識を行い(S240)、認識されたテキストデータに対して意味解析を行い、各時刻において人名や地名といった意味属性を持つキーワードを抽出する(S250)。これらのデータに加え、視聴コンテンツに付与されたコンテンツIDと番組に重畳されたメタデータを組にして視聴属性格納部170に格納する(S250)。上記の処理は,ユーザがテレビ番組を視聴する間継続して行われる。   FIG. 2 shows the flow of processing until the viewing attributes are extracted and stored when viewing the television in the present embodiment. When the user reproduces the content (S210) and views it (Yes in S220), the content is sequentially stored in the viewed content storage unit 120 (S230). Further, speech recognition and image recognition are performed on the content being viewed (S240), semantic analysis is performed on the recognized text data, and keywords having semantic attributes such as names of persons and places are extracted at each time ( S250). In addition to these data, the content ID assigned to the viewing content and the metadata superimposed on the program are combined and stored in the viewing attribute storage unit 170 (S250). The above processing is continuously performed while the user views the television program.

図3は、視聴属性格納部170に格納された視聴属性の例を示す。番組を視聴すると、コンテンツ毎にコンテンツID、番組名、番組ジャンルのメタデータ、およびユーザが実際に視聴した日時が格納される。また、番組中のチャプター毎に、音声やテロップ、字幕から認識・検出されたキーワードと意味解析結果の属性が格納される。また、後述するように視聴属性を提示したことを示す提示済みフラグも格納される。   FIG. 3 shows an example of viewing attributes stored in the viewing attribute storage unit 170. When a program is viewed, the content ID, program name, program genre metadata, and date and time actually viewed by the user are stored for each content. In addition, for each chapter in the program, a keyword recognized and detected from voice, telop, and subtitle and an attribute of a semantic analysis result are stored. Further, a presentation flag indicating that the viewing attribute has been presented is also stored as will be described later.

図4は、視聴済みコンテンツ格納部120に格納されたコンテンツの例を示す。番組を特定するためのコンテンツIDと対応する映像ファイルが格納され、コンテンツIDを参照することにより格納されているコンテンツを呼び出し、再生することができるようになっている。   FIG. 4 shows an example of content stored in the viewed content storage unit 120. A video file corresponding to a content ID for specifying a program is stored, and the stored content can be called and reproduced by referring to the content ID.

なお、映像ファイルが別の格納部(例えば、録画格納部)に記録してあり、録画コンテンツを視聴した場合、視聴済みコンテンツ格納部120には、番組を特定するためのコンテンツIDと対応する映像ファイルが格納されている別の格納部(例えば、録画格納部)の場所情報が格納され、コンテンツIDを参照することにより別の格納部(例えば、録画格納部)に格納されているコンテンツを呼び出し、再生することができるようにしてもよい。   When the video file is recorded in another storage unit (for example, a recording storage unit) and the recorded content is viewed, the viewed content storage unit 120 stores the video corresponding to the content ID for specifying the program. Location information of another storage unit (for example, recording storage unit) in which the file is stored is stored, and content stored in another storage unit (for example, recording storage unit) is called by referring to the content ID , It may be possible to reproduce.

図5は、本実施形態において他の活動を行っている時に以前視聴したテレビ番組に関する情報を提示する処理の流れを示す。   FIG. 5 shows a flow of processing for presenting information related to a television program that was previously viewed when other activities are being performed in this embodiment.

まず、PCや携帯電話、デジタルテレビといったユーザが利用するデバイス等の状況情報入力部180からの情報入力を受け付ける(S510)。入力される情報には、PC上で表示するWebブラウザのテキストや、GPS塔載携帯電話からの位置情報などが含まれる。   First, information input from the status information input unit 180 such as a device used by a user such as a PC, a mobile phone, or a digital TV is received (S510). The input information includes the text of the Web browser displayed on the PC and the location information from the GPS tower mobile phone.

入力された情報は視聴属性照合部190によって、視聴属性格納部170に格納されている各視聴属性と照合される(S520)。   The input information is collated with each viewing attribute stored in the viewing attribute storage unit 170 by the viewing attribute collation unit 190 (S520).

図6は、図5のS530に対応する視聴属性照合の流れを示す。入力された情報がテキストデータの場合(S610のYes)、各項目のキーワードとのマッチングにより(S620)、照合を行う(S630)。一方、位置情報の場合(S640のYes)、地名や住所情報を緯度経度に変換することにより(S650)、距離を計算し(S660)、あらかじめ決められた範囲内に存在するかどうか判定することにより(S670)、照合を行うことで入力情報と視聴属性との照合が行われる。照合された視聴属性は表示内容生成部200に送られ(S680)、実際にどのように表示されるかが決定される。   FIG. 6 shows a flow of viewing attribute matching corresponding to S530 of FIG. When the input information is text data (Yes in S610), matching is performed by matching with the keyword of each item (S620) (S630). On the other hand, in the case of position information (Yes in S640), by converting the place name and address information into latitude and longitude (S650), the distance is calculated (S660), and it is determined whether or not it exists within a predetermined range. (S670), the collation is performed between the input information and the viewing attribute. The verified viewing attribute is sent to the display content generation unit 200 (S680), and how it is actually displayed is determined.

図7は、図5のS540に対応する表示内容を決定する例を示す。本実施形態では、一定時間以上視聴したコンテンツ(S710のYes)をユーザが興味を持って視聴したコンテンツとみなし、その中でまだ提示していないコンテンツのみを表示対象とする(S720のNo)。   FIG. 7 shows an example of determining display contents corresponding to S540 of FIG. In the present embodiment, the content that has been viewed for a certain period of time (Yes in S710) is regarded as the content that the user has viewed with interest, and only the content that has not been presented yet is displayed (No in S720).

表示内容については、視聴してから日が浅いコンテンツ(S730のNo)に関してはユーザは映像を見なくとも「先日××番組で見たレストラン」のように提示するだけで思い出すことができるので、視聴属性のみ表示することに決定される(S740)。視聴してから日数の経過したコンテンツ(S730のYes)に関しては、視聴属性だけでは思い出せない可能性が高いので、映像コンテンツ自体もあわせて提示する(S750)。他にも、ユーザが操作する表示デバイスに応じて表示方法を決定するようにしてもよい。   As for the display content, since the user can view the content that has not been watched since it was viewed (No in S730) by simply presenting it like “the restaurant you watched in the other day xx program” without viewing the video, It is determined that only the viewing attribute is displayed (S740). Regarding the content that has been viewed since the viewing (Yes in S730), there is a high possibility that it cannot be remembered only by the viewing attribute, so the video content itself is also presented (S750). In addition, the display method may be determined according to the display device operated by the user.

表示内容生成部200によって生成された表示内容は、表示部210を用いてユーザが利用中の表示デバイスに対して表示される(S550)。   The display content generated by the display content generation unit 200 is displayed on the display device being used by the user using the display unit 210 (S550).

このようにすることで、例えばレストランの紹介番組を見た後では、例えばGPS内蔵の携帯電話を持ってそのレストランの付近を通りかかった時には「先週××番組で見た△△レストランがこの近くにありますよ」という提示が行われたり、レストラン情報の一覧を表示するWebサイトを見ている時には、番組で視聴した「△△レストラン」の項目の横に「××番組で見たレストランです」のような表示が追加される。   In this way, for example, after watching a restaurant introduction program, for example, when you walk around the restaurant with a mobile phone with built-in GPS, "L When you are viewing a website that displays a list of restaurant information, you can see "The restaurant you saw on the XX program" next to the "△△ restaurant" item you watched on the program. A display like this is added.

情報が提示された後は、一度提示された視聴属性が何度も表示されるのを防ぐために、表示履歴制御部220によって視聴属性に視聴済みフラグが付与される(S560)。   After the information is presented, the viewing history control unit 220 assigns a viewed flag to the viewing attribute in order to prevent the viewing attribute once presented from being displayed many times (S560).

(実施例1)
図8は、実施例1の利用シーンの説明図である。実施例1に係る情報提示システムは、HDDレコーダと、GPS機能を備えた携帯端末で構成され、場所情報に基づいて、過去に視聴したコンテンツに関する情報を提示する。
Example 1
FIG. 8 is an explanatory diagram of a usage scene according to the first embodiment. The information presentation system according to the first embodiment includes an HDD recorder and a portable terminal having a GPS function, and presents information related to content viewed in the past based on location information.

すなわち、図1で説明した機能ブロックのうち、携帯端末側には、状況情報入力部180と、表示部210と、表示履歴制御部220を備えており、それ以外の機能ブロックはHDDレコーダ側が備えている。   That is, among the functional blocks described in FIG. 1, the mobile terminal side includes a status information input unit 180, a display unit 210, and a display history control unit 220, and other functional blocks are provided on the HDD recorder side. ing.

(a)ユーザが、HDDレコーダ側のコンテンツ再生部110が再生したコンテンツをテレビで視聴する。   (A) A user views the content reproduced by the content reproduction unit 110 on the HDD recorder side on a television.

(b)GPS機能を備えた携帯端末側の状況情報入力部180はGPS情報をHDDレコーダ側の視聴属性照合部190に送信する。そして、ユーザが、コンテンツで視聴したお店のそばを通ると、視聴属性照合部190は視聴属性格納部170から該当する視聴属性を照合する。   (B) The portable terminal side status information input unit 180 having a GPS function transmits GPS information to the HDD recorder side viewing attribute matching unit 190. Then, when the user passes by the shop viewed with the content, the viewing attribute collation unit 190 collates the corresponding viewing attribute from the viewing attribute storage unit 170.

(c)表示内容生成部200では、画像クリップ再生またはメッセージ再生する内容を生成し、携帯端末側の表示部210に送信され、ユーザに提示される。   (C) The display content generation unit 200 generates content for image clip playback or message playback, and transmits the content to the display unit 210 on the mobile terminal side for presentation to the user.

(実施例2)
図9は、実施例2の利用シーンの説明図である。実施例2に係る情報提示システムは、HDDレコーダ及びデジタルテレビで構成され、キーワードに基づいて、過去に視聴したコンテンツに関する情報を提示する。
(Example 2)
FIG. 9 is an explanatory diagram of a usage scene according to the second embodiment. The information presentation system according to the second embodiment includes an HDD recorder and a digital television, and presents information related to content viewed in the past based on keywords.

すなわち、図1で説明した機能ブロックのうち、デジタルテレビ側には、状況情報入力部180と、表示部210と、表示履歴制御部220を備えており、それ以外の機能ブロックはHDDレコーダ側が備えている。     That is, among the functional blocks described in FIG. 1, the digital television side includes a status information input unit 180, a display unit 210, and a display history control unit 220, and other functional blocks are provided on the HDD recorder side. ing.

(a)ユーザが、HDDレコーダ側のコンテンツ再生部110が再生したコンテンツをデジタルテレビで視聴する。   (A) A user views content reproduced by the content reproduction unit 110 on the HDD recorder side on a digital television.

(b)Webブラウザ機能付きデジタルテレビ側の状況情報入力部180は、ユーザが閲覧しているWebページのテキスト情報をHDDレコーダ側の視聴属性照合部190に送信する。そして、送られてきたテキスト情報をキーワードとして、ユーザがコンテンツで視聴した名所を検索し、視聴属性照合部190は視聴属性格納部170から該当する視聴属性を照合する。   (B) The status information input unit 180 on the digital television side with the Web browser function transmits text information of the Web page being browsed by the user to the viewing attribute matching unit 190 on the HDD recorder side. Then, using the received text information as a keyword, the user searches for the sights viewed by the content, and the viewing attribute matching unit 190 matches the corresponding viewing attribute from the viewing attribute storage unit 170.

(c)表示内容生成部200では、画像クリップ再生する内容を生成し、携帯端末側の表示部210でユーザに提示する。   (C) The display content generation unit 200 generates content for image clip reproduction and presents it to the user on the display unit 210 on the mobile terminal side.

このように、本実施の形態にかかる情報提示システムでは、状況に応じて表示形式を変えて過去に視聴したコンテンツを提示することにより、現在の状況をユーザの経験と結び付けることが容易に行えるとともに、経験済みのコンテンツに特化することで提示理由の説明が容易に行える。   As described above, in the information presentation system according to the present embodiment, it is possible to easily link the current situation with the user's experience by presenting the content viewed in the past by changing the display format according to the situation. The reason for presentation can be easily explained by specializing in experienced content.

本実施の形態にかかる情報提示システムで実行される情報提示プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フロッピー(R)ディスク、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The information presentation program executed by the information presentation system according to the present embodiment is an installable or executable file that is read by a computer such as a CD-ROM, floppy (R) disk, CD-R, or DVD. It is provided by being recorded on a possible recording medium.

また、本実施の形態にかかる情報提示装置で実行される情報提示プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施の形態にかかる情報提示装置で実行される情報提示プログラムをインターネット等のネットワーク経由で提供または配布するようにしても良い。   In addition, the information presentation program executed by the information presentation apparatus according to the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. . The information presentation program executed by the information presentation apparatus according to the present embodiment may be provided or distributed via a network such as the Internet.

また、本実施の形態の情報提示プログラムを、ROM等に予め組み込んで提供するように構成しても良い。   Further, the information presentation program of the present embodiment may be provided by being incorporated in advance in a ROM or the like.

本実施の形態にかかる情報提示システムで実行される情報提示プログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記記憶媒体から情報提示プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上述した各部が主記憶装置上に生成されるようになっている。   The information presentation program executed by the information presentation system according to the present embodiment has a module configuration including the above-described units, and as actual hardware, the CPU reads and executes the information presentation program from the storage medium. As a result, the above-described units are loaded on the main storage device, and the above-described units are generated on the main storage device.

上述した実施の形態は、本発明の好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明の趣旨を逸脱しない範囲であれば、適宜組合わせ及び変更することができることはいうまでもない。   The above-described embodiment is a preferable specific example of the present invention, and thus various technically preferable limitations are attached. However, the embodiments are appropriately combined and changed within a range not departing from the gist of the present invention. It goes without saying that it can be done.

本実施形態にかかる情報提示システムの概略構成を示すブロック図。The block diagram which shows schematic structure of the information presentation system concerning this embodiment. テレビ視聴時に視聴属性が抽出・格納されるまでのフローチャート。The flowchart until a viewing attribute is extracted and stored at the time of television viewing. 視聴属性格納部170に格納された視聴属性の例を示す図。The figure which shows the example of the viewing-and-listening attribute stored in the viewing-and-listening attribute storage part 170. 視聴済みコンテンツ格納部120に格納されたコンテンツの例を示す図。The figure which shows the example of the content stored in the viewed content storage part. 過去に視聴したテレビ番組に関する情報を提示するフローチャート。The flowchart which presents the information regarding the television program watched in the past. S530に対応する視聴属性照合のフローチャート。The flowchart of viewing attribute collation corresponding to S530. S540に対応する表示内容決定のフローチャート。The flowchart of the display content determination corresponding to S540. 実施例1の利用シーンの説明図。Explanatory drawing of the utilization scene of Example 1. FIG. 実施例2の利用シーンの説明図。Explanatory drawing of the utilization scene of Example 2. FIG.

符号の説明Explanation of symbols

110 コンテンツを再生するコンテンツ再生部
120 視聴済みコンテンツ格納部
130 視聴属性取得部
140 音声認識部
150 画像認識部
160 意味解析部
170 視聴属性格納部
180 状況情報入力部
190 視聴属性照合部
200 表示内容生成部
210 表示部
220 表示履歴制御部
110 content playback unit 120 for playing back content viewed content storage unit 130 viewing attribute acquisition unit 140 speech recognition unit 150 image recognition unit 160 semantic analysis unit 170 viewing attribute storage unit 180 status information input unit 190 viewing attribute matching unit 200 display content generation Unit 210 display unit 220 display history control unit

Claims (5)

視聴済みのコンテンツを格納するコンテンツ格納手段と、
前記コンテンツの識別子、視聴日時、及び、音声または文字情報を前記コンテンツの視聴属性として格納する視聴属性格納手段と、
前記コンテンツを視聴したユーザ自身または周囲の現在の時間及び状況情報を入力する入力手段と、
前記入力されたユーザ自身または周囲の現在の時間及び状況情報と前記コンテンツの視聴属性中の視聴日時、及び、音声または文字情報とを照合する照合手段と、
前記照合手段によって、前記ユーザ自身または周囲の現在の時間及び状況情報と少なくとも部分一致すると照合された前記コンテンツについて、(1)視聴してから日が浅い場合には、前記コンテンツの視聴属性のみを、(2)視聴してから日数が経過している場合には、前記コンテンツの視聴属性及び前記視聴済みのコンテンツを、ユーザに提示する提示手段と
を備える情報提示システム。
Content storage means for storing the viewed content;
Viewing attribute storage means for storing the content identifier, viewing date and time, and audio or text information as the viewing attribute of the content ;
Input means for inputting the current time and situation information of the user himself / herself who viewed the content or the surroundings;
Collation means for collating the input user's own or surrounding current time and situation information with the viewing date and time in the viewing attribute of the content , and voice or text information ;
For the content that has been verified by the verification means to at least partially match the user's own or surrounding current time and situation information , (1) If the date is shallow after viewing, (2) An information presentation system comprising: presentation means for presenting a viewing attribute of the content and the already viewed content to a user when days have passed since the viewing.
前記入力手段によって入力されたユーザ自身または周囲の現在の時間及び状況情報は、前記ユーザ自身の現在時間での位置情報、または、ユーザが現在の時間に閲覧している表示デバイスに表示されている情報であることを特徴とする請求項1記載の情報提示システム。 The user's own or surrounding current time and status information input by the input means is displayed on the position information of the user's own current time or on a display device that the user is browsing at the current time . The information presentation system according to claim 1, wherein the information presentation system is information. 前記提示手段は、照合された前記コンテンツ内の画像データ又はテキストデータから画像クリップ又はメッセージデータを生成し、提示することを特徴とする請求項1記載の情報提供システム。 2. The information providing system according to claim 1, wherein the presenting means generates and presents an image clip or message data from the image data or text data in the collated content . コンテンツ格納手段が、視聴済みのコンテンツを格納し、
視聴属性格納手段が、前記コンテンツの識別子、視聴日時、及び、音声または文字情報を前記コンテンツの視聴属性として格納し、
入力手段が、前記コンテンツを視聴したユーザ自身または周囲の現在の時間及び状況情報を入力し、
照合手段が、前記入力されたユーザ自身または周囲の現在の状況情報と前記コンテンツの視聴属性中の視聴日時、及び、音声または文字情報とを照合し、
提示手段が、前記ユーザ自身または周囲の現在の時間及び状況情報と少なくとも部分一致すると照合された前記コンテンツについて、(1)視聴してから日が浅い場合には、前記コンテンツの視聴属性のみを、(2)視聴してから日数が経過している場合には、前記コンテンツの視聴属性及び前記視聴済みのコンテンツを、ユーザに提示することを特徴とする情報提示方法。
The content storage means stores the viewed content,
The viewing attribute storage means stores the content identifier, viewing date and time, and audio or text information as the viewing attribute of the content ,
The input means inputs the current time and situation information of the user himself / herself who viewed the content or the surroundings,
The collation means collates the input user's own or surrounding current situation information with the viewing date and time in the viewing attribute of the content , and voice or character information ,
For the content that has been verified that the presenting means is at least partially matched with the user's own or surrounding current time and situation information , (1) If the date is shallow after viewing, (2) An information presentation method comprising presenting a viewing attribute of the content and the viewed content to a user when days have passed since the viewing.
視聴済みのコンテンツを格納するコンテンツ格納手段と、
前記コンテンツの識別子、視聴日時、及び、音声または文字情報を前記コンテンツの視聴属性として格納する視聴属性格納手段と、
前記コンテンツを視聴したユーザ自身または周囲の現在の状況情報を受信する受信手段と、
前記入力されたユーザ自身または周囲の現在の時間及び状況情報と前記コンテンツの視聴属性中の視聴日時、及び、音声または文字情報とを照合する照合手段と、
前記照合手段によって、前記ユーザ自身または周囲の現在の時間及び状況情報と少なくとも部分一致すると照合された前記コンテンツについて、(1)視聴してから日が浅い場合には、前記コンテンツの視聴属性のみを、(2)視聴してから日数が経過している場合には、前記コンテンツの視聴属性及び前記視聴済みのコンテンツを、表示装置に表示する送信手段と
を備える情報提示装置。
Content storage means for storing the viewed content;
Viewing attribute storage means for storing the content identifier, viewing date and time, and audio or text information as the viewing attribute of the content ;
Receiving means for receiving the current situation information of the user himself or herself who has watched the content;
Collation means for collating the input user's own or surrounding current time and situation information with the viewing date and time in the viewing attribute of the content , and voice or text information ;
For the content that has been verified by the verification means to at least partially match the user's own or surrounding current time and situation information , (1) If the date is shallow after viewing, (2) An information presenting apparatus comprising: a transmission unit that displays a viewing attribute of the content and the viewed content when the number of days has elapsed since viewing.
JP2005376254A 2005-12-27 2005-12-27 Information presentation system, information presentation method, and information presentation device Expired - Fee Related JP4393454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005376254A JP4393454B2 (en) 2005-12-27 2005-12-27 Information presentation system, information presentation method, and information presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005376254A JP4393454B2 (en) 2005-12-27 2005-12-27 Information presentation system, information presentation method, and information presentation device

Publications (2)

Publication Number Publication Date
JP2007179254A JP2007179254A (en) 2007-07-12
JP4393454B2 true JP4393454B2 (en) 2010-01-06

Family

ID=38304387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005376254A Expired - Fee Related JP4393454B2 (en) 2005-12-27 2005-12-27 Information presentation system, information presentation method, and information presentation device

Country Status (1)

Country Link
JP (1) JP4393454B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8661046B2 (en) * 2007-09-18 2014-02-25 Palo Alto Research Center Incorporated Using a content database to infer context information for activities from messages
JP4720873B2 (en) * 2008-08-11 2011-07-13 ソニー株式会社 Information recording apparatus, imaging apparatus, information recording method, and program
JP5458636B2 (en) * 2009-04-07 2014-04-02 ソニー株式会社 Information processing apparatus, information processing method, program, information providing apparatus, information providing method, and information processing system
CN116228363A (en) * 2023-03-08 2023-06-06 拉扎斯网络科技(上海)有限公司 Information display method and device, storage medium and computer equipment

Also Published As

Publication number Publication date
JP2007179254A (en) 2007-07-12

Similar Documents

Publication Publication Date Title
JP5143747B2 (en) Advertisement distribution system, advertisement distribution server, advertisement distribution method, program, and recording medium
JP5651231B2 (en) Media fingerprint for determining and searching content
JP4650552B2 (en) Electronic device, content recommendation method and program
EP3377990B1 (en) Reminders of media content referenced in other media content
KR102128359B1 (en) Using an audio stream to identify metadata associated with a currently playing television program
JP4388128B1 (en) Information providing server, information providing method, and information providing system
JPWO2007122914A1 (en) Personal information management device
JP2013513315A (en) Multi-function multimedia device
KR20160032937A (en) Method and system for providing searching informatiom of a captured image on a display device to a mobile device
US20110213773A1 (en) Information processing apparatus, keyword registration method, and program
US20100125873A1 (en) Event-calendar display apparatus, event-calendar display method, event-calendar display program, and event-information extraction apparatus
JP4393454B2 (en) Information presentation system, information presentation method, and information presentation device
JP2008191702A (en) Preference information collecting system and information recommendation system using the same
JP2006129122A (en) Broadcast receiver, broadcast receiving method, broadcast reception program and program recording medium
JP6767808B2 (en) Viewing user log storage system, viewing user log storage server, and viewing user log storage method
JP5335500B2 (en) Content search apparatus and computer program
JP6150780B2 (en) Information processing apparatus, information processing method, and program
JP4723901B2 (en) Television display device
US20120072869A1 (en) Copy supporting device, terminal device, copy support method, and copy supporting program
JP5343658B2 (en) Recording / playback apparatus and content search program
JP2007060496A (en) Program content reproducing device
US9094650B2 (en) Chapter creating device, chapter creating method, and computer program product therefor
JP2016025570A (en) Information processor, information processing method and program
JP4489028B2 (en) Karaoke system
JP7565653B1 (en) Content interest level determination system, content interest level determination method, and content interest level determination program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131023

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees