JP2001344251A - Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon - Google Patents

Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon

Info

Publication number
JP2001344251A
JP2001344251A JP2000167234A JP2000167234A JP2001344251A JP 2001344251 A JP2001344251 A JP 2001344251A JP 2000167234 A JP2000167234 A JP 2000167234A JP 2000167234 A JP2000167234 A JP 2000167234A JP 2001344251 A JP2001344251 A JP 2001344251A
Authority
JP
Japan
Prior art keywords
keyword
video
time
content
elapsed time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000167234A
Other languages
Japanese (ja)
Inventor
Yoshiori Narahara
佳織 楢原
Hiroyuki Matsui
弘行 松井
Ryozo Nunokawa
亮造 布川
Wataru Inoue
渉 井上
Shinya Uegaki
伸哉 植垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2000167234A priority Critical patent/JP2001344251A/en
Publication of JP2001344251A publication Critical patent/JP2001344251A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To guide a user in setting a proper keyword, to enable the user to acquire contents which suit his or her taste and are related to the keyword, to automate keyword registration, and to utilize the title of a home page of a Web browser to automate registration. SOLUTION: The device is provided with a video discrimination information detection part 2 which records information of correspondence relations among broadcasting dates, broadcasting channels, and titles of programs and measures the time elapsed after the start of a broadcasting program, a video display part 10 which displays a picture based on a broadcast signal, a coordinate information extraction part 3 which designates a video area on the displayed picture, a video recording part 9 which records the correspondence relation between the elapsed time when the video area is inputted and a keyword, a keyword table part 5 which specifies and transmits the keyword corresponding to the elapsed time when the video area is inputted, a contents output part 1 which displays contents retrieval information or contents corresponding to the keyword, and a time measuring part 6.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、所望の映像や音楽
等のコンテンツを検索するための技術に関し、特に自分
の好みに合ったキーワードに関連するコンテンツを取得
でき、複数人でシステムを利用することが可能なコンテ
ンツ検索装置、コンテンツ検索方法及びコンテンツ検索
プログラムを記録した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technology for retrieving desired contents such as video and music, and more particularly, to a system which allows a plurality of persons to acquire contents related to a keyword which suits his / her preference. The present invention relates to a content search device, a content search method, and a recording medium on which a content search program is recorded.

【0002】[0002]

【従来の技術】従来からキーワードを手がかりとしたコ
ンテンツ検索技術が提案されており、実用に供されてい
る。検索においては、入力されたキーワードとコンテン
ツに含まれていたり、併記されているテキストと照合ま
たは類似性を算出し、照合がとれたり類似性が見出され
たテキストを持つコンテンツが検索結果として得られ
る。しかし、キーワードの設定に不慣れな利用者にとっ
ては所望のコンテンツを見出すことが困難である。
2. Description of the Related Art Conventionally, a content search technique using a keyword as a key has been proposed and put to practical use. In a search, matching or similarity is calculated with the text included in or combined with the entered keyword and the content with matching or similar text is obtained as the search result. Can be However, it is difficult for a user who is not used to setting keywords to find desired content.

【0003】[0003]

【発明が解決しようとする課題】このように、従来のコ
ンテンツ検索技術においては、キーワードを手がかりに
コンテンツを検索していたが、キーワードの設定に慣れ
ていない利用者は、所望のコンテンツを見つけ出すこと
が難しいという問題があった。また、検索に使用するキ
ーワードが自分の好みに合わないことも、所望のコンテ
ンツを見つけるのが難かしい原因となっていた。
As described above, in the conventional content search technology, a content is searched for by using a keyword as a key. However, a user who is not accustomed to setting a keyword can find a desired content. There was a problem that was difficult. In addition, the fact that the keyword used for the search does not suit the user's taste has also made it difficult to find the desired content.

【0004】そこで、本発明の第1の目的は、これら従
来の課題を解決し、適当なキーワードの設定を誘導する
ことができるコンテンツ検索装置、コンテンツ検索方法
を提供することにある。また、本発明の第2の目的は、
指示された座標と経過時間から、指示された座標に対応
するキーワードを抽出し、それをキーワードに使用する
ことができるコンテンツ検索装置、コンテンツ検索方法
を提供することにある。また、本発明の第3の目的は、
利用者が自分の好みに合ったキーワードを登録すること
で、自分の好みのキーワードを選択することにより、自
分の好みに合ったキーワードに関連したコンテンツを取
得できるようなコンテンツ検索装置、コンテンツ検索方
法を提供することにある。
Accordingly, a first object of the present invention is to solve these conventional problems and to provide a content search device and a content search method that can guide setting of an appropriate keyword. A second object of the present invention is to
It is an object of the present invention to provide a content search device and a content search method capable of extracting a keyword corresponding to a designated coordinate from the designated coordinates and the elapsed time and using the extracted keyword as the keyword. A third object of the present invention is to
A content search device and a content search method that allow a user to register a keyword that suits his / her preference and select a favorite keyword to obtain content related to the keyword that suits his / her preference Is to provide.

【0005】また、本発明の第4の目的は、蓄積された
映像のキーワードに対するコンテンツも出力することが
できるコンテンツ検索装置、コンテンツ検索方法を提供
することにある。また、本発明の第5の目的は、利用者
が入力したキーワードを利用して、キーワード登録の自
動化を図ることができるコンテンツ検索装置、コンテン
ツ検索方法を提供することにある。また、本発明の第6
の目的は、個人毎に利用するキーワード群を分けて、複
数人でシステムを利用することができるコンテンツ検索
装置、コンテンツ検索方法を提供することにある。
A fourth object of the present invention is to provide a content search device and a content search method capable of outputting a content corresponding to a keyword of a stored video. A fifth object of the present invention is to provide a content search device and a content search method that can automate keyword registration using a keyword input by a user. Further, the sixth aspect of the present invention.
It is an object of the present invention to provide a content search device and a content search method in which a keyword group used for each individual is divided and a plurality of users can use the system.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するた
め、本発明のコンテンツ検索装置は、キーワードを入力
して検索されたコンテンツを出力するコンテンツ検索装
置において、時刻を計測する時刻計測部と、少なくとも
放送日時と放送チャネルと番組の表題との対応関係から
なる番組情報を記録し、放送信号を受信するチャネルと
前記時刻から放送番組を特定し、前記放送番組の開始か
らの経過時間を計測する映像識別情報検出部と、前記放
送信号に基づく映像を表示する映像表示部と、前記表示
映像上の映像領域を指定する座標情報抽出部と、少なく
とも前記映像領域が入力された経過時間とキーワードと
の対応関係を記録する経過時間キーワード対応記録部
と、前記映像領域が入力された経過時間に対応するキー
ワードを特定して送信するキーワード送信部と、前記キ
ーワードに対応するコンテンツ検索情報又はコンテンツ
を表示するコンテンツ出力部とを有することを特徴とし
ている。また、本発明のコンテンツ検索方法は、映像の
開始、あるいは該映像の途中から、タイトル、放送チャ
ネル、放送日時などの映像識別情報により、該映像を識
別して特定するステップと、画面上で利用者により指示
された位置を画面上の座標情報に変換するステップと、
映像の経過時間を読み出すステップと、前記ステップで
得られた座標情報と経過時間を、映像経過時刻対応座標
・キーワードテーブル部に記録されている経過時間に対
応した画面上の座標情報と比較するステップと、比較結
果、一致した時に、前記映像経過時刻対応座標・キーワ
ードテーブル部から該時点の経過時間と座標情報に対応
するキーワードを求めるステップと、求められたキーワ
ードに対応するコンテンツを求めて、該コンテンツを出
力するステップとを有することを特徴としている。
In order to achieve the above object, a content search device of the present invention is a content search device for outputting a searched content by inputting a keyword, a time measuring unit for measuring time, At least program information including a correspondence between a broadcast date and time, a broadcast channel, and a program title is recorded, a broadcast program is specified from a channel for receiving a broadcast signal and the time, and an elapsed time from the start of the broadcast program is measured. A video identification information detection unit, a video display unit that displays a video based on the broadcast signal, a coordinate information extraction unit that specifies a video area on the display video, and at least an elapsed time and a keyword when the video area is input. And an elapsed time keyword correspondence recording unit for recording the correspondence between the keywords, and a keyword corresponding to the elapsed time in which the video area is input is specified and transmitted. That a keyword transmission unit is characterized by having a content output unit which displays the content search information or content corresponding to the keyword. Further, the content search method of the present invention includes a step of identifying and specifying the video from the start of the video or from the middle of the video by video identification information such as a title, a broadcast channel, and a broadcast date and time; Converting the position specified by the user into coordinate information on the screen;
Reading the elapsed time of the video, and comparing the coordinate information and the elapsed time obtained in the step with the coordinate information on the screen corresponding to the elapsed time recorded in the coordinate / keyword table corresponding to the video elapsed time. And a step of obtaining a keyword corresponding to the elapsed time and the coordinate information from the video elapsed time corresponding coordinate / keyword table portion when the result of comparison is a match, and obtaining a content corresponding to the obtained keyword. Outputting a content.

【0007】[0007]

【発明の実施の形態】以下、本発明の実施例を、図面に
より詳細に説明する。 (第1の実施例)図1(a)は、本発明の第1の実施例
を示すコンテンツ検索装置の構成図であり、図1(b)
は図1(a)における映像経過時間対応座標・キーワー
ドテーブル部のデータ構造図である。図1(a)におい
て、映像入力部8は放送による映像を受信し、受信した
映像は映像表示部10で表示される。コンテンツが映像
である場合には、映像表示部10とコンテンツ出力部と
を共用してもよい。映像記録部7は、受信した映像を記
録する。また、映像記録部7で記録すると、そのうちの
一部が制御部4に転送される。また、映像記録部7に
は、時刻計測部6で予め設定され、計測されて設定され
た時刻になると、時刻計測部6から制御信号が転送され
て入力される。コンテンツ検索部7は、表題が付されテ
キストが併記または格納されたコンテンツを蓄積してお
り、制御部4からキーワードが入力されることにより、
検索が行われる。コンテンツ検索部7では、入力された
キーワードとテキストとを照合または類似するテキスト
を検索する。そして、照合または類似するテキストを有
するコンテンツの表題を検索結果として出力する。この
検索結果は、制御部4を通じて映像表示部(出力部)1
0に表示される。利用者は、座標情報抽出部3を介して
表題を選択する。選択された表題に関する信号は、制御
部4を介してコンテンツ検索部7に出力される。コンテ
ンツ検索部7では、表題に関する信号を入力し、対応す
るコンテンツを制御部4に出力する。制御部4で受けた
コンテンツは、コンテンツ出力部1で出力される。な
お、コンテンツ検索部7は、遠隔地にあってもよく、そ
の場合には制御部4と通信回線で結ばれる。この通信回
線を介して情報が交換される。
Embodiments of the present invention will be described below in detail with reference to the drawings. (First Embodiment) FIG. 1A is a configuration diagram of a content search device showing a first embodiment of the present invention, and FIG.
FIG. 2 is a data structure diagram of an image elapsed time corresponding coordinate / keyword table section in FIG. In FIG. 1A, a video input unit 8 receives a broadcast video, and the received video is displayed on a video display unit 10. When the content is a video, the video display unit 10 and the content output unit may be shared. The video recording unit 7 records the received video. When recording is performed by the video recording unit 7, part of the data is transferred to the control unit 4. In addition, when the time set and measured by the time measurement unit 6 is reached, the control signal is transferred from the time measurement unit 6 and input to the video recording unit 7. The content search unit 7 accumulates the content in which the title is added and the text is written or stored, and when the keyword is input from the control unit 4,
A search is performed. The content search unit 7 compares the input keyword with the text or searches for a similar text. Then, the title of the content having collation or similar text is output as a search result. This search result is sent to the video display unit (output unit) 1 through the control unit 4.
Displayed as 0. The user selects a title via the coordinate information extracting unit 3. A signal related to the selected title is output to the content search unit 7 via the control unit 4. The content search unit 7 inputs a signal related to the title and outputs the corresponding content to the control unit 4. The content received by the control unit 4 is output by the content output unit 1. Note that the content search unit 7 may be located at a remote place, in which case it is connected to the control unit 4 by a communication line. Information is exchanged via this communication line.

【0008】図1(a)の動作を説明する。映像が開始
すると、映像識別情報検出部2は、タイトルなどの映像
識別情報により映像を識別して特定する。座標情報抽出
部3は、画面上で指し示された位置を画面上の座標情報
に変換する。時刻計測部6は、その時の経過時間を読み
出す。映像経過時刻対応座標・キーワードテーブル部5
には、前記映像識別情報毎に映像の開始からの経過時間
に対応して画面上の座標情報およびキーワードが記録さ
れており、前記座標情報抽出部3により得られた座標情
報と前記時刻計測部6により得られるその時の経過時間
を、前記映像経過時刻対応座標・キーワードテーブル部
5において、前記映像経過時刻対応座標・キーワードテ
ーブル部5に記録されている経過時間に対応した画面上
の座標情報と比較し、座標情報が一致した時に、前記映
像経過時刻対応座標・キーワードテーブル部5からその
時の経過時間と座標情報に対応するキーワードを求め
る。求められたキーワードは、制御部4を通じてキーワ
ード対応コンテンツ出力部1に転送された後、キーワー
ド対応コンテンツ出力部1から求められた前記キーワー
ドに対応するコンテンツを出力する。図1(b)には、
映像経過時刻対応座標・キーワードテーブル部5に格納
されたデータ構造が示されている。経過時刻と座標とそ
れに対するキーワードが格納されている。
The operation of FIG. 1A will be described. When the video starts, the video identification information detection unit 2 identifies and specifies the video based on video identification information such as a title. The coordinate information extracting unit 3 converts the position pointed on the screen into coordinate information on the screen. The time measuring unit 6 reads the elapsed time at that time. Image elapsed time corresponding coordinates / keyword table section 5
The coordinate information and the keyword on the screen are recorded in correspondence with the elapsed time from the start of the video for each of the video identification information, and the coordinate information obtained by the coordinate information extracting unit 3 and the time measuring unit 6, the elapsed time obtained at that time is stored in the video elapsed time corresponding coordinate / keyword table unit 5 in the coordinate information on the screen corresponding to the elapsed time recorded in the video elapsed time corresponding coordinate / keyword table unit 5. Then, when the coordinate information matches, a keyword corresponding to the elapsed time and the coordinate information at that time is obtained from the coordinate / keyword table unit 5 corresponding to the video elapsed time. The obtained keyword is transferred to the keyword corresponding content output unit 1 through the control unit 4, and then the content corresponding to the keyword obtained from the keyword corresponding content output unit 1 is output. In FIG. 1B,
The data structure stored in the coordinate / keyword table unit 5 corresponding to the image elapsed time is shown. Elapsed time, coordinates, and keywords for the coordinates are stored.

【0009】図7は、図1を用いたコンテンツ検索方法
の動作フローチャートである。映像入力部8で放送され
た映像を受信する(S100)。映像識別情報検出部2
は放送日時と放送チャネル毎に番組タイトルと概要とを
対応づけて記録した番組情報を格納し、受信した映像で
特定される放送チャネル、時刻計測部6で特定された放
送日時または時刻に従って番組とその開始時刻を特定す
る(S101)。座標情報抽出部3は、マウス等のポイ
ンティングデバイスにより、映像表示部10上の映像領
域を利用者の操作に伴い指定するものである。利用者が
画面上で指し示された位置を画面上の座標情報に変換す
る(S102)。マウスを用いた場合、1回目のクリッ
クで座標(X1,Y1)、2回目のクリックで座標(X
2,Y2)が指定される。つまり、指定された映像領域
が座標(X1,Y1),(X1,Y2),(X2,Y
2),(X2,Y1)で囲まれる長方形となり、この長
方形は座標(X1,Y1),(X2,Y2)で代表され
る。従って、利用者は映像表示部10に表示された所望
の領域の映像を特定できる。時刻計測部6では、時刻を
経過するとともに番組の開始時刻からの経過時間を計測
しており、利用者が映像領域を指定し終ったときの経過
時間を読み出す(S103)。
FIG. 7 is an operation flowchart of the content search method using FIG. The video broadcasted by the video input unit 8 is received (S100). Video identification information detector 2
Stores program information in which a program title and an outline are associated with each other for a broadcast date and time and a broadcast channel, and stores the program according to the broadcast channel specified by the received video and the broadcast date and time or time specified by the time measuring unit 6. The start time is specified (S101). The coordinate information extracting unit 3 is for designating a video area on the video display unit 10 with a pointing device such as a mouse in response to a user operation. The position pointed by the user on the screen is converted into coordinate information on the screen (S102). When a mouse is used, the coordinates (X1, Y1) are clicked by the first click, and the coordinates (X
2, Y2) is specified. In other words, the designated video area has coordinates (X1, Y1), (X1, Y2), (X2, Y
2), a rectangle surrounded by (X2, Y1), which is represented by coordinates (X1, Y1) and (X2, Y2). Therefore, the user can specify the image of the desired area displayed on the image display unit 10. The time measuring unit 6 measures the elapsed time from the start time of the program as the time elapses, and reads the elapsed time when the user has specified the video area and finished (S103).

【0010】映像経過時刻対応座標・キーワードテーブ
ル部5は、経過時間と映像領域とキーワードとを対応付
けて記録しているものであるが、経過時間とキーワード
とが記録されているものを用いる。ここで、映像領域を
指定した経過時間に対応した映像領域を示す座標を対応
づけて(S104)、映像経過時刻対応座標・キーワー
ドテーブル部5に書き込み、対応するキーワードを読み
出す(S105)。読み出されたキーワードは、制御部
4を介してコンテンツ検索部7へ送られる。コンテンツ
検索部7では、送信されたキーワードを入力し、照合ま
たは類似するテキストを有するコンテンツの表題を検索
結果として出力する(S106)。これ検索結果は、制
御部4を通じて映像表示部(出力部)10に表示され
る。利用者が座標情報抽出部3を介して表題を選択する
(S107)。コンテンツ検索部7では、選択された表
題に関する情報を入力し、対応するコンテンツを制御部
4に送り、さらに制御部4からコンテンツ出力部1に送
られ、コンテンツ出力部1ではコンテンツを読み出し、
そのコンテンツを出力する(S108)。
The video elapsed time corresponding coordinate / keyword table section 5 records the elapsed time, the video area, and the keyword in association with each other, and uses the one in which the elapsed time and the keyword are recorded. Here, the coordinates indicating the video area corresponding to the specified elapsed time of the video area are associated (S104), written into the video elapsed time corresponding coordinates / keyword table section 5, and the corresponding keyword is read (S105). The read keyword is sent to the content search unit 7 via the control unit 4. The content search unit 7 inputs the transmitted keyword, and outputs a title of the content having collation or similar text as a search result (S106). The search result is displayed on the video display unit (output unit) 10 through the control unit 4. The user selects a title via the coordinate information extraction unit 3 (S107). The content search unit 7 inputs information about the selected title, sends the corresponding content to the control unit 4, is sent from the control unit 4 to the content output unit 1, and the content output unit 1 reads out the content.
The content is output (S108).

【0011】(変形実施例)図1の座標情報抽出部3お
よび図7の映像領域を指定した経過時間の読み出し(S
103)に関する変形実施例について、以下に説明す
る。しかし、利用者が映像領域を指定する際に、所望の
放送映像を視聴してから映像領域の指定にかかる動作ま
での時間、および動作を受けてから映像領域が指定され
るまでの時間が経過する。すなわち、映像領域の指定が
所望の映像が表示されるより遅れるという問題が生じ
る。そのため、経過時間の読み出し(S103)におい
ては、映像領域の指定し終わるよりも指定に費やされる
時間だけ前の経過時間を読み出す。あるいは、映像経過
時刻対応座標・キーワードテーブル部5で記録された映
像領域を指定し終わる経過時間の中から特定の経過時間
を選択させ、その特定された経過時間の直前(例えば、
数秒程度前)から映像記録部9で記録された映像をスロ
ーで再生する。ここで、利用者によって座標情報抽出部
3を介して経過時間を再度の指定を受け付け、映像経過
時刻対応座標・キーワードテーブル部5で記録されたも
との経過時間を指定された経過時間に置換させてもよ
い。このような手段を講ずることによって、所望の映像
情報が提示された映像経過時間がより正確に指定され
る。
(Modified Embodiment) The coordinate information extracting unit 3 shown in FIG. 1 and the elapsed time specifying the video area shown in FIG. 7 are read out (S
A modified embodiment relating to (103) will be described below. However, when the user specifies the video area, the time from viewing the desired broadcast video to the operation for specifying the video area and the time from receiving the operation until the video area is specified have elapsed. I do. That is, there is a problem that the designation of the video area is delayed more than the desired video is displayed. Therefore, in the reading of the elapsed time (S103), the elapsed time that is earlier by the time spent in the designation than the end of the designation of the video area is read. Alternatively, a specific elapsed time is selected from among the elapsed times at which the video area recorded in the video elapsed time corresponding coordinate / keyword table section 5 has been specified, and immediately before the specified elapsed time (for example,
The video recorded by the video recording unit 9 is reproduced at a slow speed from about several seconds before). Here, the user accepts the specification of the elapsed time again via the coordinate information extracting unit 3 and replaces the original elapsed time recorded in the coordinate / keyword table unit 5 corresponding to the video elapsed time with the specified elapsed time. Is also good. By taking such measures, the elapsed time of the video at which the desired video information is presented is more accurately specified.

【0012】(第2の実施例)図2は、本発明の第2の
実施例を示すコンテンツ検索装置の構成図である。図2
において、制御部4、キーワード対応コンテンツ出力部
1、映像識別情報検出部2、時刻計測部6は図1の第1
の実施例と同じであり、異なる点は、チャネル・時間・
キーワード対応テーブル部7Aおよび利用者キーワード
蓄積部8Aが新たに設けられ、コンテンツ検索部7、映
像表示部10、座標情報抽出部3、映像入力部8、映像
記録部9、映像経過時刻対応座標・キーワードテーブル
部5を削除したことである。利用者は、自分の欲しいキ
ーワード群を選択し、選択したキーワード群は利用者キ
ーワード群蓄積部10に蓄積される。映像が開始される
と、映像識別情報検出部2は、タイトルなどの映像識別
情報により映像を識別して特定する。時間計測部6は、
映像開始からの経過時間を読み出す。チャネル・時間・
キーワード対応テーブル部7Aは、映像のチャネル、時
間に対応したキーワードが記録してあり、時間計測部4
により得られるその時の経過時間に対応するキーワード
を求め、さらにチャネル・時間・キーワード対応テーブ
ル部7Aは、利用者キーワード蓄積部8Aのキーワード
と、求められた前記キーワードとを比較し、一致した場
合、キーワード対応コンテンツ出力部1は前記一致した
キーワードに対応するコンテンツを求め、それを出力す
る。
(Second Embodiment) FIG. 2 is a block diagram of a content search apparatus showing a second embodiment of the present invention. FIG.
In FIG. 1, the control unit 4, the keyword corresponding content output unit 1, the video identification information detecting unit 2, and the time measuring unit 6
Is the same as the embodiment of FIG.
A keyword correspondence table section 7A and a user keyword storage section 8A are newly provided, and a content search section 7, a video display section 10, a coordinate information extraction section 3, a video input section 8, a video recording section 9, and a video elapsed time corresponding coordinate. That is, the keyword table section 5 has been deleted. The user selects a desired keyword group, and the selected keyword group is stored in the user keyword group storage unit 10. When the video is started, the video identification information detection unit 2 identifies and specifies the video using video identification information such as a title. The time measurement unit 6
Read the elapsed time from the start of the video. Channel / time /
The keyword correspondence table section 7A stores keywords corresponding to video channels and time, and the time measurement section 4A.
The channel / time / keyword correspondence table unit 7A compares the keyword in the user keyword storage unit 8A with the obtained keyword, and if the keywords match, the keyword is determined. The keyword corresponding content output unit 1 obtains the content corresponding to the matched keyword and outputs it.

【0013】図8は、図2のコンテンツ検索装置を用い
たコンテンツ検索方法の動作フローチャートである。利
用者は、自分の欲しいキーワードを利用者キーワード蓄
積部8Aに登録する(S207)。映像が開始すると
(S200)、映像識別情報検出部2はタイトルなどの
映像識別情報により、映像を識別して特定する(S20
1)。時間計測部6は、映像開始からの経過時間を読み
出す(S202)。チャネル・時間・キーワード対応テ
ーブル部7Aは、映像のチャネル、時間に対応したキー
ワードが記録してあり、時間計測部6により得られるそ
の時の経過時間に対応するキーワードを求め(S20
3)、チャネル・時間・キーワード対応テーブル部7A
は、利用者キーワード蓄積部8Aのキーワードと、求め
られた前記キーワードを比較し(S204)、一致した
場合、キーワード対応コンテンツ出力部1は前記一致し
たキーワードに対応するコンテンツを求めて出力する
(S205)。なお、本実施例では、利用者キーワード
群蓄積部10への登録を映像開始前に行っているが、映
像の放送途中にも行えることは言うまでもない。このよ
うに、第2の実施例では、図2の利用者キーワード蓄積
部8Aを設けること、および図8のキーワード入力手順
(蓄積部への登録)を有することに特徴がある。この実
施例では、放送映像を視聴しながらキーワードを設定で
きるので、検索が容易になる、という効果がある。
FIG. 8 is an operation flowchart of a content search method using the content search device of FIG. The user registers his or her desired keyword in the user keyword storage unit 8A (S207). When the video starts (S200), the video identification information detection unit 2 identifies and specifies the video based on the video identification information such as the title (S20).
1). The time measuring unit 6 reads the elapsed time from the start of the video (S202). The channel / time / keyword correspondence table section 7A records keywords corresponding to the video channel and time, and obtains a keyword corresponding to the elapsed time obtained by the time measurement section 6 (S20).
3), channel / time / keyword correspondence table section 7A
Compares the keyword in the user keyword storage unit 8A with the obtained keyword (S204), and when they match, the keyword corresponding content output unit 1 obtains and outputs the content corresponding to the matched keyword (S205). ). In the present embodiment, the registration in the user keyword group storage unit 10 is performed before the start of the video, but it goes without saying that the registration can be performed during the broadcast of the video. As described above, the second embodiment is characterized in that the user keyword storage unit 8A shown in FIG. 2 is provided, and the keyword input procedure (registration in the storage unit) shown in FIG. 8 is provided. In this embodiment, since the keyword can be set while viewing the broadcast video, there is an effect that the search becomes easy.

【0014】(第3の実施例)図3は、本発明の第3の
実施例を示すコンテンツ検索装置の構成図である。第3
の実施例では、図3に示す蓄積映像タイムスタンプ情報
蓄積部9Aおよび映像蓄積部10Aを設けたことに特徴
がある。先ず、映像蓄積部10Aに映像を蓄積する。こ
の映像蓄積部10Aに映像を蓄積する時において、前記
映像の開始時間から計時した時間をタイトルなどの映像
識別情報とともに蓄積映像タイムスタンプ情報蓄積部9
Aに蓄積する。映像が開始すると、映像識別情報検出部
2はタイトルなどの映像識別情報により映像を識別して
特定する。座標情報抽出部3は、画面上で指し示された
位置を画面上の座標情報に変換する。時間計測部6は、
その時の経過時間を読み出す。映像経過時刻対応座標・
キーワードテーブル部5には、前記映像識別情報毎に映
像の開始からの経過時間に対応して画面上の座標情報お
よびキーワードが記録してあり、前記座標情報抽出部3
により得られた座標情報と前記時間計測部6により得ら
れるその時の経過時間と、前記蓄積映像タイムスタンプ
情報蓄積部9Aに蓄積されている時間情報を、前記映像
経過時刻対応座標・キーワードテーブル部5において、
前記映像経過時刻対応座標・キーワードテーブル部5に
記録されている経過時間に対応した画面上の座標情報と
比較し、座標情報が一致した時に、前記映像経過時刻対
応座標・キーワードテーブル部5からその時の経過時間
と座標情報に対応するキーワードを求め、制御部4を介
してキーワード対応コンテンツ出力部1に送ることによ
り、コンテンツ出力部1は求められた前記キーワードに
対応するコンテンツを求め、そのコンテンツを出力す
る。
(Third Embodiment) FIG. 3 is a block diagram of a content search apparatus showing a third embodiment of the present invention. Third
Is characterized in that a stored video time stamp information storage unit 9A and a video storage unit 10A shown in FIG. 3 are provided. First, a video is stored in the video storage unit 10A. When a video is stored in the video storage unit 10A, the time measured from the start time of the video together with video identification information such as a title is stored in the stored video time stamp information storage unit 9.
Store in A. When the video starts, the video identification information detection unit 2 identifies and specifies the video by video identification information such as a title. The coordinate information extracting unit 3 converts the position pointed on the screen into coordinate information on the screen. The time measurement unit 6
The elapsed time at that time is read. Image elapsed time corresponding coordinates
In the keyword table section 5, coordinate information and keywords on the screen are recorded corresponding to the elapsed time from the start of the video for each of the video identification information.
The coordinate information obtained by the above and the elapsed time obtained by the time measuring unit 6 and the time information stored in the stored video time stamp information storage unit 9A are stored in the coordinate / keyword table unit 5 corresponding to the video elapsed time. At
The coordinate information is compared with the coordinate information on the screen corresponding to the elapsed time recorded in the video elapsed time corresponding coordinate / keyword table section 5, and when the coordinate information is coincident, the image elapsed time corresponding coordinate / keyword table section 5 is used. The keyword corresponding to the elapsed time and the coordinate information is obtained and sent to the keyword corresponding content output unit 1 via the control unit 4, so that the content output unit 1 obtains the content corresponding to the obtained keyword, and Output.

【0015】図9は、本発明の第3の実施例を示すコン
テンツ検索方法の動作フローチャートである。先ず、映
像蓄積部10に映像を蓄積する(S308)。前記映像
蓄積部10に映像を蓄積する際に、前記映像の開始時間
から計時した時間を映像識別情報とともに蓄積映像タイ
ムスタンプ情報蓄積部9Aに蓄積する(S309)。そ
して、蓄積した映像が開始すると(S300)、蓄積映
像タイムスタンプ情報蓄積部9Aに蓄積されているタイ
トルなどの映像識別情報を、映像識別情報検出部2で識
別する(S301)。座標情報抽出部3は、利用者が画
面上で指し示された位置を画面上の座標情報に変換する
(S302)。時間計測部6は、その時の経過時間を読
み出し(S303)、前記座標情報抽出部3により得ら
れた座標情報と時間計測部6により得られるその時の経
過時間と、蓄積映像タイムスタンプ情報蓄積部9Aに蓄
積されている時間情報を、映像経過時刻対応座標・キー
ワードテーブル部5において、映像経過時刻対応座標・
キーワードテーブル部5に記録されている経過時間に対
応した画面上の座標情報と比較し(S304)、座標情
報が一致した時に、映像経過時刻対応座標・キーワード
テーブル部5からその時の経過時間と座標情報に対応す
るキーワードを求め(S305)、キーワード対応コン
テンツ出力部1は求められたキーワードに対応するコン
テンツを求めて、そのコンテンツを出力する(S30
6)。このように、第3の実施例では、蓄積映像タイム
スタンプ情報蓄積部9Aを設けて、ここに映像識別情報
と対応して経過時間を計測、蓄積する(S309)点に
特徴がある。第3の実施例では、放送終了後に記録され
た映像を再生した場合でも、検索の利便性が増加する、
という利点がある。
FIG. 9 is an operation flowchart of a content search method according to a third embodiment of the present invention. First, a video is stored in the video storage unit 10 (S308). When storing the video in the video storage unit 10, the time measured from the start time of the video is stored in the stored video time stamp information storage unit 9A together with the video identification information (S309). When the stored video starts (S300), the video identification information such as the title stored in the stored video time stamp information storage unit 9A is identified by the video identification information detection unit 2 (S301). The coordinate information extracting unit 3 converts the position indicated by the user on the screen into coordinate information on the screen (S302). The time measuring unit 6 reads the elapsed time at that time (S303), and stores the coordinate information obtained by the coordinate information extracting unit 3, the elapsed time obtained by the time measuring unit 6, and the stored video time stamp information storing unit 9A. Is stored in the video elapsed time corresponding coordinate / keyword table 5 in the video elapsed time corresponding coordinate
The coordinate information is compared with the coordinate information on the screen corresponding to the elapsed time recorded in the keyword table unit 5 (S304). When the coordinate information matches, the elapsed time and the coordinate at that time are obtained from the coordinate / keyword table unit 5 corresponding to the video elapsed time. A keyword corresponding to the information is obtained (S305), and the keyword corresponding content output unit 1 obtains a content corresponding to the obtained keyword and outputs the content (S30).
6). As described above, the third embodiment is characterized in that the stored video time stamp information storage unit 9A is provided, and the elapsed time is measured and stored here in correspondence with the video identification information (S309). In the third embodiment, even when the video recorded after the broadcast is played back, the convenience of the search is increased.
There is an advantage.

【0016】(第4の実施例)図4は、本発明の第4の
実施例を示すコンテンツ検索装置の構成図である。図4
では、映像経過時刻対応座標・キーワードテーブル部5
の代りに、チャネル・時間・キーワード対応テーブル部
7Aを設けたことに特徴がある。また、文書検索装置1
1を設けたことにも特徴がある。利用者は、キーワード
を入力して文書検索装置11を利用する。ここで入力さ
れた前記キーワードは、利用者キーワード蓄積部8Aに
蓄積される。映像が開始すると、映像識別情報検出部2
は、タイトルなどの映像識別情報により映像を識別して
これを特定する。時間計測部6は、映像開始からの経過
時間を読み出す。チャネル・時間・キーワード対応テー
ブル部7Aは、映像のチャネル、時間に対応したキーワ
ードが記録してあり、時間計測部6により得られるその
時の経過時間に対応するキーワードを求め、チャネル・
時間・キーワード対応テーブル部7Aは、利用者キーワ
ード蓄積部8Aのキーワードと、求められた前記キーワ
ードを比較して、一致した場合、キーワード対応コンテ
ンツ出力部1は前記一致したキーワードに対応するコン
テンツを求め、これを出力する。
(Fourth Embodiment) FIG. 4 is a configuration diagram of a content search apparatus showing a fourth embodiment of the present invention. FIG.
Then, the coordinates / keyword table section 5 corresponding to the video elapsed time
Instead, a channel / time / keyword correspondence table section 7A is provided. Further, the document search device 1
There is also a feature in providing 1. The user uses the document search device 11 by inputting a keyword. The keyword input here is stored in the user keyword storage unit 8A. When the video starts, the video identification information detection unit 2
Identifies a video by video identification information such as a title and specifies the video. The time measuring unit 6 reads the elapsed time from the start of the video. The channel / time / keyword correspondence table section 7A stores a keyword corresponding to the channel and time of the video, and obtains a keyword corresponding to the elapsed time at that time obtained by the time measurement section 6, and obtains the channel / time.
The time / keyword correspondence table unit 7A compares the keyword in the user keyword storage unit 8A with the obtained keyword, and if they match, the keyword corresponding content output unit 1 obtains the content corresponding to the matched keyword. And output this.

【0017】図10は、本発明の第4の実施例を示すコ
ンテンツ検索方法の動作フローチャートである。先ず、
利用者はキーワードを入力し、文書検索装置11を利用
する(S408)。入力されたキーワードを利用者キー
ワード蓄積部8に蓄積する(S409)。映像が開始す
ると(S400)、映像識別情報検出部2はタイトルな
どの映像識別情報により映像を識別して特定する(S4
01)。時間計測部6は、映像開始からの経過時間を読
み出す(S402)。チャネル・時間・キーワード対応
テーブル部7Aは、映像のチャネル、時間に対応したキ
ーワードが記録してあり、時間計測部6により得られる
その時の経過時間に対応するキーワードを求め(S40
3)、チャネル・時間・キーワード対応テーブル部7A
は、利用者キーワード蓄積部8Aのキーワードと、求め
られた前記キーワードを比較し(S404)、一致した
場合には、キーワード対応コンテンツ出力部1は前記一
致したキーワードに対応するコンテンツを求め、これを
出力する(S405)。本実施例では、文書検索装置1
1で利用したキーワード群の蓄積を映像開始前に行った
が、映像の放送途中でも行えることは言うまでもない。
このように、第4の実施例では、チャネル・時間・キー
ワード対応テーブル部7Aを備える点に特徴があり、こ
こでは一度に多チャネルの情報が伝送されるCATV等
での利用が前提となる。従って、本実施例によれば、経
過時間とチャネルとキーワードとの対応関係を用いるこ
とにより、一度に多チャネルの情報が伝送されるCAT
V等でチャネル、ひいてはある経過時間の放送映像を特
定できる。その結果、このような環境でも、コンテンツ
検索が容易になる、という利点がある。
FIG. 10 is an operation flowchart of a content search method according to a fourth embodiment of the present invention. First,
The user inputs a keyword and uses the document search device 11 (S408). The input keyword is stored in the user keyword storage unit 8 (S409). When the video starts (S400), the video identification information detection unit 2 identifies and specifies the video based on the video identification information such as the title (S4).
01). The time measuring unit 6 reads the elapsed time from the start of the video (S402). The channel / time / keyword correspondence table section 7A records keywords corresponding to the video channel and time, and obtains a keyword corresponding to the elapsed time obtained by the time measurement section 6 (S40).
3), channel / time / keyword correspondence table section 7A
Compares the keyword in the user keyword storage unit 8A with the obtained keyword (S404). If the keyword is matched, the keyword-corresponding content output unit 1 obtains the content corresponding to the matched keyword, and It outputs (S405). In the present embodiment, the document search device 1
Although the keyword group used in step 1 is stored before the start of the video, it goes without saying that the keyword group can be stored during the broadcast of the video.
As described above, the fourth embodiment is characterized in that the channel / time / keyword correspondence table unit 7A is provided. Here, it is assumed that the fourth embodiment is used in a CATV or the like in which information of multiple channels is transmitted at one time. Therefore, according to the present embodiment, by using the correspondence between the elapsed time, the channel, and the keyword, the CAT in which information of multiple channels is transmitted at one time
The channel, and thus the broadcast video of a certain elapsed time, can be specified by V or the like. As a result, there is an advantage that the content search becomes easy even in such an environment.

【0018】(第5の実施例)図5は、本発明の第5の
実施例を示すコンテンツ検索装置の構成図である。本実
施例は、Webブラウザ12(インターネットホームペ
ージ閲覧ソフトウェア)を備えたことに特徴がある。利
用者は、ホームページ閲覧時に、ホームページのタイト
ルを‘お気に入り’や‘ブックマーク’等のURLアド
レス帳に登録する。ここで登録されたタイトルは、We
bブラウザ12より利用者キーワード蓄積部8Aにキー
ワードとして蓄積される。映像が開始すると、映像識別
情報検出部2は、タイトルなどの映像識別情報により映
像を識別してこれを特定する。時間計測部6は、映像開
始からの経過時間を読み出す。チャネル・時間・キーワ
ード対応テーブル部7Aは、映像のチャネル、時間に対
応したキーワードが記録してあり、時間計測部6により
得られるその時の経過時間に対応するキーワードを求
め、チャネル・時間・キーワード対応テーブル部7A
は、利用者キーワード蓄積部8Aのキーワードと、求め
られた前記キーワードを比較して、一致した場合、キー
ワード対応コンテンツ出力部1は前記一致したキーワー
ドに対応するコンテンツを求め、これを出力する。
(Fifth Embodiment) FIG. 5 is a block diagram of a content search apparatus showing a fifth embodiment of the present invention. The present embodiment is characterized in that a Web browser 12 (Internet homepage browsing software) is provided. When browsing the homepage, the user registers the title of the homepage in a URL address book such as "favorite" or "bookmark". The title registered here is We
The keyword is stored as a keyword in the user keyword storage unit 8A from the b browser 12. When the video starts, the video identification information detection unit 2 identifies the video based on the video identification information such as the title and specifies the video. The time measuring unit 6 reads the elapsed time from the start of the video. The channel / time / keyword correspondence table section 7A stores a keyword corresponding to the channel and time of the video, finds a keyword corresponding to the elapsed time at that time obtained by the time measurement section 6, and calculates the channel / time / keyword correspondence. Table section 7A
The keyword in the user keyword storage unit 8A is compared with the obtained keyword, and if they match, the keyword corresponding content output unit 1 obtains the content corresponding to the matched keyword and outputs this.

【0019】図11は、本発明の第5の実施例を示すコ
ンテンツ検索方法の動作フローチャートである。利用者
は、ホームページを閲覧し、‘お気に入り’や‘ブック
マーク’などの所望のタイトル(表題)をポインティン
グデバイスでの指示に応じて登録する(S508)。利
用者が登録したホームページのタイトルを、利用者キー
ワード蓄積部8Aに蓄積する(S509)。映像が開始
すると(S500)、映像識別情報検出部2はタイトル
などの映像識別情報により映像を識別して、これを特定
する(S501)。時間計測部6は、映像開始からの経
過時間を読み出す(S502)。チャネル・時間・キー
ワード対応テーブル部7は、映像チャネル、時間に対応
したキーワードが記録してあり、時間計測部6により得
られるその時の経過時間に対応するキーワードを求め
(S503)、チャネル・時間・キーワード対応テーブ
ル部7Aは、利用者キーワード蓄積部8Aのキーワード
と、求められた前記キーワードとを比較し(S50
4)、一致した場合、キーワード対応コンテンツ出力部
1は前記一致したキーワードに対応するコンテンツを求
め、これを出力する(S505)。本実施例では、ホー
ムページタイトルのキーワード群としての蓄積を映像開
始前に行っているが、映像の放送の途中にも行えること
は言うまでもない。このように、第5の実施例では、W
ebブラウザ12を用いて、検索タイトルを登録し、こ
れらをキーワード蓄積部8Aのキーワードとして使用す
る点に特徴がある。
FIG. 11 is an operation flowchart of a content search method according to a fifth embodiment of the present invention. The user browses the homepage and registers a desired title (title) such as “favorite” or “bookmark” in accordance with an instruction on the pointing device (S508). The homepage title registered by the user is stored in the user keyword storage unit 8A (S509). When a video starts (S500), the video identification information detection unit 2 identifies a video by video identification information such as a title, and specifies the video (S501). The time measuring unit 6 reads the elapsed time from the start of the video (S502). The channel / time / keyword correspondence table unit 7 records keywords corresponding to video channels and time, and obtains a keyword corresponding to the elapsed time at that time obtained by the time measurement unit 6 (S503). The keyword correspondence table unit 7A compares the keyword in the user keyword storage unit 8A with the obtained keyword (S50).
4) If they match, the keyword corresponding content output unit 1 obtains the content corresponding to the matching keyword and outputs it (S505). In this embodiment, the homepage title is stored as a keyword group before the start of the video, but it goes without saying that the homepage title can be stored during the broadcast of the video. Thus, in the fifth embodiment, W
The feature is that search titles are registered using the web browser 12, and these are used as keywords in the keyword storage unit 8A.

【0020】(第6の実施例)図6は、本発明の第6の
実施例を示すコンテンツ検索装置の構成図である。第6
の実施例は、個人認証部13を介して利用者からのパス
ワード等の認証情報を入力して、チャネル・時間・キー
ワード対応テーブル部7Aとの対応関係により有効なキ
ーワードを設定することに特徴がある。ここで、個人・
利用者キーワード蓄積部対応テーブル部14には、利用
者とキーワードとの対応関係が記録されている。利用者
は、個人のユーザ名とパスワードを個人認証部13に入
力する。ユーザ名とパスワードが一致した時、個人認証
部13はユーザ名を制御部4に通知する。制御部4は、
個人・利用者キーワード蓄積部対応テーブル部14を参
照し、前記ユーザ名に対して有効となる利用者キーワー
ド蓄積部8Aを指定する制御を行う。映像が開始する
と、映像識別情報検出部2はタイトルなどの映像識別情
報により、映像を識別して特定する。時間計測部6は、
映像開始からの経過時間を読み出す。チャネル・時間・
キーワード対応テーブル部7Aには、映像のチャネル、
時間に対応したキーワードが記録してあり、時間計測部
6により得られるその時の経過時間に対応するキーワー
ドを求め、チャネル・時間・キーワード対応テーブル部
7は、前記ユーザ名に対し有効となる利用者キーワード
蓄積部8Aのキーワードと、求められた前記キーワード
とを比較し、一致した場合には制御部4を介してキーワ
ード対応コンテンツ出力部1に送出し、キーワード対応
コンテンツ出力部1は一致した前記キーワードに対応す
るコンテンツを求め、これを出力する。
(Sixth Embodiment) FIG. 6 is a block diagram of a content search apparatus showing a sixth embodiment of the present invention. Sixth
Is characterized in that authentication information such as a password from a user is input via the personal authentication unit 13 and valid keywords are set according to the correspondence with the channel / time / keyword correspondence table unit 7A. is there. Where the individual
The correspondence table between the user and the keyword is recorded in the user keyword storage unit correspondence table unit 14. The user inputs a personal user name and a password to the personal authentication unit 13. When the user name and the password match, the personal authentication unit 13 notifies the control unit 4 of the user name. The control unit 4
With reference to the individual / user keyword storage section correspondence table section 14, control is performed to specify a user keyword storage section 8A that is valid for the user name. When the video starts, the video identification information detection unit 2 identifies and specifies the video based on the video identification information such as the title. The time measurement unit 6
Read the elapsed time from the start of the video. Channel / time /
The channel of the video,
A keyword corresponding to time is recorded, and a keyword corresponding to the elapsed time at that time obtained by the time measuring unit 6 is obtained, and the channel / time / keyword correspondence table unit 7 stores a valid user for the user name. The keyword in the keyword storage unit 8A is compared with the obtained keyword. If the keyword is matched, the keyword is sent to the keyword corresponding content output unit 1 via the control unit 4, and the keyword corresponding content output unit 1 Is obtained and output.

【0021】図12は、本発明の第6の実施例を示すコ
ンテンツ検索方法の動作フローチャートである。先ず、
利用者が個人のユーザ名とパスワードを個人認証部13
に入力する(S608)。ユーザ名とパスワードが一致
した時、個人認証部13はユーザ名を制御部4へ通知す
る(S609)。制御部4は、個人・利用者キーワード
蓄積部対応テーブル部14を参照し、前記ユーザ名に対
して有効となる利用者キーワード蓄積部8Aを指定する
制御を行う(S610)。映像が開始すると(S60
0)、映像識別情報検出部2はタイトルなどの映像識別
情報により映像を識別して、これを特定する(S60
1)。時間計測部6は、映像開始からの経過時間を読み
出す(S602)。チャネル・時間・キーワード対応テ
ーブル部7Aには、映像のチャネル、時間に対応したキ
ーワードが記録してあり、時間計測部6により得られる
その時の経過時間に対応するキーワードを求める(S6
03)。チャネル・時間・キーワード対応テーブル部7
Aでは、前記ユーザ名に対して有効となる利用者キーワ
ード蓄積部8Aのキーワードと、求められた前記キーワ
ードとを比較し(S604)、一致した場合には、キー
ワード対応コンテンツ出力部1は一致した前記キーワー
ドに対応するコンテンツを求め、それを出力する(S6
05)。なお、本実施例では、個人認証としてパスワー
ド入力を利用したが、指紋認証、虹彩認証、話者認証、
手書き文字認証等を個人認証として使用できることは言
うまでもない。このように、本実施例は、個人認証部1
3を介して利用者からのパスワード等の認証情報を入力
し、個人・利用者キーワード蓄積部対応テーブル部14
に登録された個人認証情報とキーワードとの対応関係を
用いて、利用者毎に有効なキーワードの設定および使用
を許すことを特徴としている。
FIG. 12 is an operation flowchart of a content search method according to a sixth embodiment of the present invention. First,
The user inputs the personal user name and password into the personal authentication unit 13
(S608). When the user name and the password match, the personal authentication unit 13 notifies the control unit 4 of the user name (S609). The control unit 4 refers to the individual / user keyword storage unit correspondence table unit 14 and performs control to specify a user keyword storage unit 8A that is valid for the user name (S610). When the video starts (S60
0), the video identification information detection unit 2 identifies the video based on the video identification information such as the title and specifies the video (S60).
1). The time measuring unit 6 reads the elapsed time from the start of the video (S602). In the channel / time / keyword correspondence table section 7A, keywords corresponding to the video channel and time are recorded, and a keyword corresponding to the elapsed time obtained by the time measurement section 6 is obtained (S6).
03). Channel / time / keyword correspondence table section 7
In A, the keyword in the user keyword storage unit 8A valid for the user name is compared with the obtained keyword (S604), and when they match, the keyword corresponding content output unit 1 matches. The content corresponding to the keyword is obtained and output (S6).
05). In this embodiment, the password input is used as the personal authentication. However, fingerprint authentication, iris authentication, speaker authentication,
It goes without saying that handwritten character authentication or the like can be used as personal authentication. As described above, in the present embodiment, the personal authentication unit 1
3, authentication information such as a password from the user is input to the individual / user keyword storage unit correspondence table unit 14
Using the correspondence between the personal authentication information and the keywords registered in the user, the setting and use of a valid keyword for each user are permitted.

【0022】図7〜図12に示す動作フローをそれぞれ
プログラムに変換した後、該プログラムをCD−ROM
などの記録媒体に格納すれば、任意のコンピュータに記
録媒体を実装して、該記録媒体からコンピュータにプロ
グラムをインストールするか、あるいはネットワークを
介して他のコンピュータにプログラムをダウンロードす
ることにより、容易に本発明を実現することができる。
After converting the operation flows shown in FIGS. 7 to 12 into programs, the programs are stored in a CD-ROM.
By storing the recording medium in any computer and installing the program on the computer from the recording medium, or by downloading the program to another computer via a network, the program can be easily stored. The present invention can be realized.

【0023】[0023]

【発明の効果】以上説明したように、本発明によれば、
以下に述べるような効果を奏する。 (1)キーワードとコンテンツに定められたキーワード
とをマッチングさせてコンテンツを出力する装置におい
て、映像情報とは独立に、映像経過時間対応に座標とキ
ーワードとを対応付けたテーブルを設けて、画面で指示
された座標とその時の経過時間から画面で指示された座
標に対応するキーワードを抽出し、これをキーワードに
使用することができる。 (2)また、映像経過時刻対応座標・キーワードテーブ
ル部のみを書き換えるだけで、様々なスポンサーやコン
テンツに対応付けることが可能である。 (3)また、予め自分の好みに合ったキーワードを登録
することにより、自動的に自分の好みに合ったキーワー
ドに関連したコンテンツを取得することができる。 (4)また、映像蓄積部と蓄積映像タイムスタンプ情報
蓄積部を設けることにより、蓄積された映像のキーワー
ドに対するコンテンツも出力することができ、録画した
映像に対しても使用することができる。 (5)また、自分の好みに合ったキーワードの登録手段
として、文書検索装置において利用者が入力したキーワ
ードを利用し、キーワード登録の自動化を図ることがで
きる。 (6)また、Webブラウザによるホームページ閲覧時
に、‘お気に入り’,‘ブックマーク’等に登録したホ
ームページのタイトルを利用して、キーワード登録の自
動化を図ることができる。 (7)また、個人毎に利用するキーワード群を分離し
て、複数人でシステムを利用することが可能である。
As described above, according to the present invention,
The following effects are obtained. (1) In an apparatus that outputs a content by matching a keyword with a keyword defined in the content, a table in which coordinates and keywords are associated with video elapsed times is provided independently of video information, and a table is displayed on the screen. A keyword corresponding to the coordinates specified on the screen is extracted from the specified coordinates and the elapsed time at that time, and can be used as the keywords. (2) Also, it is possible to associate with various sponsors and contents only by rewriting only the video elapsed time corresponding coordinate / keyword table part. (3) In addition, by registering a keyword that matches the user's preference in advance, it is possible to automatically acquire content related to the keyword that matches the user's preference. (4) By providing the video storage unit and the stored video timestamp information storage unit, it is possible to output the content corresponding to the keyword of the stored video, and to use the content for the recorded video. (5) As a means for registering a keyword that suits the user's preference, the keyword input by the user in the document search device can be used to automate the keyword registration. (6) Further, when browsing a homepage using a Web browser, the keyword registration can be automated using the title of the homepage registered in “favorite”, “bookmark” or the like. (7) Also, a keyword group used for each individual can be separated and a plurality of persons can use the system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例を示すコンテンツ検索装
置の全体構成図である。
FIG. 1 is an overall configuration diagram of a content search device according to a first embodiment of the present invention.

【図2】本発明の第2の実施例を示すコンテンツ検索装
置の全体構成図である。
FIG. 2 is an overall configuration diagram of a content search device according to a second embodiment of the present invention.

【図3】本発明の第3の実施例を示すコンテンツ検索装
置の全体構成図である。
FIG. 3 is an overall configuration diagram of a content search device according to a third embodiment of the present invention.

【図4】本発明の第4の実施例を示すコンテンツ検索装
置の全体構成図である。
FIG. 4 is an overall configuration diagram of a content search device according to a fourth embodiment of the present invention.

【図5】本発明の第5の実施例を示すコンテンツ検索装
置の全体構成図である。
FIG. 5 is an overall configuration diagram of a content search device according to a fifth embodiment of the present invention.

【図6】本発明の第6の実施例を示すコンテンツ検索装
置の全体構成図である。
FIG. 6 is an overall configuration diagram of a content search device showing a sixth embodiment of the present invention.

【図7】本発明の第1の実施例を示すコンテンツ検索方
法の動作フローチャートである。
FIG. 7 is an operation flowchart of a content search method according to the first embodiment of the present invention.

【図8】本発明の第2の実施例を示すコンテンツ検索方
法の動作フローチャートである。
FIG. 8 is an operation flowchart of a content search method according to a second embodiment of the present invention.

【図9】本発明の第3の実施例を示すコンテンツ検索方
法の動作フローチャートである。
FIG. 9 is an operation flowchart of a content search method according to a third embodiment of the present invention.

【図10】本発明の第4の実施例を示すコンテンツ検索
方法の動作フローチャートである。
FIG. 10 is an operation flowchart of a content search method according to a fourth embodiment of the present invention.

【図11】本発明の第5の実施例を示すコンテンツ検索
方法の動作フローチャートである。
FIG. 11 is an operation flowchart of a content search method according to a fifth embodiment of the present invention.

【図12】本発明の第6の実施例を示すコンテンツ検索
方法の動作フローチャートである。
FIG. 12 is an operation flowchart of a content search method according to a sixth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…キーワード対応コンテンツ出力部、2…映像経過時
刻対応座標、3…座標情報抽出部、5…映像経過時刻対
応座標・キーワードテーブル部、4…制御部、6…時刻
計測部、時間計測部、7…コンテンツ検索部、8…映像
入力部、9…映像記録部、10…映像表示部、7A…チ
ャネル・時間・キーワード対応テーブル部、8A…利用
者キーワード蓄積部、9A…蓄積映像タイムスタンプ情
報蓄積部、10A…映像蓄積部、11…文書検索装置、
12…Webブラウザ、13…個人認証部、14…個人
・利用者キーワード蓄積部対応テーブル部。
DESCRIPTION OF SYMBOLS 1 ... Keyword corresponding content output part, 2 ... Video elapsed time corresponding coordinate, 3 ... Coordinate information extraction part, 5 ... Video elapsed time corresponding coordinate / keyword table part, 4 ... Control part, 6 ... Time measuring part, time measuring part, 7: Content search unit, 8: Video input unit, 9: Video recording unit, 10: Video display unit, 7A: Channel / time / keyword correspondence table unit, 8A: User keyword storage unit, 9A: Stored video time stamp information Storage unit, 10A: video storage unit, 11: document search device,
12 Web browser, 13 Personal authentication unit, 14 Individual / user keyword storage unit correspondence table unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 布川 亮造 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 井上 渉 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 植垣 伸哉 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 5B075 ND12 PP22 PQ02 PQ05  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Ryozo Nukawa, Inventor 2-3-1 Otemachi, Chiyoda-ku, Tokyo Nippon Telegraph and Telephone Corporation (72) Inventor Wataru Inoue 2-3-3, Otemachi, Chiyoda-ku, Tokyo No. 1 Nippon Telegraph and Telephone Corporation (72) Inventor Shinya Uegaki 2-3-1 Otemachi, Chiyoda-ku, Tokyo F-Term within Nippon Telegraph and Telephone Corporation (Reference) 5B075 ND12 PP22 PQ02 PQ05

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 キーワードを入力して検索されたコンテ
ンツを出力するコンテンツ検索装置において、 時刻を計測する時刻計測部と、 少なくとも放送日時と放送チャネルと番組の表題との対
応関係からなる番組情報を記録し、放送信号を受信する
チャネルと前記時刻から放送番組を特定し、前記放送番
組の開始からの経過時間を計測する映像識別情報検出部
と、 前記放送信号に基づく映像を表示する映像表示部と、 前記表示映像上の映像領域を指定する座標情報抽出部
と、 少なくとも前記映像領域が入力された経過時間とキーワ
ードとの対応関係を記録する経過時間キーワード対応記
録部と、 前記映像領域が入力された経過時間に対応するキーワー
ドを特定して送信するキーワード送信部と、 前記キーワードに対応するコンテンツ検索情報又はコン
テンツを表示するコンテンツ出力部とを有することを特
徴とするコンテンツ検索装置。
1. A content search apparatus for outputting a searched content by inputting a keyword, comprising: a time measuring unit for measuring time; and program information comprising at least a correspondence between a broadcast date and time, a broadcast channel, and a program title. A video identification information detecting unit for recording and identifying a broadcast program from a channel for receiving a broadcast signal and the time, and measuring an elapsed time from the start of the broadcast program; and a video display unit for displaying an image based on the broadcast signal. A coordinate information extraction unit that specifies a video region on the display video; an elapsed time keyword correspondence recording unit that records at least the correspondence between the elapsed time when the video region is input and a keyword; A keyword transmitting unit for specifying and transmitting a keyword corresponding to the elapsed time, and a content search information corresponding to the keyword. Or content retrieval apparatus characterized by having a content output unit for displaying the content.
【請求項2】 請求項1に記載のコンテンツ検索装置に
おいて、 前記映像識別情報検出部は、経過時間の読み出しに際し
て、映像領域の指定し終わるよりも指定に費やされる時
間だけ前の経過時間を読み出すか、あるいは記録された
映像領域を指定し終わる経過時間の中から特定の経過時
間を選択させ、該特定の経過時間の直前から記録された
映像をスローで再生し、元の経過時間を指定された経過
時間に置換させることを特徴とするコンテンツ検索装
置。
2. The content search device according to claim 1, wherein the video identification information detection unit reads an elapsed time earlier by a time spent in the specification than in the end of the specification of the video area when reading the elapsed time. Alternatively, a specific elapsed time is selected from the elapsed times at which the recorded video area is specified, and the video recorded immediately before the specific elapsed time is played back in slow motion, and the original elapsed time is designated. A content search device, wherein the content search device is replaced with an elapsed time.
【請求項3】 キーワードを入力して検索されたコンテ
ンツを出力するコンテンツ検索装置において、 時間を計測する時間計測部と、 少なくとも放送日時と放送チャネルと番組の表題との対
応関係からなる番組情報を記録し、放送信号を受信する
チャネルと前記時刻から放送番組を特定し、前記放送番
組の開始からの経過時間を計測する映像識別情報検出部
と、 利用者により選択されたキーワード群が蓄積される利用
者キーワード蓄積部と、 映像チャネルおよび時間に対応したキーワードを記録
し、前記時間計測部により得られる時点の経過時間に対
応するキーワードと、前記利用者キーワード蓄積部のキ
ーワードとを比較し、一致したか否かを判定するチャネ
ル・時間・キーワード対応テーブル部と、 前記一致したキーワードに対応するコンテンツ検索情報
又はコンテンツを表示するコンテンツ出力部とを有する
ことを特徴とするコンテンツ検索装置。
3. A content search apparatus for outputting a searched content by inputting a keyword, comprising: a time measuring unit for measuring time; and program information comprising at least a correspondence between a broadcast date and time, a broadcast channel, and a program title. A video identification information detecting unit that specifies a broadcast program from a channel for recording and receiving a broadcast signal and the time, measures an elapsed time from the start of the broadcast program, and stores a keyword group selected by a user. The keyword corresponding to the video channel and time is recorded in the user keyword storage unit, and the keyword corresponding to the elapsed time at the time obtained by the time measurement unit is compared with the keyword in the user keyword storage unit. A channel / time / keyword correspondence table for determining whether or not the keyword has been matched; Content search apparatus characterized by having a content search information or content output unit for displaying the content.
【請求項4】 キーワードを入力して検索されたコンテ
ンツを出力するコンテンツ検索装置において、 映像を蓄積する映像蓄積部と、 該映像蓄積部に映像を蓄積する際に、映像の開始時間か
ら計時した時間を映像識別情報とともに蓄積する蓄積映
像タイムスタンプ情報蓄積部と、 時間を計測する時間計測部と、 映像の開始あるいは該映像の途中から、少なくとも映像
の表題などの映像識別情報により、映像を識別して特定
する映像識別情報検出部と、 前記表示映像上の映像領域を指定する座標情報抽出部
と、 前記映像識別情報毎に映像の開始からの経過時間に対応
して記録されている画面上の座標情報を、前記座標情報
抽出部により得られた座標情報と前記時間計測部により
得られた時点の経過時間と、前記蓄積映像タイムスタン
プ情報蓄積部に蓄積されている時間情報と比較し、比較
結果が一致した時、該時点の経過時間と座標情報に対応
するキーワードを求める映像経過時刻対応座標・キーワ
ードテーブル部と、 前記求められたキーワードに対応するコンテンツを求
め、該コンテンツを出力するキーワード対応コンテンツ
出力部とを有することを特徴とするコンテンツ検索装
置。
4. A content search device for outputting a searched content by inputting a keyword, a video storage unit for storing a video, and when storing the video in the video storage unit, a time is measured from a start time of the video. A stored video time stamp information storage unit for storing time together with video identification information, a time measurement unit for measuring time, and identifying a video at least at the start of the video or in the middle of the video by video identification information such as a video title. A video identification information detecting unit that specifies the video area on the display video, a coordinate information extraction unit that specifies a video area on the display video, and a video recorded on the screen corresponding to the elapsed time from the start of the video for each video identification information. Of the coordinate information obtained by the coordinate information extraction unit, the elapsed time obtained by the time measurement unit, and the stored video time stamp information. A time-lapse coordinate / keyword table unit for obtaining a keyword corresponding to the elapsed time and the coordinate information at the time when the comparison result matches with the time information stored in the product unit; And a keyword-corresponding content output unit for obtaining a content corresponding to the keyword and outputting the content.
【請求項5】 キーワードを入力して検索されたコンテ
ンツを出力するコンテンツ検索装置において、 利用者によりキーワードが入力されることにより、文書
を検索する文書検索装置と、 入力されたキーワードを蓄積する利用者キーワード蓄積
部と、 映像の開始あるいは該映像の途中から、映像のタイトル
などの映像識別情報により該映像を識別して特定する映
像識別情報検出部と、 映像開始あるいは該映像の途中からの経過時間を計測す
る時間計測部と、 該時間計測部により得られた時点の経過時間に対応する
キーワードを求め、該キーワードと前記利用者キーワー
ド蓄積部に蓄積されているキーワードとを比較し、一致
したか否かを判定するチャネル・時間・キーワード対応
テーブル部と、 比較結果が一致した時のキーワードに対するコンテンツ
を求め、該コンテンツを出力するキーワード対応コンテ
ンツ出力部とを有することを特徴とするコンテンツ検索
装置。
5. A content search device for inputting a keyword and outputting a searched content, comprising: a document search device for searching for a document when a keyword is input by a user; and a storage device for storing the input keyword. A keyword storage unit; a video identification information detection unit that identifies and specifies the video by video identification information such as a video title from the start of the video or from the middle of the video; A time measuring unit for measuring time, a keyword corresponding to the elapsed time at the time point obtained by the time measuring unit is obtained, and the keyword is compared with the keyword stored in the user keyword storing unit. Channel / time / keyword correspondence table to determine whether or not A content search device, comprising: a content corresponding to a keyword for obtaining a content and outputting the content.
【請求項6】 キーワードを入力して検索されたコンテ
ンツを出力するコンテンツ検索装置において、 ホームページのタイトルなどが登録されたURLアドレ
ス帳をWebブラウザによりキーワードとして蓄積され
る利用者キーワード蓄積部と、 映像の開始あるいは該映像の途中から、該映像のタイト
ルなどの映像識別情報により該映像を識別して特定する
映像識別情報検出部と、 映像開始あるいは該映像の途中からの経過時間を計測す
る時間計測部と、 前記時間計測部により得られる時点の経過時間に対応す
るキーワードを求め、該キーワードと、前記利用者キー
ワード蓄積部のキーワードとを比較して、一致するか否
かを判定するチャネル・時間・キーワード対応テーブル
部と、 比較結果が一致した場合に、一致した該キーワードに対
応するコンテンツを求め、該コンテンツを出力するキー
ワード対応コンテンツ出力部とを有することを特徴とす
るコンテンツ検索装置。
6. A content retrieval apparatus for outputting a retrieved content by inputting a keyword, a user keyword storage unit for storing a URL address book in which a title of a homepage or the like is registered as a keyword by a web browser, A video identification information detecting unit that identifies and specifies the video by video identification information such as the title of the video from the start of the video or the middle of the video, and a time measurement that measures the elapsed time from the start of the video or the middle of the video. Channel and time for determining a keyword corresponding to the elapsed time at the time obtained by the time measuring unit, comparing the keyword with the keyword in the user keyword storage unit, and determining whether or not they match.・ If the comparison result matches the keyword correspondence table, the keyword For content that the content retrieval device characterized by having a keyword corresponding content output unit for outputting the content.
【請求項7】 キーワードを入力して検索されたコンテ
ンツを出力するコンテンツ検索装置において、 入力されたキーワードを蓄積する利用者キーワード蓄積
部と、 利用者とキーワードとの対応関係を記録する個人・利用
者キーワード蓄積部対応テーブル部と、 個人のユーザ名とパスワードが入力されると、該ユーザ
名とパスワードが一致した時に通知をする個人認証部
と、 前記個人認証部から通知を受けると、前記個人・利用者
キーワード蓄積部対応テーブル部を参照して、前記ユー
ザ名に対して有効となる利用者キーワード蓄積部を指定
する制御部と、 映像の開始あるいは該映像の途中から、映像開始からの
経過時間を計測する時間計測部と、 前記時間計測部により得られる時点の経過時間に対応す
るキーワードを求め、求められた該キーワードと、前記
ユーザ名に対して有効となる利用者キーワード蓄積部の
キーワードとを比較し、一致するか否かを判定するチャ
ネル・時間・キーワード対応テーブル部と、 判定の結果、一致したキーワードに対応するコンテンツ
を求め、該コンテンツを出力するキーワード対応コンテ
ンツ出力部とを有することを特徴とするコンテンツ検索
装置。
7. A content retrieval apparatus for outputting a searched content by inputting a keyword, a user keyword storage unit for storing the input keyword, and an individual / usage recording a correspondence between the user and the keyword. User keyword storage section correspondence table section, when a user name and password of an individual are input, a personal authentication section that notifies when the user name and password match, and when a notification is received from the personal authentication section, the personal authentication section A control unit for designating a user keyword storage unit valid for the user name by referring to the user keyword storage unit correspondence table unit; and a process from the start of the video or from the start of the video to the start of the video A time measuring unit for measuring time, and a keyword corresponding to an elapsed time at a time point obtained by the time measuring unit is obtained. A channel / time / keyword correspondence table unit for comparing a keyword with a keyword in a user keyword storage unit valid for the user name and determining whether or not the keyword matches; A content output unit for obtaining a corresponding content and outputting the content.
【請求項8】 キーワードを入力して検索されたコンテ
ンツを出力するコンテンツ検索方法において、 映像の開始、あるいは該映像の途中から、タイトル、放
送チャネル、放送日時などの映像識別情報により、該映
像を識別して特定するステップと、 画面上で利用者により指示された位置を画面上の座標情
報に変換するステップと、 映像の経過時間を読み出すステップと、 前記ステップで得られた座標情報と経過時間を、映像経
過時刻対応座標・キーワードテーブル部に記録されてい
る経過時間に対応した画面上の座標情報と比較するステ
ップと、 比較結果、一致した時に、前記映像経過時刻対応座標・
キーワードテーブル部から該時点の経過時間と座標情報
に対応するキーワードを求めるステップと、 求められたキーワードに対応するコンテンツを求めて、
該コンテンツを出力するステップとを有することを特徴
とするコンテンツ検索方法。
8. A content search method for outputting a searched content by inputting a keyword, comprising the steps of: starting from a video, or from the middle of the video, by using video identification information such as a title, a broadcast channel, and a broadcast date and time. Identifying and specifying; converting a position designated by the user on the screen into coordinate information on the screen; reading out the elapsed time of the video; and the coordinate information and elapsed time obtained in the step. Is compared with the coordinate information on the screen corresponding to the elapsed time recorded in the video elapsed time corresponding coordinate / keyword table section.
A step of obtaining a keyword corresponding to the elapsed time and the coordinate information at the time from the keyword table section; and obtaining a content corresponding to the obtained keyword.
Outputting the content.
【請求項9】 請求項8に記載のコンテンツ検索方法に
おいて、 前記映像の経過時間を読み出す場合に、映像領域の指定
し終わるよりも指定に費やされる時間だけ前の経過時間
を読み出すステップ、 あるいは映像経過時刻対応座標・キーワードテーブル部
で記録された映像領域を指定し終わる経過時間の中から
特定の経過時間を選択し、該特定の経過時間の直前から
映像記録部で記録された映像をスロー再生するステップ
と、 利用者により座標情報抽出部を介して経過時間を再度の
指定を受け付け、映像経過時刻対応座標・キーワードテ
ーブル部で記録された元の経過時間を指定された経過時
間に置換するステップとを有することを特徴とするコン
テンツ検索方法。
9. The content search method according to claim 8, wherein, when reading the elapsed time of the video, a step of reading an elapsed time earlier by a time spent for the specification than the end of the specification of the video area, or Select a specific elapsed time from the elapsed time to specify the video area recorded in the coordinate / keyword table corresponding to the elapsed time, and slowly reproduce the video recorded by the video recording unit immediately before the specific elapsed time. And accepting the user's designation of the elapsed time again via the coordinate information extraction unit, and replacing the original elapsed time recorded in the coordinate / keyword table corresponding to the video elapsed time with the designated elapsed time. And a content search method.
【請求項10】 キーワードを入力して検索されたコン
テンツを出力するコンテンツ検索方法において、 利用者が希望するキーワードを利用者キーワード蓄積部
に登録するステップと、 映像が開始するか、あるいは映像の途中に、該映像のタ
イトルなどの映像識別情報により該映像を識別して、特
定するステップと、 該映像開始、あるいは該映像の途中からの経過時間を読
み出すステップと、 読み出された前記経過時間に対応するキーワードを求め
るステップと、 求められた前記キーワードと、前記利用者キーワード蓄
積部のキーワードとを比較するステップと、 比較結果が一致した場合、該一致したキーワードに対応
するコンテンツを求めて、該コンテンツを出力するステ
ップとを有することを特徴とするコンテンツ検索方法。
10. A content search method for inputting a keyword and outputting a searched content, wherein a step of registering a keyword desired by a user in a user keyword storage unit; Identifying and identifying the video by video identification information such as the title of the video; reading the elapsed time from the start of the video or the middle of the video; A step of obtaining a corresponding keyword; a step of comparing the obtained keyword with a keyword in the user keyword storage unit; if the comparison results match, a content corresponding to the matched keyword is obtained; Outputting a content.
【請求項11】 キーワードを入力して検索されたコン
テンツを出力するコンテンツ検索方法において、 映像を映像蓄積部に蓄積するステップと、 該映像蓄積部に蓄積するとともに、映像の開始時間また
は途中時間から計時した時間を蓄積映像タイムスタンプ
情報蓄積部に蓄積するステップと、 蓄積した映像が開始すると、蓄積映像タイムスタンプ情
報蓄積部に蓄積されているタイトルなどの映像識別情報
を識別するステップと、 利用者により画面上で指示された位置を該画面上の座標
情報に変換するステップと、 映像の経過時間を読み出すステップと、 前記ステップを得られた座標情報と経過時間と前記蓄積
映像タイムスタンプ情報蓄積部に蓄積された時間情報
を、映像経過時刻対応座標・キーワードテーブル部に記
録されている経過時間に対応した画面上の座標情報と比
較するステップと、 比較の結果、一致した時には、前記映像経過時刻対応座
標・キーワードテーブル部から該時点の経過時間と座標
情報に対応するキーワードを求めるステップと、 求められた前記キーワードに対応するコンテンツを求
め、該コンテンツを出力するステップとを有することを
特徴とするコンテンツ検索方法。
11. A content search method for outputting a searched content by inputting a keyword, wherein a video is stored in a video storage unit, and the video is stored in the video storage unit and the video is started from a video start time or an intermediate time. Storing the counted time in the stored video time stamp information storage unit; identifying the video identification information such as a title stored in the stored video time stamp information storage unit when the stored video starts; Converting the position specified on the screen into coordinate information on the screen, reading the elapsed time of the video, obtaining the coordinate information, the elapsed time, and the stored video time stamp information storage unit The time information accumulated in the time is stored in the coordinate / keyword table corresponding to the elapsed time of the video. Comparing the coordinate information with the coordinate information on the screen corresponding to the time interval; and, when the result of the comparison is a match, obtaining a keyword corresponding to the elapsed time and the coordinate information from the video elapsed time corresponding coordinate / keyword table section. Obtaining a content corresponding to the obtained keyword, and outputting the content.
【請求項12】 キーワードを入力して検索されたコン
テンツを出力するコンテンツ検索方法において、 文書検索装置を利用してキーワードを入力するステップ
と、 入力されたキーワードを利用者キーワード蓄積部に蓄積
するステップと、 映像の開始、あるいは映像の途中で、該映像のタイトル
などの映像識別情報により該映像を識別して特定するス
テップと、 該映像の開始、あるいは該映像の途中から経過時間を読
み出すステップと、 前記ステップで読み出された経過時間に対応するキーワ
ードを求めるステップと、 前記ステップで求められたキーワードと、前記利用者キ
ーワード蓄積部のキーワードとを比較するステップと、 比較の結果、一致した場合には、一致したキーワードに
対応するコンテンツを求め、該コンテンツを出力するス
テップとを有することを特徴とするコンテンツ検索方
法。
12. A content search method for inputting a keyword and outputting a searched content, wherein the step of inputting the keyword using a document search device and the step of storing the input keyword in a user keyword storage unit. At the start of the video, or in the middle of the video, identifying and specifying the video by video identification information such as the title of the video; and reading the elapsed time from the start of the video, or the middle of the video. A step of obtaining a keyword corresponding to the elapsed time read in the step; a step of comparing the keyword obtained in the step with a keyword in the user keyword storage unit; Finds the content corresponding to the matched keyword and outputs the content. Content retrieval method characterized by a step.
【請求項13】 キーワードを入力して検索されたコン
テンツを出力するコンテンツ検索方法において、 ホームページのタイトルを登録するステップと、 登録されたタイトルを利用者キーワード蓄積部に蓄積す
るステップと、 映像の開始あるいは該映像の途中から、該映像のタイト
ルなどの映像識別情報により該映像を識別して、特定す
るステップと、 該映像の開始あるいは該映像の途中からの経過時間を読
み出すステップと、 前記読み出された経過時間に対応するキーワードを求め
るステップと、 求められた前記キーワードと前記利用者キーワード蓄積
部のキーワードとを比較するステップと、 比較の結果、一致した場合には、一致したキーワードに
対応するコンテンツを求め、該コンテンツを出力するス
テップとを有することを特徴とするコンテンツ検索方
法。
13. A content search method for outputting a searched content by inputting a keyword, a step of registering a title of a homepage, a step of storing the registered title in a user keyword storage unit, Or identifying and identifying the video from the middle of the video by video identification information such as the title of the video, reading the start of the video or the elapsed time from the middle of the video, Obtaining a keyword corresponding to the determined elapsed time; comparing the obtained keyword with a keyword in the user keyword storage unit; if the result of the comparison is a match, the keyword corresponds to the matched keyword Obtaining the content and outputting the content. Content search method to.
【請求項14】 キーワードを入力して検索されたコン
テンツを出力するコンテンツ検索方法において、 個人認証部に個人のユーザ名とパスワードを入力するス
テップと、 該ユーザ名とパスワードが一致した場合、該ユーザ名を
制御部に通知するステップと、 該制御部は個人・利用者キーワード蓄積部対応テーブル
部を参照して、前記ユーザ名に対して有効となる利用者
キーワード蓄積部を指定するステップと、 映像の開始あるいは該映像の途中から、該映像のタイト
ルなどの映像識別情報により該映像を識別して特定する
ステップと、 該映像の開始あるいは該映像の途中からの経過時間を読
み出すステップと、 前記ステップで読み出された経過時間に対応するキーワ
ードを求めるステップと、 前記ステップで求められたキーワードと、前記ユーザ名
に対して有効となる利用者キーワード蓄積部のキーワー
ドとを比較するステップと、 比較の結果、一致した場合には、一致した前記キーワー
ドに対応するコンテンツを求め、該コンテンツを出力す
るステップとを有することを特徴とするコンテンツ検索
方法。
14. A content search method for outputting a searched content by inputting a keyword, wherein a step of inputting a personal user name and a password to a personal authentication unit; Notifying the name to the control unit; the control unit referring to the individual / user keyword storage unit correspondence table unit to specify a user keyword storage unit valid for the user name; Starting or starting from the middle of the video, identifying and specifying the video by video identification information such as the title of the video, reading the elapsed time from the start of the video or the middle of the video, Obtaining a keyword corresponding to the elapsed time read in; and the keyword obtained in the step, Comparing the user name with a keyword in the user keyword storage unit that is valid; and, if the result of the comparison is a match, obtaining a content corresponding to the matched keyword and outputting the content. And a content search method.
【請求項15】 請求項8〜14に記載のコンテンツ検
索方法の各ステップをプログラムに変換し、該プログラ
ムを記録媒体に格納したことを特徴とするコンテンツ検
索プログラムを記録した記録媒体。
15. A recording medium recording a content search program, wherein each step of the content search method according to claim 8 is converted into a program, and the program is stored in the recording medium.
JP2000167234A 2000-06-05 2000-06-05 Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon Pending JP2001344251A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000167234A JP2001344251A (en) 2000-06-05 2000-06-05 Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000167234A JP2001344251A (en) 2000-06-05 2000-06-05 Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon

Publications (1)

Publication Number Publication Date
JP2001344251A true JP2001344251A (en) 2001-12-14

Family

ID=18670413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000167234A Pending JP2001344251A (en) 2000-06-05 2000-06-05 Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon

Country Status (1)

Country Link
JP (1) JP2001344251A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100461179C (en) * 2006-10-11 2009-02-11 北京新岸线网络技术有限公司 Audio analysis system based on content
KR100933706B1 (en) 2009-08-28 2009-12-31 (주)이즈포유 Content search managing system using indicator displayed by keyword search result and method thereof
JP2010157080A (en) * 2008-12-26 2010-07-15 Ntt Communications Kk System, method and program for retrieving content relevant information
US8072416B2 (en) 2005-07-21 2011-12-06 Samsung Electronics Co., Ltd. Integrated digital device and displaying method using the same
JP2014060790A (en) * 2013-11-28 2014-04-03 Nec Corp Portable terminal, and television program name advertisement method in portable terminal
JP2015053710A (en) * 2014-10-23 2015-03-19 レノボ・イノベーションズ・リミテッド(香港) Portable terminal, and television program name advertisement method in portable terminal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63136169A (en) * 1986-11-28 1988-06-08 Hitachi Ltd Image retrieving system
JPH01233670A (en) * 1988-03-15 1989-09-19 Matsushita Electric Ind Co Ltd Picture retrieving device
JPH0352070A (en) * 1989-07-20 1991-03-06 Nippon Telegr & Teleph Corp <Ntt> Related information reference system for moving image
JPH06274552A (en) * 1993-03-23 1994-09-30 Nec Software Kansai Ltd Multi-media data link system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63136169A (en) * 1986-11-28 1988-06-08 Hitachi Ltd Image retrieving system
JPH01233670A (en) * 1988-03-15 1989-09-19 Matsushita Electric Ind Co Ltd Picture retrieving device
JPH0352070A (en) * 1989-07-20 1991-03-06 Nippon Telegr & Teleph Corp <Ntt> Related information reference system for moving image
JPH06274552A (en) * 1993-03-23 1994-09-30 Nec Software Kansai Ltd Multi-media data link system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8072416B2 (en) 2005-07-21 2011-12-06 Samsung Electronics Co., Ltd. Integrated digital device and displaying method using the same
CN100461179C (en) * 2006-10-11 2009-02-11 北京新岸线网络技术有限公司 Audio analysis system based on content
JP2010157080A (en) * 2008-12-26 2010-07-15 Ntt Communications Kk System, method and program for retrieving content relevant information
KR100933706B1 (en) 2009-08-28 2009-12-31 (주)이즈포유 Content search managing system using indicator displayed by keyword search result and method thereof
JP2014060790A (en) * 2013-11-28 2014-04-03 Nec Corp Portable terminal, and television program name advertisement method in portable terminal
JP2015053710A (en) * 2014-10-23 2015-03-19 レノボ・イノベーションズ・リミテッド(香港) Portable terminal, and television program name advertisement method in portable terminal

Similar Documents

Publication Publication Date Title
JP4062908B2 (en) Server device and image display device
CN110913241B (en) Video retrieval method and device, electronic equipment and storage medium
JP4388128B1 (en) Information providing server, information providing method, and information providing system
US20050273812A1 (en) User profile editing apparatus, method and program
US9626369B2 (en) Method and apparatus for collecting and providing information of interest to user regarding multimedia content
KR101246917B1 (en) Method and system for sharing the information between users of the media reproducing systems
JP2003099453A (en) System and program for providing information
CN101365134B (en) Frame specifying method
JP2005295375A (en) Information acquisition support system
KR20100082372A (en) Electronic device, control program, recording medium, and control method
CN101364225A (en) Keyword extraction method
KR101396362B1 (en) Method and apparatus for providing a detailed information of personal video recorder
JP2011180729A (en) Information processing apparatus, keyword registration method, and program
US20060085416A1 (en) Information reading method and information reading device
JP2022000955A (en) Scene sharing system
JP2003203467A (en) Data processor and data processing method
JP4174056B2 (en) Video playback method and video playback terminal
JPH11164217A (en) Preference statistic program retrieval television system
KR101490506B1 (en) Method and apparatus for editing moving picture contents
JP2001344251A (en) Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon
CN100508594C (en) Commercial information searching method and apparatus, and provid method and apparatus accompanying information
JP4723901B2 (en) Television display device
JP2006311010A (en) Information system, information providing system, and information providing program
JP5343658B2 (en) Recording / playback apparatus and content search program
KR20060094055A (en) Cm searching method and apparatus, and cm-appendant information supplying method and apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051028