JP5115089B2 - Keyword extraction method - Google Patents

Keyword extraction method Download PDF

Info

Publication number
JP5115089B2
JP5115089B2 JP2007209946A JP2007209946A JP5115089B2 JP 5115089 B2 JP5115089 B2 JP 5115089B2 JP 2007209946 A JP2007209946 A JP 2007209946A JP 2007209946 A JP2007209946 A JP 2007209946A JP 5115089 B2 JP5115089 B2 JP 5115089B2
Authority
JP
Japan
Prior art keywords
search
keyword
image information
simulated
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007209946A
Other languages
Japanese (ja)
Other versions
JP2009044658A (en
Inventor
広行 駒井
徹 上和田
雅司 漆原
高史 寺崎
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2007209946A priority Critical patent/JP5115089B2/en
Publication of JP2009044658A publication Critical patent/JP2009044658A/en
Application granted granted Critical
Publication of JP5115089B2 publication Critical patent/JP5115089B2/en
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/20Image acquisition
    • G06K9/2054Selective acquisition/locating/processing of specific regions, e.g. highlighted text, fiducial marks, predetermined fields, document type identification
    • G06K9/2063Selective acquisition/locating/processing of specific regions, e.g. highlighted text, fiducial marks, predetermined fields, document type identification based on a marking or identifier characterising the document or the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data

Description

本発明は、画像中の情報に基づいてウエブサイトへアクセスする技術に関する。 The present invention relates to a technique for accessing the web site based on the information in the image.

商品の販売促進や、企業イメージの向上等のため、多くの人に情報を発信する手法(広報活動)としては、テレビによるCM(commercial message)放送や、新聞、雑誌への広告掲載が主流であり、効果的である。 Sales promotion and of goods, for the improvement of the corporate image, as the method (public relations) for transmitting the information to a lot of people, CM (commercial message) broadcasting or by television, mainstream newspapers and ads to magazine Yes, it is effective.

また、インターネットの普及に伴い、ウエブサイトによる広報活動も重要になってきている。 In addition, with the spread of the Internet, even public relations activities by the web site has become important.

テレビCMや新聞広告は、タイムリーに多くの人に届く利点があるものの、放送時間や紙面に限りがあり、多くの情報を伝えられないという問題がある。 TV CM and newspaper advertisements, although there is an advantage to reach a lot of people in a timely manner, there is a limit to the broadcasting time and paper, there is a problem that not convey a lot of information.

一方、ウエブサイトによる広告は、ユーザ(コンシューマ)の望む情報を詳細に伝えられる利点があるものの、ユーザからアクセスする必要があり、そのウエブサイトや情報の存在自体を知らないコンシューマがアクセスできない(即ち広告できない)という問題がある。 On the other hand, advertising by web sites, although there is an advantage that transmitted the information desired by the user (consumer) in detail, it is necessary to access the user, the consumer does not know the existence of the website or information is not accessible (i.e. there is a problem that can not be ad).

このため、テレビや新聞で広告する際に、ウエブサイトの存在も知らせ、広告内容に興味を持った人をウエブサイトへ誘導する試みがある。 For this reason, when advertising on TV and in the newspaper, also inform the presence of the web site, there is an attempt to induce a person who was interested in the advertising content to the web site.

例えば、CM中にウエブサイトのURLを表示し、インターネットを介したアクセスを促す。 For example, to display the URL of the web site during the CM, prompt access via the Internet.

しかし、URLは、覚え難く、アクセスする際の入力ミスも多いことから、確実にウエブサイトへ誘導できるとは限らなかった。 However, URL is, remember difficult, since it often also input errors at the time of access, did not always reliably be guided to the web site.

そこで、図9に示すようにキーワードが入力されたサーチエンジンの検索欄を模した表示を行い、ブラウザから同様にキーワードを検索欄に入力して検索し、ウエブサイトへアクセスするように促す手法もある。 Therefore, to display the keyword is simulating the search box of the search engine that is input as shown in FIG. 9, to search by entering a similar browser keyword in the search field, also a method to prompt access to websites is there. この手法であれば、覚え易いキーワードを使い、表示のとおり検索すれば良く、容易にアクセス可能である。 According to this technique, use the easy keyword remember, it is only necessary to search as it appears, it is readily accessible.

また、本発明に関連する先行技術として、例えば、下記の文献に開示される技術がある。 Further, the prior arts related to the present invention, for example, a technology disclosed in the following documents.
特開2002−290947号公報 JP 2002-290947 JP

しかし、テレビや新聞で検索キーワードを広告し、インターネットで検索する手法であると、キーワードを広告するメディア(テレビや新聞)と、検索するメディア(インターネット)が異なるので、検索する場合、ユーザが新たにブラウザを起動して検索を行う必要があり、手間がかかるので検索意欲を削ぐという問題があった。 However, advertising the search keyword on TV and newspapers, and there is a technique to search the Internet, and the media to advertise the keyword (TV and newspapers), because the search media (the Internet) is different, if you want to find, new users is necessary to carry out the search to launch the browser there, time there has been a problem that discourage the search motivation because it takes in.

そこで本発明は、サーチエンジンの検索欄を模した画像から検索キーワードを抽出し、 The present invention extracts a search keyword from an image simulating a search box of a search engine,
該検索キーワードで検索することにより、広告中の情報(検索キーワード)に基づくウエブアクセスを容易にする技術を提供する。 By searching with the search keyword, to provide a technique for facilitating web access based on information in the ad (search keyword).

上記課題を解決するため、本発明は、以下の構成を採用した。 To solve the above problems, the present invention adopts the following configuration.
即ち、本発明のキーワード抽出方法は、 That is, the keyword extraction method of the present invention,
画像情報を取得するステップと、 Acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
をコンピュータが実行する。 The computer executes.

また、本発明の検索方法は、 The search method of the present invention,
画像情報を取得するステップと、 Acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
前記検索キーワードを用い、検索処理又は検索の前処理を行うステップと、 Using the search keyword, and performing a search process or Find pretreatment,
をコンピュータが実行する。 The computer executes.

また、本発明のキーワード抽出装置は、 Further, the keyword extracting device of the present invention,
画像情報を取得する画像取得部と、 An image acquisition unit for acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定する解析部と、 An analysis unit analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出する抽出部と、 An extraction unit for extracting a search keyword from the simulated search box area,
を備える。 Equipped with a.

また、本発明の検索装置は、 The search apparatus of the present invention,
画像情報を取得する画像取得部と、 An image acquisition unit for acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定する解析部と、 An analysis unit analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出する抽出部と、 An extraction unit for extracting a search keyword from the simulated search box area,
前記検索キーワードを用い、検索処理又は検索の前処理を行う検索処理部と、 Using the search keyword, a retrieval processing section for searching processing or retrieval pretreatment,
を備える。 Equipped with a.

また、本発明は、上記方法をコンピュータに実行させるプログラムであっても良い。 Further, the present invention may be a program for executing the method on a computer. 更に、本発明は、このプログラムをコンピュータが読み取り可能な記録媒体に記録したものであっても良い。 Furthermore, the present invention may be one that the program computer recording medium recorded readable. コンピュータに、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。 By causing the computer reads and executes the program on this recording medium, it is possible to provide that functionality.

ここで、コンピュータが読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータから読み取ることができる記録媒体をいう。 Here, the computer-readable recording medium, the electrical information such as data and programs, magnetic, optical, optically, mechanically or by chemical action, which can be read from the computer . このような記録媒体の内コンピュータから取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD-ROM、CD-R/W、DVD、DAT、8mmテープ、メモリカード等がある。 Those detachable from the computer among such recording media, for example, a flexible disk, a magneto-optical disk, CD-ROM, CD-R / W, DVD, DAT, 8mm tape, a memory card or the like.

また、コンピュータに固定された記録媒体としてハードディスクやROM(リードオンリーメモリ)等がある。 Further, a hard disc, a ROM (Read Only Memory), etc are given as the recording mediums fixed within the computer.

本発明によれば、サーチエンジンの検索欄を模した画像から検索キーワードを抽出し、該検索キーワードで検索することにより、広告中の情報(検索キーワード)に基づくウエブアクセスを容易にする技術を提供できる。 According to the present invention, to extract a search keyword from an image simulating a search box of the search engine, by searching in the search keyword, provides a technique for facilitating web access based on information in the ad (search keyword) it can.

〈装置構成〉 <Device configuration>
以下、図面を参照して本発明を実施するための最良の形態について説明する。 The following describes the best mode for carrying out the present invention with reference to the drawings. 以下の実施の形態の構成は例示であり、本発明は実施の形態の構成に限定されない。 The following embodiment is configured of an exemplification, and the invention is not limited to the configuration of the embodiment.
図1は、本実施形態に係る検索システムの概略図である。 Figure 1 is a schematic diagram of a search system according to the present embodiment.
本例の検索システム10は、テレビ放送を行う放送局の局側装置101や、局側装置101から放送された動画像を受信するユーザ端末1、インターネット等のネットワークを介して情報を提供するウエブサーバ2、ウエブサーバ2で提供されている情報の検索サービスを提供する検索サーバ(サーチエンジン)3、ランキングサーバ4等を有している。 Retrieval system 10 of the present example provides and central terminal 101 of a broadcasting station for television broadcast, the user terminal 1 for receiving a broadcasted video image from the line terminal 101, the information via a network such as the Internet web server 2, the search server (search engine) 3 that provides a search service information provided by the web server 2, and a ranking server 4, and the like.

ユーザ端末1は、本システム10の検索装置或は検索キーワード抽出装置に相当する。 The user terminal 1 corresponds to a search device or a search keyword extraction device of the present system 10.
ユーザ端末1は、CPU(central processing unit)やメインメモリ等よりなる演算処理部12、演算処理の為のデータやソフトウェアを記憶した記憶部(ハードディスク)13、入出力ポート14、通信制御部(CCU:Communication Control Unit)15等を備えた汎用のコンピュータである。 The user terminal 1, CPU (central Processing Unit) and an arithmetic processing unit 12 of a main memory, etc., operation storage unit that stores data and software for processing (hard disk) 13, input port 14, a communication control unit (CCU : is a general-purpose computer with a Communication Control Unit) 15 or the like.

該入出力ポート14には、キーボードやマウス、CD−ROMドライブ、TV(Television)受信部16等の入力デバイス、そして表示装置やプリンター等の出力デバイスが適宜接続される。 The said input output port 14, a keyboard and a mouse, CD-ROM drives, TV (Television) input device such as a receiver 16 and a display device and an output device such as a printer, are properly connected.

TV受信部(チューナ)16は、TVアンテナを介して放送局からの電波を受信し、電気信号(画像情報)に変換して入出力ポート14に入力する。 TV receiving unit (tuner) 16 receives radio waves from a broadcasting station via a TV antenna, into an electric signal (image information) input to the input port 14.
CCU15は、ネットワークを介して他のコンピュータとの通信を行うものである。 CCU15 is for performing communications with other computers via a network.

記憶部13には、オペレーティングシステム(OS)やアプリケーションソフト(キーワード抽出プログラム、検索プログラム)がインストールされている。 The storage unit 13, an operating system (OS) and application software (a keyword extraction program, a search program) is installed.

演算処理部12は、前記OSやアプリケーションプログラムを記憶部13から適宜読み出して実行し、入出力ポート14やCCU15から入力された情報、及び記憶部13から読み出した情報を演算処理することにより、画像取得部、解析部、抽出部、再生部、指示受信部としても機能する。 Arithmetic processing unit 12, the OS and an application program running properly reads from the storage unit 13, information inputted from the input-output port 14 and CCU 15, and the information read from the storage unit 13 by arithmetic processing, image acquisition unit, an analysis unit, extraction unit, playback unit, also functions as an instruction receiving unit.

この画像取得部としては、画像情報を取得する。 As the image acquisition unit acquires the image information. 例えば、前記TV受信部16で受信した画像情報を受信する、或いは、記憶部13に記憶(録画)された画像情報を読み出して取得する。 For example, receives the image information received by the TV receiving unit 16, or acquires the storage unit 13 stores (recording) has been read out image information.

再生部としては、画像取得部で取得した画像情報に基づいて動画像を再生する。 The reproducing unit reproduces the moving image based on the image information acquired by the image acquiring unit. 即ち、表示部に動画像を表示させ、該動画の音をスピーカから出力させる。 That is, to display a moving image on the display unit, to output the sound of the video from the speaker. また、再生部は、再生のため、ユーザの操作等に応じてTV受信部16に受信する或いは変換するチャネルを通知する。 The reproduction unit for reproduction, and notifies the channel to be or convert received TV receiving unit 16 according to the operation of the user.

指示受信部としては、ユーザの操作による検索指示(指示信号)を受信する。 The instruction receiving unit receives a search instruction (instruction signal) by the operation of the user.

解析部としては、動画像を構成する画像情報のうち、検索欄を模した所定パターンに該当する部分を擬似検索欄領域として特定する。 The analysis unit, of the image information constituting a moving image, to identify the portion corresponding to the predetermined pattern simulating the search box as the simulated search box area.

抽出部としては、前記擬似検索領域の文字認識を行い、検索キーワードを抽出する。 The extraction unit performs character recognition of the simulated search region, extracts a search keyword.

検索処理部としては、前記検索キーワードを用い、検索処理又は検索の前処理を行う。 The search processing unit, using the search keyword, performs preprocessing of the search process or search. 例えば、前記CCU15を介して検索サーバ3に検索キーワードを含む検索要求を送信し、該検索サーバから返信された検索結果を表示部に表示させる。 For example, the CCU15 transmits a search request containing the search keyword to the search server 3 via the causes the display unit to search results returned from the search server. また、検索処理部は、この表示したコンテンツの要約やハイパーリンク等の検索結果に基づいてウエブサーバにアクセスし、該コンテンツの表示を行う機能も有している。 The search processing unit accesses the Web server based on the search results, such as summaries and hyperlinks of the display content, also has a function for displaying the content. なお、検索処理部は、一般的なウエブブラウザを用いても良い。 In addition, the search processing unit may be using a common web browser.

一方、検索サーバ3は、ユーザ端末1の検索処理部(ウエブブラウザ)からの検索要求を受信する手段や、ウエブサーバ2の情報を記憶した記憶手段、受信した検索要求のキーワードに基づいて対応するウエブサーバ2の情報を記憶手段から索出する手段、検索結果を要求元のユーザ端末1に送信する手段等を有した一般的なコンピュータ、所謂検索エンジンである。 On the other hand, the search server 3 corresponding based and means for receiving a search request from the search processing unit of the user terminal 1 (web browser), storage means for storing the information of the web server 2, the keyword of the received search request It means for searches out the information of the web server 2 from the storage unit, a general computer having a means or the like for transmitting the search result requesting the user terminal 1 is a so-called search engine.

また、ウエブサーバ2は、インターネット等のネットワークを介してユーザ端末1や検索サーバ3等の他のコンピュータと接続している。 Also, the web server 2 is connected to the other computers such as the user terminal 1 and the search server 3 via a network such as the Internet. ウエブサーバ2は、他のコンピュータからのアクセス要求(URL等)で指定されたコンテンツ(ファイル)を要求元のコンピュータに提供(送信)する。 Web server 2 provides the designated content (file) to the requesting computer access request from another computer (URL, etc.) (transmits). なお、該ウエブサーバ2は、周知の構成であるので、詳しい説明は省略する。 Incidentally, the web server 2, since it is well-known configuration, detailed explanation will be omitted.

同様に、ランキングサーバ(キーワード提供サーバ)4は、インターネット等のネットワークを介してユーザ端末1や検索サーバ等の他のコンピュータと接続している。 Similarly, the ranking server (keyword providing server) 4 is connected to the other computers such as the user terminal 1 and the search server via a network such as the Internet. ランキングサーバ4は、検索サイトで検索に利用されたキーワードを検索回数の多い順にソートしたランキング情報を記憶部に記憶しており、他のコンピュータからの要求に応じて該キーワード(ランキング情報)を提供する。 Ranking server 4, provides the keywords (the ranking information) in response to a request from the search site stores the ranking information in the storage unit of sorting use keywords to search count of descending order in the search, the other computers to. なお、ランキングサーバ4は、検索サーバ3と兼用しても良い。 It should be noted that the ranking server 4 may also be combined with a search server 3. また、CMで利用されているキーワードをオペレータが記憶部に記憶させておいても良い。 In addition, the keywords that are used in the CM operator may be stored in the storage unit. 該ランキングサーバ4は、一般的なウエブサーバと同一の構成であるので、詳しい説明は省略する。 The ranking server 4 because it is a common web server and the same structure, detailed description thereof will be omitted.

〈検索方法〉 <retrieval method>

次に、これら構成のユーザ端末1が検索プログラムに基づいて実行する検索方法(検索キーワードの抽出方法も含む)について、図2を用いて説明する。 Next, how to find the user terminal 1 of these configurations is executed based on a search program (including a method extracting a search keyword) is described with reference to FIG.

図2に示すように、ユーザ端末1は、ユーザの操作によりTVの視聴(再生)が指示されると、再生部が記憶部13から或はTV受信部から受信した画像情報に基づいて動画像を再生する。 As shown in FIG. 2, the user terminal 1, when the TV viewing by a user's operation (playback) is instructed, a moving image based on the image information playback unit received from the storage part 13 or the TV receiver Play.

このときユーザ端末1の画像取得部は、動画像を構成する一連のフレームのうち、後述の所定条件を満たしたフレームを解析対象のフレーム(画像情報)として特定(取得)する(ステップ1、以下S1のように略記する)。 Image acquiring unit of the user terminal 1 at this time, a series of frames constituting a moving image, particular (acquired) to the frame analysis target frame satisfying a predetermined condition described later (image information) (Step 1, below abbreviated as S1).

次に、解析部は、上記特定したフレームを解析して、検索エンジンの検索欄を模した所定パターンに該当する擬似検索欄領域を特定する(S2)。 Next, the analysis unit analyzes the specified frame and specifies the simulated search box area the search box of the search engine corresponding to a predetermined pattern simulating (S2).
また、抽出部は、擬似検索欄領域について文字認識を行い、キーワードを抽出する(S3)。 The extraction unit performs character recognition on simulated search box area and extracts the keyword (S3).

そして、検索部は、ウエブブラウザを起動し、前記抽出部が抽出したキーワードを検索サーバに送信して検索し、検索結果を表示する(S4)。 Then, the search unit starts up the Web browser, search by sending the keyword extracted by the extracting unit to the search server, and displays the search result (S4).
各ステップの具体的な処理については、以下の具体例を用いて説明する。 The specific processing of each step will be described with reference to the following specific examples.

〈具体例1〉 <Example 1>
図3は、動画像からCMの所定部分(末尾)を自動的に特定して検索する方法の説明図である。 Figure 3 is an illustration of how to search automatically specifying a predetermined portion of the CM (tail) from the moving image.
先ず、画像取得部は、動画像中の番組本編以外のCM部分を検出する(S11)。 First, the image acquiring unit detects the program CM portion other than the main part in the moving image (S11).
このCM検出手法としては、以下のような条件を満たした場合にCMと特定する。 As the CM detection method, identifying a CM if it meets the following conditions.
1. 1. 前後のフレームを比較し、フレーム全域が異なっている(一致度合いが所定値未満)、即ちカットが切換わった場合で、所定以上の無音時間がある。 Comparing the preceding and following frames, (less than matching degree is a predetermined value) which frame the whole is different, that is, if the cut is switched, there is a predetermined or silence period.
2. 2. 番組本編がモノラルで放送され、CM時にステレオ放送に切換わるので、モノラルがステレオに切換わってからモノラルに戻るまでの期間。 The main program is broadcast in mono, since switched to the CM at the time of stereo broadcasting, the period since switched monaural to stereo to return to mono.
3. 3. 所定時間(例えば15秒の倍数)でカットが切換わる場合 4. 4 If the cut is switched at a predetermined time (e.g., a multiple of 15 seconds). 所定時刻(例えば正時から5分前等) Predetermined time (e.g. 5 minutes from hour ago, etc.)
5. 5. EPGで取得した番組情報に基づき、番組の切換わり時刻の前後5分、及び該番組の切換わり時刻から番組を等分(2分割や4分割)した時刻 Based on the acquired program information EPG, 5 minutes before or after the switched time of the program, and equally a program from 該番 sets of switched time (two-division or 4 division) and the time

なお、CMの検出手法としては、この他公知の手法を用いても良いし、これらを組み合わせて用いても良い。 As the method of detecting the CM, it may be used the other known techniques may be used in combination.

次に画像取得部は、CMの長さの基準となる時間Lを設定する。 Next, the image acquiring unit sets a time L serving as a reference for the length of the CM. 本例では、L=15(秒)とした(S12)。 In this example, set to L = 15 (seconds) (S12).

なお、キーワード等を告知するタイミングは、CMの末尾部分である可能性が高いので、上記条件に基づいて検出したCMの先頭から所定時間(L/2、L/3、L−5(秒))後からLまでのフレームを取得する。 Note that the timing for notifying the keyword or the like, there is a high possibility that the end portion of the CM, the predetermined time period from the beginning of the CM detected based on the condition (L / 2, L / 3, L-5 (sec) to get the frame of up to L from after). 本例では、L−5からLまでとしている(S13)。 In the present example, from L-5 to L (S13).

そして、解析部が、前記画像取得部で取得したフレーム(画像情報)を解析して、検索欄を模した所定パターンに該当する部分を擬似検索欄領域として特定し、抽出部が該擬似検索欄領域から文字を抽出する(S14)。 The analyzing unit analyzes the frame (image information) acquired by the image acquisition unit, searching the area corresponding to the predetermined pattern simulating the column was identified as the simulated search box area, search field extraction unit similar 該擬extracting a character from the area (S14).

このとき解析部は、図9のように画像中の検索欄を模した領域を特定するため、該画像を水平方向(主走査方向)及び垂直方向(副走査方向)に走査し、画素が水平或は垂直に所定距離以上連続して直線となっている箇所を抽出する。 Analyzer this time, to identify the region simulating the search box in the image as shown in FIG. 9, by scanning the image in a horizontal direction (main scanning direction) and vertical direction (sub scanning direction), pixels horizontally or vertically continuously more than a predetermined distance extracts a portion that is a straight line. そして、該直線が矩形状となっている領域を擬似検索欄領域としている。 Then, and the area where the straight line is a rectangular shape and the simulated search box area.

特に本実施形態では、一の矩形61に対し、幅(水平方向)の短い矩形62が隣接し、短い矩形中に「検索」の文字がある、即ち検索ボタンに相当する画像があるといった所定パターンと一致する場合、矩形61の部分を擬似検索欄領域と特定する。 In this embodiment in particular, a predetermined pattern such as to one rectangle 61, adjacent short rectangular 62 width (horizontal direction), a short in the rectangle is a character of "search", that is, an image corresponding to the search button if it matches the, to identify the portion of the rectangle 61 and simulated search box area.

このときキーワードを抽出できた場合には、該キーワードを検索部へ通知し、抽出できなかった場合には、この抽出不可の旨を画像取得部に通知する(S15)。 At this time, if able to extract the keyword, it notifies the keyword to the search unit, if not extracted notifies the purport of the extracted possible on the image acquisition unit (S15).

該抽出不可の通知を受けた画像取得部は、この抽出の対象となったフレームがCMの先頭からL秒後に達したか、否かを判断し(S16)、L秒後のフレームでなければ次のフレームを取得する(S17)。 The image acquiring unit receiving this extraction-disabled notification, or frame as a target of the extraction is reached from the beginning of the CM after L seconds, it is determined whether (S16), if not the frame reaching after L-sec to get the next frame (S17).

また、ステップ16でL秒後のフレームであれば、Lが60秒未満であるか否かを判定し(S18)、60秒未満でなければ終了し、60秒以上であればLに15秒加え(S19)、CMの最大値(例えば60秒)を超えていなければステップ13に戻ってフレームの取得を行う(S20)。 Further, if the frame after L seconds at step 16, L is equal to or less than 60 seconds (S18), and terminates if not less than 60 seconds, 15 seconds L equal to or more than 60 seconds in addition (S19), the maximum value of the CM (for example, 60 seconds) to acquire the frame returns to the step 13 does not exceed the (S20).

なお、ステップ13にてフレームを取得する際、L−5からL秒までの全てのフレームを取得しても良いが、MPEG方式の動画像の場合、Iピクチャのみを取得しても良い。 Note that when acquiring the frame step 13, may acquire all the frames from L-5 to L seconds, when a moving image of the MPEG system, may be obtained only I-pictures. このようにIピクチャのみを取得する構成とすれば、処理量を低減できる。 Thus configured to acquire only I-picture, you can reduce the amount of processing.

〈具体例2〉 <Example 2>
図4は、ユーザの操作に応じてフレームを特定してキーワードを抽出する方法の説明図、図5は、本例の解析順序の説明図である。 Figure 4 is an explanatory diagram of a method of extracting the keyword by specifying the frame in accordance with a user operation, FIG. 5 is an explanatory view of an analysis order of this example.

先ず、入出力ポート14を介して接続したキーボードやリモコンを用いユーザの入力操作によってキーワード取得の指示が入力されると(S21)、画像取得部は、入力を受けた時点で再生されているフレームを取得する(S22)。 First, an instruction for the keyword obtained by the input operation of the user using a keyboard or a remote controller which is connected through the output port 14 is inputted (S21), the image acquiring unit is reproduced at the time of receiving the input frame to get (S22).

そして、解析部が、前記画像取得部で取得したフレーム(画像情報)を解析して、検索欄を模した所定パターンに該当する部分を擬似検索欄領域として特定し、抽出部が該擬似検索欄領域から文字を抽出する(S23)。 The analyzing unit analyzes the frame (image information) acquired by the image acquisition unit, searching the area corresponding to the predetermined pattern simulating the column was identified as the simulated search box area, search field extraction unit similar 該擬extracting a character from the area (S23).

このときキーワードを抽出できた場合には、該キーワードを検索部へ通知し、抽出できなかった場合には、この抽出不可の旨を画像取得部に通知する(S24)。 At this time, if able to extract the keyword, it notifies the keyword to the search unit, if not extracted notifies the purport of the extracted possible on the image acquisition unit (S24).

該抽出不可の通知を受けた画像取得部は、この抽出の対象となったフレームが入力を受けた以前のフレームか否かを判定し(S25)、以前のフレームであれば更に、入力を受けた時点からN秒以前のフレームであるか否かを判定する(S26)。 The image acquiring unit receiving this extraction-disabled notification, the frame as a target of the extraction, it is determined whether the previous frame when receiving the input (S25), further if the previous frame, receiving an input point determines whether the N second previous frame from the (S26).

ステップ26でN秒以前のフレームでなければ、1つ前のフレームを取得し(S27)、N秒以前のフレームであれば、入力を受けた時点の次のフレームを取得する(S28)。 If N seconds the previous frame in step 26, retrieves the previous frame (S27), if N seconds previous frame, and acquires the next frame at the time when receiving the input (S28).

一方、ステップ25で入力を受けた後のフレームと判断した場合、入力を受けた時点からM秒以後のフレームか否かを判定し、M秒以後のフレームでなければ、画像取得部に通知し(S29)、画像取得部が1つ次のフレームを取得する(S30)。 On the other hand, if it is determined that the frame after receiving the input in step 25, it is determined whether M seconds after the frame from the time when receiving the input, if a frame M seconds after, and notifies the image acquisition unit (S29), the image acquiring unit acquires one next frame (S30). なお、ステップ29で、M秒後のフレームと判定した場合、抽出処理を終了する。 In step 29, if it is determined that the frame after M seconds, and terminates the extraction process.

このように、ユーザの入力に応じてフレームを特定する場合、ユーザが動画像中のキーワードを見つけてから入力操作する可能性が高いので、入力を受けた時点から順次遡ってフレームを特定し、キーワードが抽出されなければ入力を受けた時点以後のフレームを解析対象として特定することで、速やかに解析処理行うことができる。 Thus, when identifying the frame in response to user input, there is a high possibility for the user to input operation from finding a keyword in a moving image, to identify the sequence back to the frame from the time when receiving the input, keywords that it is to identify a point in time after the frame which receives the input to be extracted as an analysis target can be done quickly analyzing process.

〈具体例3〉 <Example 3>
図6は、ライブ放送中にキーワードを抽出し、抽出したキーワードをバッファリングする例の説明図である。 6 extracts a keyword during a live broadcast, the extracted keyword is an explanatory diagram of an example of buffering.

まず、画像取得部は、再生している動画像がライブ放送(TV受信部で受信した情報)か否かを判定し(S31)、ライブ放送であれば現時点のフレームを取得する(S32)。 First, the image acquisition unit, a moving image being played is determined whether live broadcast (the information received by the TV receiving unit) (S31), obtains the current frame if the live broadcast (S32).

解析部は、取得したフレームから擬似検索欄領域を特定する(S33)。 Analyzing unit specifies the simulated search box area from the acquired frame (S33). ここで擬似検索欄領域を特定できた場合には、該擬似検索欄領域について抽出部が文字認識を行い(S34−S35)、キーワードを抽出し、擬似検索欄領域を特定できない場合にはステップS31に戻る。 Here, If you can identify a simulated search box area, followed by extraction portion character recognition for the simulated search box area (S34-S35), extracts the keywords, step S31 if not determine the simulated search box area Back to.

ステップ35でキーワードを抽出できた場合、バッファが満杯か否かを判定し(S36−S37)、満杯であればバッファ中最も古いデータを削除して(S38)バッファに抽出したキーワードを追加する(S39)。 If able to extract the keyword in step 35, it is determined whether the buffer is full (S36-S37), if the full by deleting the oldest data in the buffer (S38) to add the keyword extracted in buffer ( S39).

バッファリングしたキーワードは、例えば、ユーザの指示があった場合に、抽出部が直近のキーワードをバッファから読み出して検索部に通知し、検索を行う。 Keywords buffered, for example, when instructed by the user, extracting unit notifies the search unit reads out the latest keyword from the buffer, performs a search.

なお、本例ではステップ35で抽出したキーワードをバッファに記憶したが、ステップ33で特定した擬似検索欄領域をバッファに記憶し、ステップ34,35を省略しても良い。 In the present embodiment has been stored keyword extracted in step 35 in the buffer, the simulated search box area specified in step 33 is stored in the buffer may be omitted steps 34 and 35.

また、ステップ32でライブ放送中のフレームを順次取得する場合に、動画像を構成する全てのフレームを取得しても良いが、MPEG方式の動画像であればIピクチャのみを記憶しても良い。 Further, in the case of sequentially acquiring the frames during the live broadcast in step 32, may acquire all the frames constituting the moving image, but may store only I pictures when a moving image of the MPEG format . これにより記憶容量及び解析の処理量を抑えることができる。 Thus it is possible to suppress the amount of processing memory capacity and analysis.

〈具体例4〉 <Example 4>
図7は、特定後のフレームを解析し、キーワードを抽出して検索する方法の説明図である。 7 analyzes the specific subsequent frame is an explanatory diagram of a method for searching a keyword is extracted.
先ず解析部が解析対象のフレームを解析し、擬似検索欄領域を特定できた場合(S41)、抽出部が該領域の文字認識を行う(S42)。 First analyzer analyzes the frame to be analyzed, when able to identify the simulated search box area (S41), extraction unit performs character recognition of the area (S42).

該擬似検索欄領域からキーワードが抽出できた場合(S43)、該キーワードとランキングサーバ4のデータベース(記憶部)に記憶されているキーワードとを比較し、類似のキーワードがあるか否かを判定する(S44)。 If pseudo keyword from search box area can be extracted (S43), and compares the keywords stored in the database of the keywords and the ranking server 4 (storage unit) determines whether there is a similar keyword (S44).

類似のキーワードがあった場合、検索部は、このキーワードをウエブブラウザの検索キーワードに設定して検索サイトにアクセスし、検索を行う(S45,S47)。 If there is a similar keyword, the search unit is configured to access this keyword to set the search site to search keyword of the web browser, do a search (S45, S47). またステップ44で類似したキーワードがない場合、抽出されたキーワードを検索キーワードに設定して検索を行う(S46,S47)。 Also if there is no similar keywords in step 44, sets the extracted keyword to the search keyword performs search (S46, S47).

検索サイトが該キーワードによる検索を行い、検索結果を返信すると(S48)、ユーザ端末1の検索部がこの検索結果の最上位のコンテンツを表示部に表示させる(S49)。 Search performs a search by the keyword search results Replying (S48), the search unit of the user terminal 1 causes the display unit to display content of the top of the search results (S49).

図8は、検索結果の表示例を示す図である。 Figure 8 is a diagram showing a display example of the search result.
該検索結果を示すウインドウのアドレス欄51には検索されたコンテンツのURL、コンテンツ欄52にはウエブサーバから受信したコンテンツを表示している。 URL of the searched content to the address field 51 of window indicating the search results, and displaying the content received from the web server in the content field 52.

また、本例では、このコンテンツと別フレームで、検索結果一覧54及び検索キーワード53も表示している。 Further, in this embodiment, in a separate frame and this content, search result list 54 and a search keyword 53 are also displayed. 該検索結果一覧から他のリンクを選べば上記以外のコンテンツも閲覧することができる。 If you choose the other link from the search results list also content other than the above can be viewed.

なお、検索結果の表示方法は、上記に限らず、最上位のコンテンツのみ、或は検索結果一覧のみであっても良い。 It should be noted that the method of displaying search results is not limited to the above, only the contents of the top-level, or may be only the search results list.
また、キーワードによる検索まで行わずに、検索前処理として、ウエブブラウザを起動し、検索サーバ2の検索用ページの検索欄に抽出したキーワードを挿入した状態で処理を止め、ユーザの操作を待つようにしても良い。 In addition, without performing up to search by keyword, search as a pre-treatment, to launch the web browser, stop the process in a state in which to insert the keywords extracted in the search field of the search page of the search server 2, to wait for the operation of the user it may be.

〈その他〉 <Others>
本発明は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。 The present invention is not intended to be limited to only the illustrated examples given above, can of course be modified in various ways without departing from the gist of the present invention.

例えば、上述の例では、画像情報としてTV受信部で受信した動画像或は記憶部から読み出した動画像を用いたが、これに限らず、新聞や、雑誌、チラシ等をデジタルカメラで撮影或はスキャナでスキャンして取得した画像情報であっても良い。 For example, in the above example, using a moving image read out from the moving image or the storage unit has been received by the TV receiving unit as the image information is not limited to this, photographing newspapers or magazines, leaflets and the like with a digital camera certain it may be image information obtained by scanning by the scanner.

また、以下に付記した構成であっても上述の実施形態と同様の効果が得られる。 Further, the same effect as the above embodiment can be obtained even the configurations given in the following Notes. また、これらの構成要素は可能な限り組み合わせることができる。 Also, these components can be combined as much as possible.

(付記1) (Note 1)
画像情報を取得するステップと、 Acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
をコンピュータが実行するキーワード抽出方法。 Keyword extraction method the computer executes the.

(付記2) (Note 2)
動画像を構成する一連のフレームのうち、所定間隔のフレームを前記画像情報として検出する付記1に記載のキーワード抽出方法。 A series of frames constituting a moving image, a keyword extraction method of statement 1 for detecting a frame of the predetermined distance as the image information.

(付記3) (Note 3)
動画像中のフレームを比較し、CMの条件を満たしたフレームを前記画像情報として検出する付記1に記載のキーワード抽出方法。 Keyword extraction method of statement 1, comparing the frames in the moving image, detects a frame that satisfies the condition of CM as the image information.

(付記4) (Note 4)
前記CMの条件を満たした複数のフレームであって時系列的に連続した一群であるフレーム群のうち、所定期間内のフレームを前記解析対象とする付記3に記載のキーワード抽出方法。 Wherein among the frame group is chronologically consecutive group a plurality of frames satisfying the condition of CM, the keyword extraction method according to note 3, wherein the analysis target frame within a predetermined time period.

(付記5) (Note 5)
前記所定期間が、前記フレーム群のうち、後半部分、最初から所定時間後の部分、又は最後から所定時間前の部分である付記4に記載のキーワード抽出方法。 The predetermined period is, the one frame group, the latter part, part after the first predetermined time, or keyword extraction method of statement 4 from the end is a portion of the predetermined time before.

(付記6) (Note 6)
前記画像情報に基づいて動画像を再生するステップと、 A step of reproducing a moving image based on the image information,
ユーザの操作による指示信号を受信するステップと、を更に実行し、 Receiving an instruction signal according to a user operation, a further execution,
前記指示信号を受信したときに再生中のフレーム又は該再生中のフレームから所定時間離れたフレームを前記解析の対象とする付記2から5の何れか1項に記載のキーワード抽出方法。 Keyword extraction method according Appendix 2 in any one of 5 to be subjected to the analysis for a predetermined time away from frame to frame or frames in said reproduced in the play when receiving the instruction signal.

(付記7) (Note 7)
前記指示信号を受信したときに再生中のフレームから所定時間後のフレームを前記解析の対象とし、前記所定パターンに該当する領域が存在しなかった場合に、前記指示信号を受信したときに再生中のフレームより所定時間前のフレームを前記解析の対象とする付記6に記載のキーワード抽出方法。 When the predetermined time after the frame from the frame under the play when an instruction signal is received the subject of the analysis, the area corresponding to the predetermined pattern is not present, under the play when receiving the instruction signal keyword extraction method according to note 6 a predetermined from the frame time previous frame of interest of the analysis.

(付記8) (Note 8)
前記画像情報を記憶部に記憶させ、前記指示信号を受信したときに再生中のフレームより所定時間前のフレームを前記記憶部から読み出して解析の対象とする付記6に記載のキーワード抽出方法。 The image information stored in the storage unit a keyword extraction method according to predetermined time previous frame from the frame under the play when receiving the instruction signal in appendage 6 to be analyzed by reading from the storage unit.

(付記9) (Note 9)
画像情報を取得するステップと、 Acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
前記検索キーワードを用い、検索処理又は検索の前処理を行うステップと、 Using the search keyword, and performing a search process or Find pretreatment,
をコンピュータが実行する検索方法。 Search how to run the computer.

(付記10) (Note 10)
前記検索の前処理が、ブラウザを起動し、前記検索キーワードを検索サイトの検索パラメータとして入力した状態とする処理である付記9に記載の検索方法。 Pretreatment of the search, start a browser, search method of statement 9 is a process for the state of inputting the search keyword as a search parameter of a search site.

(付記11) (Note 11)
前記検索処理が、ブラウザを起動し、前記検索キーワードを検索サイトで検索した結果を該ブラウザで表示させた状態とする処理である付記9に記載の検索方法。 The search process starts up the browser, search method according to a result of searching the search keyword in the search site to supplementary note 9 is a process of the state of displaying in the browser.

(付記12) (Note 12)
画像情報を取得する画像取得部と、 An image acquisition unit for acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定する解析部と、 An analysis unit analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出する抽出部と、 An extraction unit for extracting a search keyword from the simulated search box area,
を備えた抽出装置。 Extracting device provided with.

(付記13) (Supplementary Note 13)
前記画像取得部が、動画像を構成する一連のフレームのうち、所定間隔のフレームを前記画像情報として検出する付記12に記載のキーワード抽出装置。 Wherein the image acquiring unit, a series of frames constituting a moving image, the keyword extracting device according to note 12 for detecting a frame of a predetermined distance as the image information.

(付記14) (Note 14)
前記画像取得部が、動画像中のフレームを比較し、CMの条件を満たしたフレームを前記画像情報として検出する付記12に記載のキーワード抽出装置。 The image acquisition unit compares the frame in a moving image, the keyword extracting device according frames satisfying the condition of CM to appendix 12 is detected as the image information.

(付記15) (Note 15)
前記解析部が、前記CMの条件を満たした複数のフレームであって時系列的に連続した一群であるフレーム群のうち、所定期間内のフレームを前記解析の対象とする付記14に記載のキーワード抽出装置。 The analyzing section, of the frame group is chronologically consecutive group a plurality of frames satisfying the condition of the CM, the keyword according to a frame within a predetermined time period to appendix 14 to be subjected to the analysis extraction device.

(付記16) (Supplementary Note 16)
前記所定期間が、前記フレーム群のうち、後半部分、最初から所定時間後の部分、又は最後から所定時間前の部分である付記15に記載のキーワード抽出装置。 Wherein the predetermined period, among the frame group, second half, part after the first predetermined time, or the last from the keyword extracting device according to Note 15 is a portion before a predetermined time.

(付記17) (Note 17)
前記画像情報に基づいて動画像を再生する再生部と、 A reproducing unit for reproducing the moving image based on the image information,
ユーザの操作による指示信号を受信する指示受信部と、を更に実行し、 An instruction receiving unit that receives an instruction signal according to a user operation, a further execution,
前記指示信号を受信したときに再生中のフレーム又は該再生中のフレームから所定時間離れたフレームを前記解析の対象とする付記13から16の何れか1項に記載のキーワード抽出装置。 Keyword extracting device according to any one of Appendices 13 to 16 to be subjected to the analysis for a predetermined time away from frame to frame or frames in said reproduced in the play when receiving the instruction signal.

(付記18) (Note 18)
前記指示信号を受信したときに再生中のフレームから所定時間後のフレームを前記解析の対象とし、前記所定パターンに該当する領域が存在しなかった場合に、前記指示信号を受信したときに再生中のフレームより所定時間前のフレームを前記解析の対象とする付記17に記載のキーワード抽出装置。 When the predetermined time after the frame from the frame under the play when an instruction signal is received the subject of the analysis, the area corresponding to the predetermined pattern is not present, under the play when receiving the instruction signal keyword extracting device of a prior predetermined from the frame time of frame according to note 17 to be subjected to the analysis.

(付記19) (Note 19)
画像情報を取得する画像取得部と、 An image acquisition unit for acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定する解析部と、 An analysis unit analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出する抽出部と、 An extraction unit for extracting a search keyword from the simulated search box area,
前記検索キーワードを用い、検索処理又は検索の前処理を行う検索処理部と、 Using the search keyword, a retrieval processing section for searching processing or retrieval pretreatment,
を備えた検索装置。 Search device equipped with.

(付記20) (Note 20)
前記検索の前処理が、ブラウザを起動し、前記検索キーワードを検索サイトの検索パラメータとして入力した状態とする処理である付記19に記載の検索装置。 It said processing previous search, start browser, search apparatus according to note 19, which is a process for the state of inputting the search keyword as a search parameter of a search site.

(付記21) (Supplementary Note 21)
前記検索処理が、ブラウザを起動し、前記検索キーワードを検索サイトで検索した結果を該ブラウザで表示させた状態とする処理である付記19に記載の検索装置。 The search process, the search device according to Note 19 is a process for the state to start the browser, the results of a search for the search keyword in the search site was displayed in the browser.

(付記22) (Note 22)
画像情報を取得するステップと、 Acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
をコンピュータに実行させるキーワード抽出プログラム。 Keyword extraction program causing a computer to execute the.

(付記23) (Note 23)
動画像を構成する一連のフレームのうち、所定間隔のフレームを前記画像情報として検出する付記22に記載のキーワード抽出プログラム。 A series of frames constituting a moving image, a keyword extraction program according to Note 22 for detecting the frame of a predetermined distance as the image information.

(付記24) (Note 24)
動画像中のフレームを比較し、CMの条件を満たしたフレームを前記画像情報として検出する付記22に記載のキーワード抽出プログラム。 Comparing the frames in a moving image, a keyword extraction program according to Note 22 for detecting the frame that satisfies the condition of CM as the image information.

(付記25) (Note 25)
前記CMの条件を満たした複数のフレームであって時系列的に連続した一群であるフレーム群のうち、所定期間内のフレームを前記解析対象とする付記24に記載のキーワード抽出プログラム。 Of the frame group is a group that is continuous time series a plurality of frames satisfying the condition of the CM, the keyword extraction program according to the frame within a predetermined time period in appendage 24, the analyzed.

(付記26) (Note 26)
前記所定期間が、前記フレーム群のうち、後半部分、最初から所定時間後の部分、又は最後から所定時間前の部分である付記25に記載のキーワード抽出プログラム。 The predetermined period is, the one frame group, the latter part, part after the first predetermined time, or the last from the keyword extraction program according to Note 25 is a portion before a predetermined time.

(付記27) (Note 27)
前記画像情報に基づいて動画像を再生するステップと、 A step of reproducing a moving image based on the image information,
ユーザの操作による指示信号を受信するステップと、を更に実行し、 Receiving an instruction signal according to a user operation, a further execution,
前記指示信号を受信したときに再生中のフレーム又は該再生中のフレームから所定時間離れたフレームを前記解析の対象とする付記23から26の何れか1項に記載のキーワード抽出プログラム。 Keyword extraction program according to any one of Appendixes 23 26 to be subjected to the analysis for a predetermined time away from frame to frame or frames in said reproduced in the play when receiving the instruction signal.

(付記28) (Note 28)
前記指示信号を受信したときに再生中のフレームから所定時間後のフレームを前記解析の対象とし、前記所定パターンに該当する領域が存在しなかった場合に、前記指示信号を受信したときに再生中のフレームより所定時間前のフレームを前記解析の対象とする付記27に記載のキーワード抽出プログラム。 When the predetermined time after the frame from the frame under the play when an instruction signal is received the subject of the analysis, the area corresponding to the predetermined pattern is not present, under the play when receiving the instruction signal keyword extraction program according to note 27 a predetermined from the frame time previous frame of interest of the analysis.

(付記29) (Note 29)
前記画像情報を記憶部に記憶させ、前記指示信号を受信したときに再生中のフレームより所定時間前のフレームを前記記憶部から読み出して解析の対象とする付記27に記載のキーワード抽出プログラム。 The image information stored in the storage unit, a keyword extraction program according to Note 27 for a predetermined time previous frame from the frame being reproduced to be analyzed by reading from the storage unit when receiving the instruction signal.

(付記30) (Note 30)
画像情報を取得するステップと、 Acquiring image information,
前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
前記検索キーワードを用い、検索処理又は検索の前処理を行うステップと、 Using the search keyword, and performing a search process or Find pretreatment,
をコンピュータに実行させる検索プログラム。 Search program causing a computer to execute the.

(付記31) (Note 31)
前記検索の前処理が、ブラウザを起動し、前記検索キーワードを検索サイトの検索パラメータとして入力した状態とする処理である付記30に記載の検索プログラム。 It said processing previous search, start a browser, search program according to Note 30 is a process to a state of inputting the search keyword as a search parameter of a search site.

(付記32) (Supplementary Note 32)
前記検索処理が、ブラウザを起動し、前記検索キーワードを検索サイトで検索した結果を該ブラウザで表示させた状態とする処理である付記30に記載の検索プログラム。 The search process starts up the browser, search program according to a result of searching the search keyword in the search site to Note 30 is a process for the state of being displayed in the browser.

検索システムの概略図 Schematic diagram of a search system 検索方法(検索キーワードの抽出方法も含む)の説明図 Find illustration of a method (including a method extracting a search keyword) CMの所定部分(末尾)を自動的に特定して検索する方法の説明図 Illustration of a method for searching a predetermined portion of the CM (the tail) automatically identify and ユーザの操作に応じてフレームを特定してキーワードを抽出する方法の説明図 Illustration of a method of extracting the keyword by specifying the frame in accordance with a user operation 解析順序の説明図 Illustration of the analysis sequence ライブ放送中に抽出したキーワードをバッファリングする例の説明図 Explanatory diagram of an example for buffering the extracted keyword during the live broadcast 特定後のフレームを解析し、キーワードを抽出して検索する方法の説明図 Analyzing the frame after a specific, illustration of how to search by extracting keywords 検索結果の表示例を示す図 It shows a display example of the search result 検索欄を模した領域を有する画像の説明図 Illustration of an image having an area simulating the search box

符号の説明 DESCRIPTION OF SYMBOLS

10 検索システム1 ユーザ端末2 ウエブサーバ3 検索サーバ(サーチエンジン) 10 search system 1 user terminal 2 web server 3 search server (search engine)
4 ランキングサーバ101 局側装置 4 ranking server 101 station side device

Claims (10)

  1. 画像情報を取得するステップと、 Acquiring image information,
    前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
    前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
    をコンピュータが実行するキーワード抽出方法。 Keyword extraction method the computer executes the.
  2. 前記画像情報を取得するステップにおいて、動画像を構成する一連のフレームのうち、所定間隔のフレームを前記画像情報として検出する請求項1に記載のキーワード抽出方法。 In the step of acquiring the image information, a series of frames constituting a moving image, a keyword extraction method according to claim 1 for detecting a frame of the predetermined distance as the image information.
  3. 前記画像情報を取得するステップにおいて、動画像中のフレームを比較し、CMの条件を満たしたフレームを前記画像情報として検出する請求項1に記載のキーワード抽出方法。 In the step of acquiring the image information, compares the frame in a moving image, a keyword extraction method according to claim 1 for detecting a frame that satisfies the condition of CM as the image information.
  4. 前記画像情報の解析において、前記CMの条件を満たした複数のフレームであって時系列的に連続した一群であるフレーム群のうち、所定期間内のフレームを前記解析対象とする請求項3に記載のキーワード抽出方法。 In the analysis of the image information, of the frame group is chronologically consecutive group a plurality of frames satisfying the condition of the CM, wherein the frame within a predetermined time period to claim 3, wherein the analysis target keyword extraction method.
  5. 前記画像情報の解析において、前記所定期間が、前記フレーム群のうち、後半部分、最初から所定時間後の部分、又は最後から所定時間前の部分である請求項4に記載のキーワード抽出方法。 In the analysis of the image information, the predetermined period, among the frame group, the portion of the second half, after the first predetermined time, or keyword extraction method according to claim 4 from the end is a portion of the predetermined time before.
  6. 画像情報を取得するステップと、 Acquiring image information,
    前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
    前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
    前記検索キーワードを用い、検索処理又は検索の前処理を行うステップと、 Using the search keyword, and performing a search process or Find pretreatment,
    をコンピュータが実行する検索方法。 Search how to run the computer.
  7. 画像情報を取得する画像取得部と、 An image acquisition unit for acquiring image information,
    前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定する解析部と、 An analysis unit analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
    前記擬似検索領域から検索キーワードを抽出する抽出部と、 An extracting unit extracting a search keyword from the simulated search box area,
    を備えたキーワード抽出装置。 Keyword extraction device equipped with.
  8. 画像情報を取得する画像取得部と、 An image acquisition unit for acquiring image information,
    前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定する解析部と、 An analysis unit analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
    前記擬似検索領域から検索キーワードを抽出する抽出部と、 An extracting unit extracting a search keyword from the simulated search box area,
    前記検索キーワードを用い、検索処理又は検索の前処理を行う検索処理部と、 Using the search keyword, a retrieval processing section for searching processing or retrieval pretreatment,
    を備えた検索装置。 Search device equipped with.
  9. 画像情報を取得するステップと、 Acquiring image information,
    前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
    前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
    をコンピュータに実行させるキーワード抽出プログラム。 Keyword extraction program causing a computer to execute the.
  10. 画像情報を取得するステップと、 Acquiring image information,
    前記画像情報を解析し、検索欄を模した所定パターンに該当する擬似検索欄領域を特定するステップと、 A step of the analyzing the image information and specifying a simulated search box area corresponding to a predetermined pattern simulating a search box,
    前記擬似検索領域から検索キーワードを抽出するステップと、 Extracting a search keyword from the simulated search box area,
    前記検索キーワードを用い、検索処理又は検索の前処理を行うステップと、 Using the search keyword, and performing a search process or Find pretreatment,
    をコンピュータに実行させる検索プログラム。 Search program causing a computer to execute the.
JP2007209946A 2007-08-10 2007-08-10 Keyword extraction method Active JP5115089B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007209946A JP5115089B2 (en) 2007-08-10 2007-08-10 Keyword extraction method

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2007209946A JP5115089B2 (en) 2007-08-10 2007-08-10 Keyword extraction method
US12/175,721 US20090043769A1 (en) 2007-08-10 2008-07-18 Keyword extraction method
TW97127613A TWI457770B (en) 2007-08-10 2008-07-21 Keyword extraction method and device, search method and device, and storage medium readable by a computer
EP20080161386 EP2026220A1 (en) 2007-08-10 2008-07-29 Keyword extraction method
KR20080077436A KR100998532B1 (en) 2007-08-10 2008-08-07 Keyword extraction method
CN 200810144929 CN101364225B (en) 2007-08-10 2008-08-07 Keyword extraction method
KR20100055416A KR101058444B1 (en) 2007-08-10 2010-06-11 Keyword Extraction Method

Publications (2)

Publication Number Publication Date
JP2009044658A JP2009044658A (en) 2009-02-26
JP5115089B2 true JP5115089B2 (en) 2013-01-09

Family

ID=39816711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007209946A Active JP5115089B2 (en) 2007-08-10 2007-08-10 Keyword extraction method

Country Status (6)

Country Link
US (1) US20090043769A1 (en)
EP (1) EP2026220A1 (en)
JP (1) JP5115089B2 (en)
KR (2) KR100998532B1 (en)
CN (1) CN101364225B (en)
TW (1) TWI457770B (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011117995A1 (en) * 2010-03-25 2011-09-29 富士通株式会社 Information processing program, device, and method
JP5506507B2 (en) * 2010-03-31 2014-05-28 Necパーソナルコンピュータ株式会社 Cm detection system, server, cm detecting method, a program and a recording medium
KR20120021057A (en) * 2010-08-31 2012-03-08 삼성전자주식회사 Method for providing search service to extract keywords in specific region and display apparatus applying the same
JP2012160023A (en) * 2011-01-31 2012-08-23 Toshiba Corp Character extracting device, display method, and character extracting method
KR101359290B1 (en) * 2011-12-08 2014-02-11 애드티브이노베이션(주) Internet advertisement system and method for displaying search keyword
CN103198063A (en) * 2012-01-04 2013-07-10 联想(北京)有限公司 Electronic equipment and information processing method thereof
JP5906843B2 (en) 2012-03-14 2016-04-20 オムロン株式会社 Keyword detection apparatus, its control method and program, and a display device,
CN103577414B (en) * 2012-07-20 2017-04-12 富士通株式会社 Data processing method and apparatus
JP6155740B2 (en) * 2013-03-22 2017-07-05 富士通株式会社 Image processing apparatus, image processing program and an image processing method
CN104427350A (en) * 2013-08-29 2015-03-18 中兴通讯股份有限公司 Associated content processing method and system
TWI608415B (en) * 2016-11-29 2017-12-11 Trade Van Information Service Co Electronic data retrieval system and method

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4789235A (en) * 1986-04-04 1988-12-06 Applied Science Group, Inc. Method and system for generating a description of the distribution of looking time as people watch television commercials
US7859551B2 (en) * 1993-10-15 2010-12-28 Bulman Richard L Object customization and presentation system
US5819261A (en) * 1995-03-28 1998-10-06 Canon Kabushiki Kaisha Method and apparatus for extracting a keyword from scheduling data using the keyword for searching the schedule data file
US6075885A (en) * 1997-02-28 2000-06-13 Dainippon Screen Mfg. Co., Ltd. Method of and apparatus for extracting cross plane area of gamut and computer program product for carrying out the extraction
JPH10257401A (en) * 1997-03-14 1998-09-25 Access:Kk Internet television system and url information acquiring method
US8813137B2 (en) * 1998-05-08 2014-08-19 Qualcomm Incorporated Apparatus and method for decoding digital image and audio signals
US6731788B1 (en) 1999-01-28 2004-05-04 Koninklijke Philips Electronics N.V. Symbol Classification with shape features applied to neural network
US6608930B1 (en) * 1999-08-09 2003-08-19 Koninklijke Philips Electronics N.V. Method and system for analyzing video content using detected text in video frames
WO2001053966A1 (en) 2000-01-20 2001-07-26 Interactual Technologies, Inc. System, method, and article of manufacture for embedded keywords in video
JP2001229198A (en) * 2000-02-17 2001-08-24 Takayuki Hongo Web page retrieval system
US7680324B2 (en) * 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
JP2002290947A (en) 2001-03-22 2002-10-04 Purantekku:Kk Program/cm contents information providing system for digital broadcasting
JP4421134B2 (en) * 2001-04-18 2010-02-24 富士通株式会社 Document image search apparatus
EP1573594A2 (en) * 2002-12-11 2005-09-14 Philips Electronics N.V. Method and system for utilizing video content to obtain text keywords or phrases for providing content related links to network-based resources
US20040116183A1 (en) * 2002-12-16 2004-06-17 Prindle Joseph Charles Digital advertisement insertion system and method for video games
US20050086219A1 (en) * 2003-03-25 2005-04-21 Claria Corporation Generation of keywords for searching in a computer network
JP2005084866A (en) * 2003-09-08 2005-03-31 Kureo:Kk Information processor, server device and its program
US20060173825A1 (en) * 2004-07-16 2006-08-03 Blu Ventures, Llc And Iomedia Partners, Llc Systems and methods to provide internet search/play media services
JP2006154976A (en) * 2004-11-25 2006-06-15 Sharp Corp Animation frame analyzer
US7672508B2 (en) * 2006-04-11 2010-03-02 Sony Corporation Image classification based on a mixture of elliptical color models
GB0622863D0 (en) * 2006-11-16 2006-12-27 Ibm Automated generation of form definitions from hard-copy forms
US8204896B2 (en) * 2008-01-08 2012-06-19 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP2009169536A (en) * 2008-01-11 2009-07-30 Ricoh Co Ltd Information processor, image forming apparatus, document creating method, and document creating program
CN102105901B (en) * 2008-06-06 2013-03-06 谷歌公司 Annotating images

Also Published As

Publication number Publication date
KR101058444B1 (en) 2011-08-24
CN101364225B (en) 2011-11-16
JP2009044658A (en) 2009-02-26
KR20090016408A (en) 2009-02-13
US20090043769A1 (en) 2009-02-12
TWI457770B (en) 2014-10-21
KR20100084491A (en) 2010-07-26
CN101364225A (en) 2009-02-11
TW200910128A (en) 2009-03-01
EP2026220A1 (en) 2009-02-18
KR100998532B1 (en) 2010-12-07

Similar Documents

Publication Publication Date Title
US8595781B2 (en) Methods for identifying video segments and displaying contextual targeted content on a connected television
US8595475B2 (en) Method of disseminating advertisements using an embedded media player page
EP1350392B1 (en) Method of sizing an embedded media player page
JP5969560B2 (en) Extraction of the fingerprint of the media content
US8453189B2 (en) Method and system for retrieving information about television programs
US8424052B2 (en) Systems and methods for automated extraction of closed captions in real time or near real-time and tagging of streaming data for advertisements
CN103477641B (en) In the advanced digital television to create a video bookmark via interaction with scripts
KR100672296B1 (en) Method for calculating program rating using both direction TV
CN103430565B (en) One or more matrix codes synchronized to the multimedia presentation related content
US9997200B2 (en) Video bookmarking
US7089575B2 (en) Method of using transcript information to identify and learn commercial portions of a program
CN101595481B (en) Method and system for facilitating information searching on electronic devices
EP2045730A1 (en) Methods and apparatuses for an engine that pairs advertisements with video files
US7712123B2 (en) Method, system, and apparatus for acquiring information concerning broadcast information
KR101557494B1 (en) Annotating video intervals
US8332414B2 (en) Method and system for prefetching internet content for video recorders
JP5711355B2 (en) Media fingerprints for social network
US8682145B2 (en) Recording system based on multimedia content fingerprints
AU2007279341B2 (en) Associating advertisements with on-demand media content
JP4994584B2 (en) Inference of information about the media stream object
US8168876B2 (en) Method of displaying music information in multimedia playback and related electronic device
JP5537694B2 (en) Delay ad insertion into the video
AU2009257626B2 (en) Measuring exposure to media
JP5828501B2 (en) Presentation of mobile content based on the program context
US8503523B2 (en) Forming a representation of a video item and use thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121001

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3