JP2009159437A - Information processor, information processing method, and program - Google Patents
Information processor, information processing method, and program Download PDFInfo
- Publication number
- JP2009159437A JP2009159437A JP2007337046A JP2007337046A JP2009159437A JP 2009159437 A JP2009159437 A JP 2009159437A JP 2007337046 A JP2007337046 A JP 2007337046A JP 2007337046 A JP2007337046 A JP 2007337046A JP 2009159437 A JP2009159437 A JP 2009159437A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- unit
- character information
- search
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
近年のインターネットの普及に伴い、例えばテレビ(以下「TV」ともいう。)で放映されるTV番組やコマーシャル(以下「CM」ともいう。)などの映像データ中に、インターネットに公開されているホームページ(以下「HP」ともいう。)などのコンテンツを参照するための情報が表示されることが多くなっている。このネットワーク上のコンテンツを参照するための情報としては、例えばURI(Uniform Resource Identifier)や検索キーワードなどが挙げられる。そして、映像データには、例えば『続きはインターネットで。「○○CM」検索。』などの文字情報が画像として表示される。 Along with the spread of the Internet in recent years, for example, homepages published on the Internet in video data such as TV programs and commercials (hereinafter also referred to as “CM”) broadcast on television (hereinafter also referred to as “TV”). Information for referring to content such as “HP” (hereinafter also referred to as “HP”) is often displayed. Examples of information for referring to the content on the network include a URI (Uniform Resource Identifier) and a search keyword. For example, “Continued on the Internet. Search for “XXCM”. Is displayed as an image.
この放映される映像データを視聴したユーザは、コンテンツをネットワーク上から取得するために、そのコンテンツを参照するための情報を書き留めたり記憶しておき、インターネットに接続可能な機器(例えばコンピュータなど)を使用してHTML Browser等を起動して、書き留めたり記憶していた情報を入力して、HPを取得したりインターネット検索を行うなどといった作業が必要である。 In order to acquire the content from the network, the user who has watched the video data to be broadcast writes down or stores information for referring to the content, and installs a device (such as a computer) that can be connected to the Internet. It is necessary to start up an HTML browser, etc., and write down or input stored information to acquire an HP or search the Internet.
一方、デジタル放送の開発及び普及に伴い、デジタルテレビなどインターネットに接続可能なTV受信機も開発されている。 On the other hand, with the development and popularization of digital broadcasting, TV receivers that can be connected to the Internet, such as digital television, have been developed.
このTV受信機によれば、ネットワーク上のコンテンツを取得するために、例えば、デジタル放送におけるデータ放送部分に付加情報を添付して、その付加情報を元にコンテンツをインターネットから取得してユーザに提供したり、ユーザにコンテンツの取得方法を提供する方法が提案されている。この方法の一例としては、特許文献1,2が挙げられる。この特許文献1,2では、ネットワーク上のコンテンツのURIを特定するタグ情報や文字情報を、映像データを含む放送波に埋め込んだり多重化して放送し、TV受信機が、そのタグ情報を元にネットワーク上のコンテンツを取得する。
According to this TV receiver, in order to acquire content on a network, for example, additional information is attached to a data broadcast portion in digital broadcasting, and the content is acquired from the Internet based on the additional information and provided to the user. And a method for providing a user with a content acquisition method has been proposed. Examples of this method include
また、例えば、別途のCMコンテンツ管理サーバを使用する方法も提案されている。この方法の一例としては、特許文献3,4が挙げられる。この特許文献3,4では、新たにCMコンテンツ管理サーバが設けられる。そして、CMコンテンツ管理サーバは、TV放送内のCMコンテンツの映像データを蓄積し、このサーバの管理者が、新規のCMコンテンツに対して、その映像データに含まれるメッセージとCMの企業名・商品名・楽曲・出演俳優などの付加情報とを関連付けてCMコンテンツ管理サーバに記録させる。そして、ユーザは、新規のCMコンテンツを視聴した場合、クライアント(TV受信機)を使用してCMコンテンツ管理サーバにアクセスし、CMに含まれるメッセージを検索キーワードとして入力して検索させることにより付加情報を取得する。
For example, a method of using a separate CM content management server has been proposed. Examples of this method include
しかしながら、上記特許文献1,2に記載の方法では、データ放送部に付加情報を新たに付加する際に、TV受信機の提供者、放送事業者及びコンテンツ製作者が協力して新たなTV放送サービスを開始しなければならない。つまり、TV放送で送信される情報自体を大きく変更する必要がある。また、上記特許文献3,4に記載の方法では、CMコンテンツ管理サーバに蓄積されるデータベースは管理者によって作成される。そのため、CMコンテンツ管理サーバの管理を行う必要がある。更に、ユーザはTV受信機を使用して映像データに含まれるメッセージを取得するものの、そのメッセージを検索キーワードとして別途TV受信機に入力する必要がある。
However, in the methods described in
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、映像データに新たな情報を付加することなく、かつ、別途のサーバ等を新たに設けることなく、ネットワーク上のコンテンツを容易に取得することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提供することにある。 Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to add new information to video data and to provide a new server or the like. Another object of the present invention is to provide a new and improved information processing apparatus, information processing method, and program capable of easily acquiring content on a network.
上記課題を解決するために、本発明のある観点によれば、入力される映像データに基づく映像を表示画面に表示する表示手段と、映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得するフレーム取得部と、フレーム取得部により取得された各フレーム画像内で、所定数前のフレーム画像との差分がない画像領域を抽出する画像領域抽出部と、画像領域抽出部により抽出された画像領域に含まれる文字情報を抽出する文字情報抽出部と、文字情報抽出部により抽出された文字情報を検索キーワードとしてネットワーク上のコンテンツを検索する検索部と、を備え、表示手段は、検索部により検索されたコンテンツを表示画面に表示することを特徴とする、情報処理装置が提供される。 In order to solve the above-described problems, according to an aspect of the present invention, display means for displaying a video based on input video data on a display screen, and a frame image from the video data according to a user operation or automatically A frame acquisition unit for sequentially acquiring images, an image region extraction unit for extracting an image region having no difference from a predetermined number of previous frame images in each frame image acquired by the frame acquisition unit, and an image region extraction unit A character information extraction unit that extracts character information included in the image area, and a search unit that searches content on the network using the character information extracted by the character information extraction unit as a search keyword. An information processing apparatus is provided, wherein content searched by a search unit is displayed on a display screen.
この構成によれば、フレーム取得部により、映像データのフレーム画像を取得し、画像領域抽出部により、所定数前のフレーム画像との差分がない画像領域を抽出することができる。そして、文字情報抽出部により、その画像領域に含まれる文字情報を抽出することができ、検索部により、この文字情報を検索キーワードとしてネットワーク上のコンテンツを検索することができる。更に、表示手段により、検索したコンテンツを表示画面に表示させることができる。 According to this configuration, the frame acquisition unit can acquire a frame image of video data, and the image region extraction unit can extract an image region that is not different from a predetermined number of previous frame images. Then, the character information extraction unit can extract the character information included in the image area, and the search unit can search the content on the network using the character information as a search keyword. Furthermore, the searched content can be displayed on the display screen by the display means.
また、画像領域抽出部は、抽出した画像領域が所定のパターン形状を含むか否かを判定し、文字情報抽出部は、画像領域抽出部で所定のパターン形状を含むと判定された画像領域に含まれる文字情報を抽出してもよい。
この構成によれば、画像領域抽出部により、所定のパターン形状を含むか否かを判定することができる。そして、文字情報抽出部により、所定のパターン形状を含むと判定された画像領域に含まれる文字情報を抽出することができる。
The image area extraction unit determines whether or not the extracted image area includes a predetermined pattern shape, and the character information extraction unit determines whether the image area extraction unit includes the predetermined pattern shape. The included character information may be extracted.
According to this configuration, the image region extraction unit can determine whether or not a predetermined pattern shape is included. Then, the character information extraction unit can extract the character information included in the image area determined to include the predetermined pattern shape.
また、文字情報抽出部は、画像領域から抽出した文字情報が複数存在する場合、各文字情報に対して所定規則に従った優先順位を付加し、検索部は、優先順位の高い文字情報に対応するコンテンツを最初に検索してもよい。
この構成によれば、文字情報抽出部により、複数の文字情報に優先順位を付加することができる。そして、検索部により、その優先順位の高い文字情報に対応するコンテンツを最初に検索することができる。
In addition, when there are a plurality of character information extracted from the image area, the character information extraction unit adds a priority according to a predetermined rule to each character information, and the search unit supports character information with a high priority. The content to be searched may be searched first.
According to this configuration, a priority order can be added to a plurality of character information by the character information extraction unit. And the content corresponding to the character information with a high priority can be searched first by the search part.
また、文字情報抽出部は、画像領域から抽出した文字情報が複数存在する場合、当該各文字情報を表示画面にリスト表示させ、検索部は、ユーザの操作に応じて指定された文字情報に対応するコンテンツを検索してもよい。
この構成によれば、文字情報抽出部により、複数の文字情報を表示画面にリスト表示させることができる。そして、検索部は、ユーザの操作に応じて指定された文字情報に対応するコンテンツを検索することができる。
In addition, when there are a plurality of character information extracted from the image area, the character information extraction unit displays each character information in a list on the display screen, and the search unit corresponds to the character information specified according to the user's operation. The content to be searched may be searched.
According to this configuration, a plurality of pieces of character information can be displayed as a list on the display screen by the character information extraction unit. And a search part can search the content corresponding to the character information designated according to a user's operation.
また、表示手段は、映像データと関連して受信した情報データに基づく各文字情報を表示画面に表示するととともに、当該表示画面にリスト表示されている文字情報抽出部により抽出された複数の文字情報の中から、情報データに基づく各文字情報と同一の文字情報を全て表示対象から取り除いてもよい。
この構成によれば、同一の文字情報を表示画面にリスト表示せずに済む。
The display means displays each character information based on the information data received in association with the video data on the display screen, and a plurality of character information extracted by the character information extraction unit displayed as a list on the display screen. All of the character information identical to the character information based on the information data may be removed from the display target.
According to this configuration, it is not necessary to list the same character information on the display screen.
また、フレーム取得部により取得された各フレーム画像を順次記憶するメモリ部と、メモリ部に記憶された各フレーム画像のうち、ユーザの操作タイミングに最も近いフレーム画像と、当該フレーム画像を基準として所定の遡及時間内に記憶された各フレーム画像を読み出すメモリ制御部と、を備え、表示手段は、メモリ制御部により読み出された各フレーム画像を縮小画像として所定の配置パターンで表示画面に表示してもよい。 Further, a memory unit that sequentially stores each frame image acquired by the frame acquisition unit, a frame image that is closest to the user operation timing among the frame images stored in the memory unit, and a predetermined value based on the frame image A memory control unit that reads out each frame image stored within the retroactive time, and the display means displays each frame image read out by the memory control unit as a reduced image on the display screen in a predetermined arrangement pattern. May be.
また、メモリ制御部は、メモリ部に記憶された各フレーム画像を、ユーザの操作タイミング時点からの遡及時間が長いものから順次消去してもよい。 In addition, the memory control unit may sequentially delete each frame image stored in the memory unit from the one with the longest retroactive time from the user operation timing.
また、上記課題を解決するために、本発明の別の観点によれば、入力される映像データに基づく映像を表示画像に表示し、映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得し、取得した各フレーム画像内で、所定数前のフレーム画像との差分がない画像領域を抽出し、抽出した画像領域に含まれる文字情報を抽出し、抽出した文字情報を検索キーワードとしてネットワーク上のコンテンツを検索し、検索したコンテンツを表示画面に表示することを特徴とする、情報処理方法が提供される。 In order to solve the above problems, according to another aspect of the present invention, a video based on input video data is displayed on a display image, and a frame image is automatically generated from the video data in accordance with a user operation. Are sequentially acquired, and an image area that is not different from a predetermined number of previous frame images is extracted from each acquired frame image, character information included in the extracted image area is extracted, and the extracted character information is searched as a search keyword. An information processing method is provided that searches for content on a network and displays the searched content on a display screen.
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、入力される映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得するフレーム取得手段と、フレーム取得手段により取得された各フレーム画像内で、所定数前のフレーム画像との差分がない画像領域を抽出する画像領域抽出手段と、画像領域抽出手段により抽出された画像領域に含まれる文字情報を抽出する文字情報抽出手段と、文字情報抽出手段により抽出された文字情報を検索キーワードとしてネットワーク上のコンテンツを検索する検索手段と、検索手段により検索されたコンテンツを表示画面に表示する表示手段と、として機能させるためのプログラムが提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a frame acquisition unit that sequentially acquires frame images in accordance with a user operation or automatically from input video data according to a computer; In each frame image acquired by the frame acquisition means, an image area extraction means for extracting an image area that is not different from a predetermined number of previous frame images, and character information included in the image area extracted by the image area extraction means Character information extracting means for extracting the content, search means for searching the content on the network using the character information extracted by the character information extracting means as a search keyword, and display means for displaying the content searched by the search means on the display screen, , A program for functioning is provided.
以上説明したように本発明によれば、映像データに新たな情報を付加することなく、かつ、別途のサーバ等を新たに設けることなく、ネットワーク上のコンテンツを容易に取得することができる。 As described above, according to the present invention, it is possible to easily acquire content on the network without adding new information to the video data and without newly providing a separate server or the like.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
本発明の各実施形態に係る情報処理装置は、一のコンテンツの映像データを再生することが可能で、かつ、ネットワークに接続可能な様々な機器、例えば、デジタルテレビなどの表示装置、ビデオプレーヤ・ビデオデッキ・HDDレコーダ・DVDプレーヤ・DVDレコーダなどの再生装置、テレビ放送を受信したり記録された映像コンテンツを再生できる携帯電話・コンピュータ・PDA(Personal Digital Assistant)・音楽再生装置などの機器に適用することができる。そして、この情報処理装置は、その映像データを表示した際にその表示映像に含まれる文字情報を抽出し、その文字情報を検索キーワードとしてインターネットなどのネットワーク上に蓄積された他のコンテンツを検索することができる。 An information processing apparatus according to each embodiment of the present invention can reproduce video data of one content and can be connected to a network, for example, a display device such as a digital TV, a video player, Applicable to playback devices such as VCRs, HDD recorders, DVD players, DVD recorders, mobile phones, computers, PDAs (Personal Digital Assistants), music playback devices that can receive TV broadcasts and play back recorded video content can do. When the video data is displayed, the information processing apparatus extracts character information included in the display video, and searches for other contents stored on a network such as the Internet using the character information as a search keyword. be able to.
以下では、この情報処理装置がデジタルテレビなどの表示装置に適用された場合を例に説明する。そして、表示装置は、TV放送などを受信して、受信したコンテンツの映像データを表示する場合を例に説明する。しかしながら、本発明の各実施形態に係る情報処理装置は、この表示装置に限定されるものではなく、かつ、映像データも、TV放送された映像データに限定されるものではない。 Hereinafter, a case where the information processing apparatus is applied to a display device such as a digital television will be described as an example. The case where the display device receives a TV broadcast or the like and displays video data of the received content will be described as an example. However, the information processing apparatus according to each embodiment of the present invention is not limited to this display apparatus, and the video data is not limited to video data broadcast on TV.
<第1実施形態>
まず、図1及び図2を参照して、本発明の第1実施形態に係る表示装置の構成について説明する。図1及び図2は、本実施形態に係る表示装置の構成を説明するための説明図である。
<First Embodiment>
First, with reference to FIG.1 and FIG.2, the structure of the display apparatus which concerns on 1st Embodiment of this invention is demonstrated. 1 and 2 are explanatory diagrams for explaining the configuration of the display device according to the present embodiment.
図1に示すように、本実施形態に係る情報処理装置が適応される機器の一例である表示装置100は、放送局200から送信されるTV放送などの映像データを、アンテナ310又はケーブル320を介して受信する。また、表示装置100は、例えばビデオプレーヤ・ビデオデッキ・HDDレコーダ・DVDプレーヤ・DVDレコーダなどの外部機器330から、その外部機器330(その外部機器330が読み取る記録媒体も含む)に記録された映像データを取得する。
As shown in FIG. 1, a
更に、表示装置100は、例えばインターネットなどのようなネットワーク400に接続可能である。そして、表示装置100は、ネットワーク400を介して検索サーバ500及び情報提供サーバ600と接続可能である。
Furthermore, the
検索サーバ500は、ネットワーク400上をキーワード検索するサーバの一例である。より具体的に検索サーバ500は、ネットワーク400を介して接続された他の機器から入力される検索要求に応じて、その機器から入力された検索キーワード(文字情報の一例)を含むHP(ネットワーク上のコンテンツの一例)がネットワーク上のどこに蓄積されているかを表した情報をネットワーク検索し、検索結果をその機器に出力する。ここでは、ネットワーク上のどこに蓄積されているかを表した情報の一例として、URI(Uniform Resource Identifier)を出力するとして説明する。
つまり、表示装置100は、この検索サーバを利用して検索キーワードを含むHPのURI等を検索することができる。
The
That is, the
なお、この検索サーバ500は、URIと共に検索したHPに関する情報、例えば検索キーワードの前後の文章や画像などを他の機器に出力してもよい。また、この検索サーバ500としては、特定のサーバを新たに設置する必要はなく、ネットワーク400に接続された既存の如何なる検索サーバであってもよい。更に、表示装置100は、特定の検索サーバ500にアクセスする必要はなく、ネットワーク400に接続された複数の検索サーバの中から、検索に使用する検索サーバを選択することも可能である。
The
なお、検索サーバ500が検索する対象(ネットワーク上のコンテンツ)について、ここではHPを例示して説明してるが、このネットワーク上のコンテンツには、HPだけでなく、例えば音楽データ・文章データ・画像データなど、ネットワーク上に公開され、かつ、検索キーワードによって検索可能なあらゆるコンテンツが含まれる。 Note that the search target 500 (contents on the network) is described using HP as an example here, but the contents on this network include not only HP but also music data, text data, images, for example. This includes all contents such as data that are disclosed on the network and can be searched by a search keyword.
情報提供サーバ600は、様々な情報を蓄積してネットワーク上に公開しているサーバである。ここでは、この公開している情報は、例えば、HPであるとして説明する。また、各HPは、URIにより特定される。よって、上記検索サーバ500は、ネットワーク上に公開されたHP中に、検索キーワードが含まれるか否かを検索して、URIを特定する。
The
一方、表示装置100は、その表示装置100を操作するための操作信号をリモートコントローラ(以下「リモコン」ともいう。)700から取得する。つまり、ユーザは、リモコン700を操作することにより表示装置100を操作することが可能である。なお、表示装置100は、操作信号を、リモコン700だけでなく、例えば表示装置100に配置された操作盤や操作ボタン、マウスポインタのようなポインタ、タッチスクリーンなどから取得してもよいが、以下では説明の便宜上、表示装置100は、操作信号をリモコン700から取得するとして説明する。また、以下では、このリモコン700は、「検索ボタン」と、「選択ボタン」と、「詳細ボタン」と、上下左右方向それぞれへの「移動ボタン」を有し、各ボタンが選択されるとリモコン700は、押下されたボタンに応じた操作信号を出力するとして説明するが、リモコン700が有するボタンもかかる例に限定されるものではない。
On the other hand, the
(表示装置100の構成)
次に、図2を参照して、表示装置100の構成について説明する。
図2に示すように、表示装置100は、放送データ取得部111Aと、外部データ取得部111Bと、デマルチプレクサ112と、オーディオデコーダ113Aと、データデコーダ113Bと、ビデオデコーダ113Cと、フレーム制御部114Aと、表示制御部115と、音声出力部116と、表示部117と、操作信号受信部118と、検索部120と、ネットワーク通信部133とを有する。
(Configuration of display device 100)
Next, the configuration of the
As shown in FIG. 2, the
放送データ取得部111Aは、例えば放送局200が放送してアンテナ310又はケーブル320を介して入力する放送データを取得する。そして、デマルチプレクサ(demultiplexer)112は、映像データ・音声データ・EPC(電子番組ガイド)等の情報データがまとめられて送信された放送データを、映像データ・音声データ・情報データそれぞれのストリームに分離する。
The broadcast
外部データ取得部111Bは、外部機器330に記録された外部データを取得する。この外部データには、少なくとも映像データが含まれ、他にも音声データ・情報データなどが含まれてもよい。
The external
なお、映像データは、デジタル放送の場合、例えばMPEG1・MPEG2・H.264などの規格で符合化されて送信又は記録される。また、映像データは、複数のフレーム画像(以下では単に「フレーム」ともいう。)に時間分割されている。例えばMPEG1・MPEG2・H.264などの規格では、データ量を少なくするために、映像データには、そのフレーム単体で1つの画像を表示可能なフレーム(例えばIピクチャ、Iフレーム)と、前後のフレームを参照することにより1つの画像を表示可能なフレーム(例えばBピクチャ、Pピクチャ)とが含まれる。なお、これらの圧縮形式の映像データでは、例えば、フレーム間予想や動き補償技術が使用される。そして、BピクチャやPピクチャには、フレーム間の差分を表した信号(差分情報)や動き補償(フレーム間予想)技術で使用される情報(動きベクトルなど)が含まれる。Bピクチャは、直前のIピクチャで表示された画像と、最も近い将来のPピクチャに含まれる情報とにより、1のフレームを表示させる。以下、フレーム単体で1つの画像を表示可能なフレームとして、Iピクチャを例に挙げ、前後のフレームを参照することにより1つの画像を表示可能なフレームとして、Bピクチャを例に挙げて説明するが、これらのフレームの名称は、圧縮形式によって異なってもよいことは言うまでもない。 In the case of digital broadcasting, for example, MPEG1, MPEG2, H. The data is encoded or transmitted according to a standard such as H.264. Further, the video data is time-divided into a plurality of frame images (hereinafter also simply referred to as “frames”). For example, MPEG1, MPEG2, H. In standards such as H.264, in order to reduce the amount of data, the video data is 1 by referring to a frame (for example, an I picture or an I frame) in which one frame can be displayed and a frame before and after the frame. A frame (for example, a B picture or a P picture) that can display one image is included. Note that, for example, inter-frame prediction and motion compensation techniques are used in these compressed video data. The B picture and the P picture include a signal (difference information) representing a difference between frames and information (motion vector and the like) used in a motion compensation (interframe prediction) technique. The B picture displays one frame based on the image displayed as the immediately preceding I picture and the information included in the nearest future P picture. Hereinafter, an I picture will be described as an example of a frame that can display one image by itself, and a B picture will be described as an example of a frame that can display one image by referring to the preceding and following frames. Needless to say, the names of these frames may differ depending on the compression format.
オーディオデコーダ113Aは、デマルチプレクサ112又は外部データ取得部111Bから入力する音声データをデコード(復号、decode)する。このデコードされた音声データは、例えばスピーカなどのような音声出力部116から出力される。なお、この音声出力部116には、例えばアンプなども含まれる。
The
データデコーダ113Bは、デマルチプレクサ112又は外部データ取得部111Bから入力する情報データをデコードする。そして、このデコードされた情報データは、表示制御部115に送られ、表示制御部115が必要に応じて表示部117に表示させる。
The
ビデオデコーダ113Cは、例えばMPEG1・MPEG2・H.264などの形式で圧縮された映像データをデコードする。
The
フレーム制御部114Aは、メモリ制御部の一例であって、ビデオデコーダ113Cがデコードした映像データのフレームを制御する。より具体的には、フレーム制御部114Aは、フレームのバッファとして動作する第1フレーム記憶部114B及び第2フレーム記憶部114C(メモリ部の一例)に接続される。そして、フレーム制御部114Aは、ビデオデコーダ113Cがデコードした映像データのフレームを、表示制御部115に出力する一方、第1フレーム記憶部114B又は第2フレーム記憶部114Cに順次記録させる。この際、フレーム制御部114Aは、図3に示すように、現在の時刻(カレント時刻)TからN秒(図3では、10秒)前までのフレームを記録させる。よって、この記録されたフレームは、ユーザが表示装置100に映像を表示させている間、更新される。このフレーム制御部114Aが記録させる映像データの長さ(N秒)は、適宜変更可能である。
The
なお、フレーム制御部114Aが記録させるフレームは、Iピクチャのフレームである。また、フレーム制御部114Aは、時間が経過するに従い、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記憶されているフレーム中で遡及時間が長いものから順次消去する。換言すれば、フレーム制御部114Aは、記録させている過去の代表的なフレームの時間間隔が広くなるように、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録されたフレームを消去して、新たなフレームの記憶容量として使用する。
The frame to be recorded by the
つまり、ある時刻Tにおいて、第1フレーム記憶部114B又は第2フレーム記憶部114Cには、代表的なフレームとして、図3に示すように、例えば、時刻TのIピクチャ、時刻T−1(1秒前)のIピクチャ、時刻T−2(2秒前)のIピクチャ、時刻T−5(5秒前)のIピクチャ、及び時刻T−10(10秒前)のIピクチャが記録される。さらに、第1フレーム記憶部114B又は第2フレーム記憶部114Cには、これらに付随するフレームとして、上記のIピクチャに時間的に近い過去(未来であってもよい。)の1又は2以上のIピクチャがそれぞれ記録される。そして、時間が経過するに従い代表的なフレーム間の時間間隔が広くなるように、過去の代表的なフレームとそれに付随するフレームとが消去される。
That is, at a certain time T, as shown in FIG. 3, the first
このように第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録されるフレームを、現在時刻Tに近いほど細かく、この時刻Tから過去に離れるほど荒くすることにより、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録するデータ量を削減することができる。なお、代表的なフレームを、例えば、時刻TのIピクチャと、時刻Tから所定時間(例えば1秒、2秒、5秒、10秒など)遡ったIピクチャとに設定することができる。また、これら代表的なフレームに付随するフレームを、代表的なフレームに時間的に近い過去(又は未来)の所定枚数又は所定時間中のIピクチャに設定することができる。換言すれば、付随するフレームが、代表的なフレームと同一のシーンを表示した他のIピクチャになるように設定されることが好ましい。なお、ここで言うシーン(場面)とは、例えば同一の撮影場所で同一のカメラにて撮影された映像データなどのように、フレーム中に表された画像データが大きく変化しない複数のフレームの集まりを言う。
Thus, by making the frame recorded in the first
第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録されたフレームは、下記の検索部120が検索動作中に使用する。よって、フレーム制御部114Aは、検索部120の検索動作が開始されると、フレームを記録させる記憶部を第1フレーム記憶部114Bと第2フレーム記憶部114Cとの間で切替える。つまり、第1フレーム記憶部114Bにフレームを記録している最中に、検索部120の検索動作が開始されると、第1フレーム記憶部114Bに記録されたフレームは、検索部120における検索動作に使用される。一方、フレーム制御部114Aは、再生されているフレームを引き続き第2フレーム記憶部114Bに記録させる。よって、検索部120は、再度検索動作を開始した場合、今度は第2フレーム記憶部114Bに記録されたフレームを使用することができる。このように2つのバッファを備えることにより、フレーム制御部114Aは、流れ続けるフレームを絶え間なく記録させることができ、検索部120は、検索対象となるフレームを漏れなく取得することができる。
The frames recorded in the first
表示制御部115は、ビデオデコーダ113Cがデコードした映像データを受信して、表示部117にその映像を表示させる。なお、この表示制御部115は、更に映像データのフレーム以外に、データデコーダ113Bがデコードした情報データや、以下で説明する動作及び表示装置100の動作に関する所定の情報を表示させることもできる。また、表示制御部115は、表示部117に2画面表示などの複数画面表示を行わせることもできる。なお、この表示制御部115も、操作信号受信部118が取得した操作信号に応じて動作してもよい。
The
表示部117は、表示画面を有し、表示制御部115により制御され、表示制御部115から出力される映像を表示する。この表示部117は、例えば、ブラウン管(CRT:Cathode Ray Tube)・液晶ディスプレイ(LCD:Liquid Crystal Display)・プラズマディスプレイ(PDP:Plasma Display Panel)・電界放出ディスプレイ(FED:Field Emission Display)・有機エレクトロルミネッセンスディスプレイ(有機EL、OELD:Organic Electroluminescence Display)・ビデオプロジェクタなどであってもよい。なお、表示制御部115及び表示部117は、表示手段の一例である。
The
操作信号受信部118は、例えばリモコン700が出力する様々な操作信号を受信する。この操作信号は、通常の動作(例えば表示装置100の映像データの表示など)や、後述する検索動作などに使用される。
The operation
つまり、この放送データ取得部111A又は外部データ取得部111B,ビデオデコーダ113C,フレーム制御部114A,表示制御部115,表示部117及び操作信号受信部118により映像データの表示が行われる。より具体的には、例えば操作信号受信部118から入力する所定の操作信号により、表示される入力ラインや放送チャンネルが決定されて、当該決定に基づいて放送データ取得部111A又は外部データ取得部111Bが映像データを取得する。そして、ビデオデコーダ113Cが、その映像データをデコードし、デコードされた映像データを、フレーム制御部114Aを介して表示制御部115に出力する。そして、表示制御部115は、この映像データを表示部117に表示させる。
That is, video data is displayed by the broadcast
検索部120は、フレーム取得部121と、フレーム解析部123と、文字認識部124と、キーワード記憶部125と、検索制御部131と、検索サーバ情報記憶部132と、嗜好データ記憶部134とを有する。
The
フレーム取得部121は、ユーザの操作に応じてか、又は、自動的に検索キーワードを含む複数のフレームを順次取得する。
より具体的には、フレーム取得部121は、ユーザの操作に応じてか、又は、自動的にフレーム制御部114Aにフレーム取得要求を出力し、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記憶された複数の代表的なフレーム(例えば、図3に示したIピクチャ)を、フレーム制御部114Aに取得させる。つまり、フレーム制御部114Aは、フレーム取得部121からのフレーム取得要求を取得すると、この要求を取得したタイミングに最も近いフレームと、このフレームを基準として所定の遡及時間内に記憶されたフレームとを、第1フレーム記憶部114B又は第2フレーム記憶部114Cから読み出す。この際、フレーム制御部114Aは、記録するフレームを第1フレーム記憶部114Bと第2フレーム記憶部114Cとの間で切替る。そして、フレーム制御部114Aは、取得した複数の代表的なフレームを表示制御部115に出力する。表示制御部115は、この取得した複数の代表的なフレームを表示部117に表示する。
The
More specifically, the
そして、フレーム取得部121は、どのフレームを検索対象とするのかを表した操作信号を操作信号受信部118が受信した場合、この操作信号に表された代表的なフレームと、その代表的なフレームに付随したフレームとを含む複数のフレームを、フレーム取得部121から取得する。一方、上記操作信号を操作信号受信部118が受信しない場合、フレーム取得部121は、フレーム取得要求を出力した時点Tにおける代表的なフレームと、その代表的なフレームに付随したフレームとを含む複数のフレームを、フレーム取得部121から取得する。そして、フレーム取得部121は、取得した複数のフレームをフレーム解析部123に出力する。このフレーム取得部121が取得するフレームの一例を、図4(A)〜(C)に示す。また、フレーム取得部121が取得する複数のフレームは、同一シーンを表したフレームであることが望ましい。
When the operation
なお、フレーム取得部121は、操作信号受信部118が受信した所定の操作信号(例えば検索ボタンの押下に対応)をトリガーとして、上記フレーム取得要求を出力する。換言すれば、フレーム取得部121は、フレーム制御部114Aに、操作信号受信部118が所定の操作信号を受信した時点Tのフレームと、それよりもN秒前までのフレームを取得させる(図3参照。)。
The
また、上述のように、フレーム制御部114Aが取得するフレーム、つまり、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録されていたフレームは、操作信号受信部118が所定の操作信号を受信した時点Tに近いほど細かく、この時点Tから過去に離れるほど荒くなる。
Further, as described above, the operation
フレーム解析部123は、画像領域抽出部の一例であって、フレーム取得部121が取得した複数のフレーム(1の代表的なフレームとそれに付随したフレームとを含む複数のフレーム)を解析して、ネットワーク400上の映像データに関連したコンテンツを検索するための検索キーワードとなり得る文字情報が含まれる領域(文字情報領域ともいう。)を抽出する。そのためにフレーム解析部123は、例えば以下のような2段階の抽出を行う。
The
(第1の抽出)
まず、第1段階の抽出として、フレーム解析部123は、複数のフレーム間の差分が少ない領域、つまり、複数のフレーム間で画像データが変化しない領域を抽出する。つまり、映像データに含まれる検索キーワードとなりうる文字情報は、例えば図4(A)〜(C)に示す文字情報Wのように、変形や移動せずに、変化しないことが多い。一方、検索キーワードを含まない領域に表示される映像は、図4(A)〜(C)に示す移動物体Mのように複数のフレームが経過するに従い、変形や移動して、変化することが多い。従って、フレーム解析部123は、図5に示すように、フレーム間の差分が他の領域(移動物体Mを含む領域)に比べて少ない領域A(文字情報Wを含む領域)を抽出する。
(First extraction)
First, as a first-stage extraction, the
このように映像が動かない、つまり画像データが変化しない領域(静止領域ともいう。)を抽出することにより、後述する文字認識部124における処理が行われるデータ量を削減し、処理に要する時間を短縮し、装置の処理性能を向上させることができる。
Thus, by extracting an area where the video does not move, that is, the image data does not change (also referred to as a still area), the amount of data to be processed in the
なお、第1段階の抽出において、画像データが変化する領域(変化領域ともいう。)がない場合、フレーム解析部123は、例えば、そのフレームに含まれる全ての領域を抽出してもよい。逆に、第1段階の抽出において、静止領域(例えば領域A)がない場合、フレーム解析部123は、例えば、フレーム取得部121がフレーム制御部114Aから取得したフレーム、つまり、時刻Tにおけるフレーム又は操作信号に表されたフレームに含まれる全ての領域を抽出してもよい。
Note that in the first-stage extraction, when there is no region in which image data changes (also referred to as a change region), the
(第2の抽出)
次に、第2段階の抽出として、フレーム解析部123は、フレームに含まれる画像データ(画像領域)が所定のパターン形状(以下単に「パターン」ともいう。)を含むか否かを判定する。より具体的には、フレーム解析部123は、フレームに含まれる画像データの所定のパターンを検出し、そのパターンを含む領域を抽出する。つまり、フレーム解析部123は、第1の抽出を行った場合には抽出された領域に対して、第1の抽出を行わない場合にはフレーム全体に対して、所定のパターンが含まれるか否かを検出する。そして、フレーム解析部123は、所定のパターンが含まれる場合には、そのパターンを含む領域を、検索キーワードとなりうる文字情報を含みうる領域として抽出する(抜き出す)。そして、フレーム解析部123は、その領域に含まれる画像の情報を、文字認識部124に出力する。
(Second extraction)
Next, as the second stage extraction, the
なお、このパターンを含む領域は、パターンの内部と、パターンから所定の距離離隔した領域を含むことが好ましい。また、このパターンからの離隔距離は、文字情報を含みうる距離を統計的に導くことにより設定されてもよい。 The region including this pattern preferably includes the inside of the pattern and a region separated from the pattern by a predetermined distance. Further, the separation distance from this pattern may be set by statistically deriving a distance that can include character information.
より具体的にこの第2の抽出について説明する。一般的に、CMなどに含まれる検索キーワードとなりうる文字情報は、図4(A)〜(C)に示すように、インターネットの検索サイトにおける検索キーワード入力欄を模した形状のボックスB中に含まれる場合が多い。そこで、フレーム解析部123は、例えば、所定のパターンとして、このボックスBを特定し、このボックスBの近傍(ボックスBの内部も含む)の領域を抽出する。つまり、所定のパターン(所定の形状)とは、検索サイトにおける検索キーワード入力欄をユーザに連想させうる形状のことをいう。なお、所定のパターンはこのボックスBに限定されず、通常使用されている検索キーワード入力欄が多種多様である場合や、新たな検索キーワード記入欄が使用されるようになった場合には、それらを全て含むように所定のパターンを決定することも可能である。
More specifically, the second extraction will be described. In general, character information that can be a search keyword included in a CM or the like is included in a box B shaped like a search keyword input field on an Internet search site, as shown in FIGS. In many cases. Therefore, for example, the
更に具体的に説明すると、所定のパターンがボックスBである場合、フレーム解析部123は、例えば、画像データがボックスBであるか否かを特定するために、以下の条件を順次判定する。
More specifically, when the predetermined pattern is box B, the
(条件1)長方形又は角が丸い長方形(以下長方形Bともいう)があり、その長方形Bに近接する長方形又は角が丸い長方形(長方形C)があること(長方形Cは、例えば、長方形Bの右方向又は下方向にあることが好ましい。)。
(条件2)長方形Cの左右方向の幅は、長方形Bの左右方向の幅よりも短いこと。
(条件3)長方形Cの上下方向の高さは、長方形Bの上下方向の高さとほぼ等しいこと。
(Condition 1) There is a rectangle or a rectangle with rounded corners (hereinafter also referred to as rectangle B), and there is a rectangle close to the rectangle B or a rectangle with rounded corners (rectangle C). Preferably in the direction or down).
(Condition 2) The width of the rectangle C in the left-right direction is shorter than the width of the rectangle B in the left-right direction.
(Condition 3) The height of the rectangle C in the vertical direction is substantially equal to the height of the rectangle B in the vertical direction.
そして、フレーム解析部123は、上記の条件を多く満たすパターンが、ボックスBである可能性が高いとして、当該パターンの近傍の領域を抽出する。なお、例えば、条件を満たすパターンが複数ある場合には、フレーム解析部123は、複数のパターンを含む領域を抽出してもよく、条件を満たすパターンがない場合には、第2の抽出の対象となった領域の全てを抽出してもよい。
Then, the
このように検索キーワードとなりうる文字情報を含みうる領域(文字情報領域)を特定することにより、後述する文字認識部124における処理が行われるデータ量を削減し、処理に要する時間を短縮し、装置の処理性能を向上させることができ、かつ、検索キーワードとなりうる情報の量を削減することができる。
By specifying an area (character information area) that can contain character information that can be a search keyword in this way, the amount of data to be processed in the
文字認識部124は、文字情報抽出部の一例であって、フレーム解析部123が抽出した領域(文字情報領域)に対して文字認識を行い、その領域に含まれる文字情報を抽出する。そして、文字認識部124は、抽出した文字情報を表示制御部115及び検索制御部131に出力する。この際、文字認識部124は、抽出した文字情報をキーワード記憶部125に記録させてもよい。また、文字認識部124は、データデコーダ113Bに含まれる情報データを取得して、情報データから検索キーワードとなりうる文字情報を抽出して、キーワード記憶部125に記録させてもよい。なお、キーワード記憶部125は、文字情報認識処理におけるバッファとしても機能することができる。
The
なお、文字認識部124は、文字情報を複数抽出してもよく、複数の文字情報を抽出した場合には、各文字情報に優先順位を付加する。この優先順位としては、例えば、ボックスB中に含まれていた文字情報に対しては高い優先順位が付加され、ボックスBから離れるほど低くなる優先順位が付加されてもよい。また、優先順位として、英数字とピリオド(.)だけで構成された文字情報がある場合、その文字情報に高い優先順位を付加してもよい。更に優先順位として、文字の大きさに応じて優先順位を付加してもよい。また、抽出した順番に応じた優先順位を付加することも可能である。
Note that the
この文字認識部124が行う文字認識は、例えば、OCR(Optical Character Recognition)・BCR(Bar Code Reader)・CRUなどで行われるパターンマッチングと同様の処理により行われてもよい。
The character recognition performed by the
検索制御部131は、検索部の一例であって、ネットワーク400に接続可能なネットワーク通信部133を介して、ネットワーク上のHP(ネットワーク上のコンテンツの一例)を検索する。この際、検索制御部131は、文字認識部124が抽出した文字情報を検索キーワードとして使用して、ネットワーク検索を行う。なお、文字認識部124が複数の文字情報を抽出した場合、まず、優先順位の高い文字情報を使用して検索を行い、操作信号受信部118から他の文字情報を表した操作信号を取得した場合、その文字情報を使用して検索を行う。
The
より具体的には、検索制御部131は、文字情報を検索キーワードとして、ネットワーク通信部133とネットワーク400を介して検索サーバ500に検索させ、検索サーバ500の検索結果をネットワーク通信部133に取得させる。一方、ネットワーク通信部133は、その検索結果を表示制御部115に出力する。なお、このネットワーク通信部133は、操作信号受信部118からネットワーク上のHPを指定する操作信号を取得した場合、そのHPで公開されている情報をネットワーク400を介して情報提供サーバ600から取得して、検索制御部131に出力する。そして、検索制御部131は、受取ったHPに公開されている情報を、表示制御部115に出力する。なお、上記ネットワーク通信部133は、例えばHTML Browserなどにより構成されてもよい。
More specifically, the
また、検索制御部131は、上記のネットワーク検索に使用する検索サーバ500を変更することもできる。より具体的には、検索制御部131は、検索サーバ情報記憶部132に接続され、検索サーバ情報記憶部132には、図6に示すような選択可能な検索サーバ500の情報(検索サーバ500のリスト)が記録されている。この検索サーバ500の情報としては、例えば検索サーバのURIなどが挙げられる。そして、検索制御部131は、この検索サーバ情報記憶部132から検索サーバ500の情報を取得して、現在設定されている検索サーバ500とは異なる検索サーバ500を新たに設定してもよい。
The
更に、検索制御部131は、検索キーワードとして使用した文字列や、ネットワーク通信部133が取得したHPを特定するための情報(例えばURIやそのコンテンツ自身など)を、ユーザの嗜好データとして嗜好データ記憶部134に記録させてもよい。この嗜好データ記憶部134に記録された嗜好データは、例えば、ユーザの嗜好を解析したり、文字認識部124における文字認識処理や、その文字情報に優先順位を付加する処理を行う際に使用されてもよい。
Further, the
以上、本実施形態に係る情報処理装置が適用された機器の一例である表示装置100の構成について説明した。次に、本実施形態に係る表示装置100の動作について説明する。
The configuration of the
(表示装置100の通常の動作)
まず、図7を参照しつつ、本実施形態に係る表示装置100の通常の動作、つまり、ユーザが放送データ又は外部データを視聴している際の表示装置100の動作について説明する。図7は、本実施形態に係る表示装置の通常の動作を説明するための説明図である。
(Normal operation of display device 100)
First, a normal operation of the
表示装置100の電源がONされると、まず、放送データ取得部111Aが放送データを取得し、かつ、操作信号受信部118が受信した操作信号が放送データの視聴を表している場合、デマルチプレクサ112が、放送データを映像データ・音声データ・情報データそれぞれのストリームに分離する。そして、各データは、それぞれ対応したデコーダに送られる。一方、外部データ取得部111Bが外部データを取得し、かつ、操作信号受信部118が受信した操作信号が外部データの視聴を表してる場合、外部データに含まれる映像データ・音声データ・情報データも、それぞれ対応したデコーダに送られる。そして、ステップS01の処理が行われる。なお、以下では、放送データを放送データ取得部111Aが取得した場合を例に挙げて説明する。
When the power of the
このステップS01では、オーディオデコーダ113Aが、音声データをデコードし、音声出力部116に出力させる。そして、データデコーダ113Bが、情報データをデコードし、表示制御部115に出力する。更に、ビデオデコーダ113Cが、映像データをデコードし、フレーム制御部114Aに出力する。
In step S01, the
次に、ステップS03の処理が行われ、フレーム制御部114Aが、デコードされた映像データに含まれるフレームを、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録させる。また、フレーム制御部114Aは、デコードされた映像データを表示制御部115に出力する。そして、ステップS05に進む。
Next, the process of step S03 is performed, and the
ステップS05では、表示制御部115が、映像データに含まれるフレームを、そのフレームを表示させるタイミングで表示部117に表示させる。同時に、音声出力部116が、オーディオデコーダ113Aでデコードされた音声データを、その音声データを出力すべきタイミングで出力する。また、表示制御部115は、データデコーダ113Bがデコードした情報データを、操作信号受信部118により受信された操作信号が情報データの表示を表している場合に、表示部117に表示させる。
In step S05, the
そして、ステップS07に進み、表示制御部115又は上位の制御装置が、電源がOFFされたか否かを確認する。電源がOFFされた場合、表示装置100は動作を終了し、電源がOFFされていない場合、ステップS01以降を繰り返し処理する。
Then, the process proceeds to step S07, and the
(表示装置100の検索動作の一例)
次に、図8及び図9A〜図9Dを参照しつつ、本実施形態に係る表示装置100の検索動作について説明する。図8は、本実施形態に係る表示装置の検索動作の一例について説明するための説明図である。図9A〜図9Dは、本実施形態に係る表示装置の検索動作の一例において、表示部に表示される表示画面の例について説明するための説明図である。
(Example of search operation of display device 100)
Next, the search operation of the
表示装置100の検索動作の一例では、表示装置100の検索動作は、操作信号受信部118が受信した所定の操作信号(例えば検索ボタンの押下に対応)をトリガーとして開始される。つまり、操作信号受信部118が「検索」を表した所定の操作信号を受信すると、フレーム取得部121は、フレーム取得要求をフレーム制御部114Aに出力し、ステップS101以降の処理が行われる。
In an example of the search operation of the
ステップS101では、フレーム制御部114Aが、フレームの記録に使用する記憶部を、第1フレーム記憶部114Bと第2フレーム記憶部114Cとの間で切替える。そして、ステップS103に進み、フレーム制御部114Aが、それまで記録に使用されていた第1フレーム記憶部114B又は第2フレーム記憶部114Cから、記録された複数のフレームを取得し、この複数のフレームを表示制御部115が表示部117に表示させる。この際、表示制御部115は、例えば図9Aに示すように、複数のフレームを縮小画像として所定の配置パターンで表示部117に表示させる。このステップS101及びステップS103の処理中に表示部117に表示される表示画面の一例を、図9A及び図9Bに示す。
In step S101, the
まず、表示部117が、図9Aに示す放送データのフレームF1を表示している状態で、ユーザが、例えばフレームF1中にインターネット検索を行いたい検索キーワードなどが表示されているなどと判断して、リモコン700の「検索ボタン」を押下した場合、操作信号受信部118は、リモコン700から出力された所定の操作信号を受信する。すると、上記ステップS101及びステップS103の処理が行われ、表示部117には、図9Bに示す表示画像が表示される。つまり、表示制御部115は、表示部117のモードを2画面モード(2以上の画面のモードでもよい。)に切替え、例えば、表示部117の左方画面Lには、視聴中の放送データのフレームを表示させ、表示部117の右方画面Rには、フレーム制御部114Aが取得した第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録された複数のフレームF1〜F5を表示させる。
First, in the state where the
そして、次のステップS105が処理される。
つまり、このステップS105では、フレーム取得部121が、操作信号受信部118が1のフレームの選択を表した操作信号を受信したか否かを確認する。より具体的には、ユーザは、図9Bに示す画像を参照して、リモコン700の上下左右の「移動ボタン」や「選択ボタン」などを押下することにより、検索キーワードとしたい文字情報が表示されている1のフレームを選択する。この選択操作に応じてリモコン700は、所定の操作信号を出力し、操作信号受信部118が、この操作信号を受信する。よって、フレーム取得部121は、1のフレームが選択されたか否かを、この操作信号を受信したか否かで判断する。1のフレームが選択された場合には、ステップS109に進み、所定の時間間隔が経過しても1のフレームが選択されていない場合には、ステップS109の前にステップS107に進む。
Then, the next step S105 is processed.
That is, in this step S105, the
ステップS107では、フレーム取得部121は、検索動作を開始した時点におけるフレーム、つまりユーザがリモコン700の「検索ボタン」を押下した時点において表示されていたフレーム(例えば、図9Aのフレーム)を、ユーザが選択する1のフレームの変わりに選択する。そして、ステップS109に進む。
In step S107, the
ステップS109では、フレーム取得部121が、選択された1のフレームと、その前のフレーム(その後のフレームを含んでもよい。)を含む複数のフレームを、フレーム解析部123に出力する。そして、次のステップS111が処理され、このステップS111では、フレーム解析部123が、上記第1の抽出及び第2の抽出を行い文字情報領域を抽出する。更に、フレーム解析部123は、抽出した文字情報領域の画像データを、文字認識部124に出力し、次のステップS113に進む。
In step S <b> 109, the
ステップS113では、文字認識部124が、文字情報領域に対して文字認識を行い、その領域に含まれる文字情報を抽出する。そして、ステップS115に進み、文字認識部124は、抽出した文字情報を、キーワード記憶部125に検索キーワードの候補として記録させると共に、検索制御部131に出力する。なお、上述のように、文字認識部124は、複数の文字情報を抽出した場合、各文字情報に優先順位を付加して記録させ、かつ、出力する。そして、ステップS117に進む。
In step S113, the
ステップS117では、検索制御部131が、抽出された複数の文字情報から、検索キーワードを1つ選択する。この際、検索制御部131は、優先順位の高い文字情報を検索キーワードとして選択する。そして、ステップS119に進む。
In step S117, the
なお、このステップS117では、検索制御部131は、例えば、操作信号受信部118が受信する操作信号が表す文字情報を選択してもよい。この場合、検索制御部131は、キーワード記憶部125に記録された複数の文字情報を表示制御部115に出力し、表示制御部115は、この複数の文字情報を表示部117に表示させる。そして、ユーザは、表示部117に表示された文字情報を選択し、リモコン700は、かかる選択に応じた操作信号を出力する。
In step S117, the
ステップS119では、検索制御部131が、ステップS117で選択した検索キーワードに基づいてネットワーク検索する。より具体的には、検索制御部131は、既に設定されている検索サーバ500の情報を用いて、ネットワーク通信部133を介して検索サーバ500に接続する。そして、検索制御部131は、検索キーワードを検索サーバ500に出力して、検索キーワードに基づいてネットワーク上のHPを検索させる。ステップS119の処理後は、ステップS121に進む。
In step S119, the
ステップS121では、検索制御部131が、ネットワーク通信部133を介して検索サーバ500から検索結果を表したデータ(検索結果データとも言う。)を取得して、表示制御部115に出力する。そして、ステップS123に進み、表示制御部115は、検索結果データを表示部117に表示させる。検索結果を表示した表示部117の表示画面の一例を、図9Cに示す。図9Cに示すように、表示制御部115は、表示部117の表示画面を2画面表示モードに設定した状態で、表示部117の左方画面Lには視聴中の放送データのフレームを表示させる一方、表示部117の右方画面Rには検索結果データが表示される。検索結果データには、例えば、ネットワーク上のHPを特定するための情報(例えばURIなど)やHPで公開されている情報の一部又は全部が含まれてもよい。そして、これらの情報の一部には、そのHPへのリンクが貼られている。このステップS123の処理後は、ステップS125に進む。
In step S <b> 121, the
ステップS125では、検索制御部131が、他の文字情報が新たな検索キーワードとして選択されたか否かを確認する。より具体的には、図9Cに示す表示画面が表示部117に表示されている状態で、ユーザがリモコン700の「詳細ボタン」を押下すると、リモコン700は、「詳細ボタン」の押下に応じた操作信号を出力して、操作信号受信部118が、この操作信号を受信する。すると、検索制御部131は、キーワード記憶部125に記録された複数の検索キーワード候補の文字情報を取得して、表示制御部115に出力する。そして、表示制御部115は、例えば、図9Dに示すように、表示部117の右方画面R上に複数の文字情報を表示させる。ユーザは、この表示された複数の文字情報を参照して、例えばリモコン700の「移動ボタン」及び「選択ボタン」などを押下することにより、検索キーワードとしたい所望の文字情報を選択する。リモコン700は、この選択された文字情報を表す操作信号を出力し、操作信号受信部118は、この操作信号を受信する。すると、検索制御部131は、操作信号が表した文字情報を、新たな検索キーワードとして選択して、再度ステップS119,ステップS121及びステップS123を順次処理する。一方、上記のように新たな検索キーワードが選択されない場合には、ステップS129に進む。
In step S125, the
ステップS129では、検索制御部131が、HP選択情報を取得する。このHP選択情報は、例えばユーザが図9Cに示した表示画面を参照しつつ、所望のHPを選択するように操作されたリモコン700から出力される。そして、検索制御部131は、操作信号受信部118を介して、このHP選択情報を取得する。そして、ステップS131に進む。
In step S129, the
ステップS131では、検索制御部131は、HP選択情報に表されたHPのURIを使用して、そのHPに公開されている情報を取得して、表示制御部115に出力する。そして、ステップS133に進み、表示制御部115は、このHPに公開されている情報を、例えば図9Cに示す表示部117の右方画面Rに表示させる。そして、表示装置100は、検索動作を終了する。
In step S <b> 131, the
(検索サーバ500の切替え動作)
以上説明した検索動作では、検索動作に使用する検索サーバ500は予め設定されているとして説明した。しかし、本実施形態に係る表示装置100は、検索動作に使用する検索サーバ500を切替えることができる。そこで、以下では、この検索サーバ500の切替え動作について、図10を参照して説明する。図10は、本実施形態に係る表示装置の検索サーバ切替え動作の一例について説明するための説明図である。
(
In the search operation described above, the
まず、ステップS201が処理され、検索制御部131が、検索サーバ変更要求を表した操作信号を取得する。つまり、検索サーバ500を変更する場合、ユーザは、リモコン700を操作して、検索サーバ変更要求を表した操作信号を出力させる。操作信号受信部118は、この操作信号を受信して検索制御部131に出力し、検索制御部131は、この操作信号を取得する。そして、次のステップS203に進む。
First, step S201 is processed, and the
ステップS203では、検索制御部131は、検索サーバ情報記憶部132に記録された検索サーバ500のリスト(図6に示すような選択可能な検索サーバ500の情報)を取得して、表示制御部115に出力する。そして、表示制御部115は、この検索サーバ500のリストを表示部117に表示させる。
In step S <b> 203, the
そして、この表示された検索サーバ500のリストを参照したユーザは、リモコン700を操作して、リスト中の1の検索サーバ500を選択する。すると、リモコン700は、この選択された検索サーバ500を表した操作信号(検索サーバ選択情報)を出力する。
Then, the user who refers to the displayed list of
そして、ステップS205において、検索制御部131は、検索サーバ選択情報を操作信号受信部118を介して取得する。そして、ステップS207の処理が行われ、検索制御部131は、検索動作に使用する検索サーバ500の情報を更新する。従って、ユーザは、検索に使用する検索サーバ500を所望の検索サーバに変更することができる。
In step S <b> 205, the
(本実施形態に係る表示装置による効果の例)
以上、本実施形態に係る情報処理装置が適用された装置の一例である表示装置100について説明した。このような表示装置100によれば、放送データや外部データなどに含まれる映像データから、検索キーワードを抽出してネットワーク検索を行うことができる。従って、放送データや外部データを変更したり、新たに別途のデータベースなどを配置することなく、ネットワーク上のHPを検索して取得することができる。
(Example of effects by the display device according to the present embodiment)
The
この際、表示装置100は、フレーム解析を行うことにより、文字情報の認識処理にかかる計算量を削減することができる。よって、上記検索動作に要する時間を短縮することができる。更に、装非常に高い処理速度を要求することなく装置を構成することができるので、製造コストの増加を削減できる。
At this time, the
以上、本発明の第1実施形態に係る情報処理装置について説明した。
この第1実施形態に係る情報処理装置(表示装置100)では、ユーザの操作に応じてリモコン700が出力する操作信号をトリガーとして、上記検索動作を行う場合について説明した。よって、操作信号を受信した後に、フレーム解析処理(ステップS111の文字情報領域抽出処理)及び文字情報認識処理(ステップS113の文字情報抽出処理)が行われた。しかしながら、本発明はこの例に限定されるものではない。例えば、操作信号とは関係なく、表示部117に映像データを表示している最中に検索キーワードを検出し続けてもよい。従って、このような動作を行う本発明の第2実施形態に係る情報処理装置について、以下では説明する。ただし、この第2実施形態でも、情報処理装置が適用される機器として、表示装置を例に説明する。また、この第2実施形態に係る表示装置も、上記第1実施形態に係る表示装置100が有する構成と同様に構成することができる。従って、以下では、第1実施形態との相違点を中心に説明する。
The information processing apparatus according to the first embodiment of the present invention has been described above.
In the information processing apparatus (display apparatus 100) according to the first embodiment, a case has been described in which the search operation is performed using an operation signal output from the
<第2実施形態>
図11は、本発明の第2実施形態に係る表示装置の通常動作及び検索動作の一例について説明するための説明図である。
Second Embodiment
FIG. 11 is an explanatory diagram for explaining an example of a normal operation and a search operation of the display device according to the second embodiment of the present invention.
本実施形態に係る表示装置は、電源がONされると、まず、上記第1実施形態に係る表示装置100と同様に動作して、ステップS01,ステップS03及びステップS05を処理する(図7参照。)。その後、ステップS301が処理される。
When the power is turned on, the display device according to the present embodiment first operates in the same manner as the
このステップS301では、フレーム取得部121が、フレーム制御部114Aから現在のフレーム(カレントフレーム)を取得する。この際、フレーム取得部121は、Iフレームを取得する。なお、本実施形態では、フレーム制御部114A,第1フレーム記憶部114B及び第2フレーム記憶部114Cは必ずしも必要ではなく、フレーム取得部121は、例えば、ビデオデコーダ113Cから現在のフレームを受取ってもよい。そして、ステップS111に進む。
In step S301, the
このステップS111と、これに後続するステップS113及びステップS115は、第1実施形態に係る表示装置100では操作信号を受信した後に処理されたが、本実施形態に係る表示装置は、ステップS111〜ステップS115を常時処理する。つまり、ユーザが放送データなどを視聴している最中には、ステップS111〜ステップS115の処理が行われ、映像データの各フレームで表示される文字情報が、常時抽出されてキーワード記憶部125に記録される。よって、キーワード記憶部125には、視聴中の放送データなどに含まれる文字情報が蓄積される。
Step S111 and subsequent steps S113 and S115 are processed after receiving the operation signal in the
ネットワーク検索を行いたいユーザは、例えばリモコン700の「検索ボタン」を押下する。すると、リモコン700からは、検索要求を表した操作信号が出力される。一方、ステップS115の処理後には、ステップS303に進み、検索制御部131は、リモコン700が出力した検索要求を表した操作信号を操作信号受信部118を介して取得したか否かを確認する。検索要求を表した操作信号を取得した場合には、ステップS305に進む。一方、検索要求を表した操作信号を取得していない場合には、再度ステップS01以降の処理が行われる。ただし、ステップS305に進んだ場合でも、ステップS305以降の処理と並行してステップS01〜ステップS115が処理されてもよい。
A user who wants to perform a network search presses a “search button” on the
ステップS305では、検索制御部131が、キーワード記憶部125に記録された文字情報を取得して表示制御部115に出力する。そして、表示制御部115は、この文字情報を、表示部117に表示させる。このステップS303及びステップS305の処理中に表示部117に表示される表示画面の一例を、図9A,図12A及び図12Bに示す。
In step S <b> 305, the
まず、表示部117が、図9Aに示す放送データのフレームF1を表示している状態で、ユーザが、例えばインターネット検索を行うためにリモコン700の「検索ボタン」を押下した場合、操作信号受信部118は、リモコン700から出力された所定の操作信号を受信する。すると、上記ステップS303及びステップS305の処理が行われ、表示部117には、図12Aに示す表示画像が表示される。つまり、表示制御部115は、表示部117のモードを2画面モード(2以上の画面のモードでもよい。)に切替え、例えば、表示部117の左方画面Lには、視聴中の放送データのフレームを表示させ、表示部117の右方画面Rには、フレームから抽出されキーワード記憶部125に蓄積された文字情報WL1をリスト表示させる。更に、文字認識部124が情報データから文字情報を抽出している場合、表示制御部115は、表示部117の右方画面Rには、情報データから抽出されてキーワード記憶部125に蓄積された文字情報WL2をも表示させる(図12A参照。)。この際、情報データから抽出された文字情報WL2に含まれた検索キーワードが、フレームから抽出された文字情報WL1中に含まれる場合、表示制御部115は、文字情報W1中から、その重複した検索キーワードの全てを取り除き、重複した検索キーワードを表示部117への表示対象から取り除く。このように文字情報WL1と文字情報WL2とで重複している検索キーワードを表示しないことにより、ユーザが検索キーワードを選択する際に余分な情報を表示させずに済み、操作性が向上する。また、一画面に表示させることができる情報の数を増やすこともできる。
First, when the
そして、次のステップS307が処理され、検索制御部131がキーワード記憶部125に記録された文字情報から、検索キーワードを選択する。より具体的には、ユーザは、表示部117に表示された文字情報を参照して、リモコン700を操作することにより、検索キーワードとして使用したい文字情報を選択する(図12B参照。)。すると、リモコン700は、選択された文字情報を表した操作信号を出力する。そして、検索制御部131は、操作信号を操作信号受信部118を介して取得し、この操作信号に表された文字情報を検索キーワードとして選択する。そして、ステップS119に進む。ステップS119以降の処理は、ステップS127(新たなフレームが選択されか否かの確認処理)が行われない以外、上記第1実施形態に係る表示装置100が行う検索動作における処理と同様である(図8参照)。
The next step S307 is processed, and the
以上、本実施形態に係る情報処理装置が適用された装置の一例である表示装置について説明した。このような表示装置によれば、上記第1実施形態に係る表示装置が奏することができる効果に加えて、更に、例えばユーザの手元にリモコン700がない場合など、検索を行いたい文字情報が表示された時点からしばらくの間(第1フレーム記憶部114B及び第2フレーム記憶部114Cから当該文字情報が含まれるフレームが消去されるまでの間)リモコン700を操作することができない場合にも、適切な検索キーワードを使用してネットワーク検索を行うことができる。
In the above, the display apparatus which is an example of the apparatus to which the information processing apparatus according to the present embodiment is applied has been described. According to such a display device, in addition to the effects that can be achieved by the display device according to the first embodiment, character information to be searched is displayed, for example, when the
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されないことは言うまでもない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described in detail, referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
例えば、上記実施形態では、フレーム解析部123が第1の抽出と第2の抽出の両方を行う場合について説明した。しかし、本発明はかかる例に限定されない。例えば、フレーム解析部123は、第1の抽出及び第2の抽出のどちらか一方を行ってもよい。また、例えば、これらの抽出を行わない場合、検索部120は、フレーム解析部123を備えなくてもよい。
For example, in the above embodiment, the case where the
また、上記実施形態では、フレーム取得部121は、Iピクチャを取得して、フレーム解析部123は、このIピクチャを使用して、文字情報領域(静止領域)の抽出を行う場合について説明した。しかし、本発明はかかる例に限定されない。フレーム取得部121は、例えば、Iピクチャと共に、BピクチャやPピクチャなどの前後のフレームを参照することにより静止領域を抽出してもよい。この場合、フレーム解析部123は、BピクチャやPピクチャなどに含まれる、フレーム間の差分を表した信号(差分情報)や動き補償(フレーム間予想)技術で使用される情報(動きベクトルなど)に基づいて、Iピクチャ中の静止領域を抽出してもよい。
In the above embodiment, the case has been described in which the
また、上記各実施形態で説明した一連の処理は、専用のハードウエアにより実行させてもよいが、ソフトウエアにより実行させてもよい。一連の処理をソフトウエアにより行う場合、図13に示すような汎用又は専用のコンピュータにプログラムを実行させることにより、上記の一連の処理を実現することができる。 In addition, the series of processes described in the above embodiments may be executed by dedicated hardware, but may be executed by software. When a series of processing is performed by software, the above-described series of processing can be realized by causing a general-purpose or dedicated computer as shown in FIG. 13 to execute the program.
図13は、プログラムを実行することにより一連の処理を実現するコンピュータの構成例を説明するための説明図である。一連の処理を行うプログラムのコンピュータによる実行について説明すれば、以下のようになる。 FIG. 13 is an explanatory diagram for explaining a configuration example of a computer that realizes a series of processes by executing a program. The execution of a program for performing a series of processes by a computer will be described as follows.
図13に示すように、コンピュータは、例えば、バス901及び入出力インターフェイス906等を介して接続された、CPU(Central Processing Unit)902と、HDD(Hard Disk Drive)903・ROM(Read Only Memory)904・RAM(Random Access Memory)905等の記録装置と、LAN(Local Area Network)・インターネット等のネットワーク400に接続されたネットワーク通信部133と、リモコン700・マウス・キーボード(図示せず)等の入力装置907と、フレキシブルディスク、各種のCD(Compact Disc)・MO(Magneto Optical)ディスク・DVD(Digital Versatile Disc)等の光ディスク、磁気ディスク、半導体メモリ等のリムーバブル記録媒体909等を読み書きするドライブ908と、表示部117・音声出力部116などの出力装置等を有する。
As shown in FIG. 13, the computer includes, for example, a CPU (Central Processing Unit) 902, an HDD (Hard Disk Drive) 903, and a ROM (Read Only Memory) connected via a
そして、CPU902が、記録装置に記録されたプログラム、ネットワーク400を介して受信したプログラム、またはリムーバブル記録媒体909から読み出したプログラム等に従って、各種の処理を実行することにより、上記の一連の処理が、実現される。この際、CPU902は、必要に応じて入力装置907から入力する情報や信号に基づいて各種の処理を行ってもよい。そして、この処理結果は、必要に応じて上記の記録装置やリムーバブル記録媒体909等に記録されてもよく、出力装置に出力されてもよく、ネットワーク400に送信されてもよい。
The
尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含むものである。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。 In this specification, the steps described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. The processing to be performed is also included. Further, it goes without saying that the order can be appropriately changed even in the steps processed in time series.
100 表示装置
111A 放送データ取得部
111B 外部データ取得部
112 デマルチプレクサ
113A オーディオデコーダ
113B データデコーダ
113C ビデオデコーダ
114A フレーム制御部
115 表示制御部
116 音声出力部
117 表示部
118 操作信号受信部
120 検索部
121 フレーム取得部
123 フレーム解析部
124 文字認識部
125 キーワード記憶部
131 検索制御部
132 検索サーバ情報記憶部
133 ネットワーク通信部
134 嗜好データ記憶部
200 放送局
310 アンテナ
320 ケーブル
330 外部機器
400 ネットワーク
500 検索サーバ
600 情報提供サーバ
700 リモコン
901 バス
902 CPU
903 HDD
904 ROM
905 RAM
906 入出力インターフェイス
907 入力装置
908 ドライブ
909 リムーバブル記録媒体
DESCRIPTION OF
903 HDD
904 ROM
905 RAM
906 Input /
Claims (9)
前記映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得するフレーム取得部と、
前記フレーム取得部により取得された各前記フレーム画像内で、所定数前の前記フレーム画像との差分がない画像領域を抽出する画像領域抽出部と、
前記画像領域抽出部により抽出された前記画像領域に含まれる文字情報を抽出する文字情報抽出部と、
前記文字情報抽出部により抽出された前記文字情報を検索キーワードとしてネットワーク上のコンテンツを検索する検索部と、
を備え、
前記表示手段は、前記検索部により検索された前記コンテンツを前記表示画面に表示することを特徴とする、情報処理装置。 Display means for displaying video based on input video data on a display screen;
A frame acquisition unit that sequentially acquires frame images in response to a user operation or automatically from the video data;
An image area extraction unit that extracts an image area that is not different from the frame image of a predetermined number of times in each of the frame images acquired by the frame acquisition unit;
A character information extraction unit that extracts character information included in the image region extracted by the image region extraction unit;
A search unit for searching content on a network using the character information extracted by the character information extraction unit as a search keyword;
With
The information processing apparatus, wherein the display unit displays the content searched by the search unit on the display screen.
前記文字情報抽出部は、前記画像領域抽出部で前記所定のパターン形状を含むと判定された前記画像領域に含まれる文字情報を抽出することを特徴とする、請求項1に記載の情報処理装置。 The image area extraction unit determines whether or not the extracted image area includes a predetermined pattern shape,
The information processing apparatus according to claim 1, wherein the character information extraction unit extracts character information included in the image region determined to include the predetermined pattern shape by the image region extraction unit. .
前記検索部は、前記優先順位の高い前記文字情報に対応するコンテンツを最初に検索することを特徴とする、請求項1又は2に記載の情報処理装置。 The character information extraction unit, when there are a plurality of character information extracted from the image area, adds a priority according to a predetermined rule for each character information,
The information processing apparatus according to claim 1, wherein the search unit first searches for content corresponding to the character information having a high priority.
前記検索部は、ユーザの操作に応じて指定された前記文字情報に対応するコンテンツを検索することを特徴とする、請求項1〜3のいずれかに記載の情報処理装置。 The character information extraction unit, when there is a plurality of character information extracted from the image area, to display a list of the character information on the display screen,
The information processing apparatus according to claim 1, wherein the search unit searches for content corresponding to the character information specified in accordance with a user operation.
前記メモリ部に記憶された各前記フレーム画像のうち、ユーザの操作タイミングに最も近い前記フレーム画像と、当該フレーム画像を基準として所定の遡及時間内に記憶された各前記フレーム画像を読み出すメモリ制御部と、
を備え、
前記表示手段は、前記メモリ制御部により読み出された各前記フレーム画像を縮小画像として所定の配置パターンで前記表示画面に表示することを特徴とする、請求項1〜5に記載の情報処理装置。 A memory unit for sequentially storing the frame images acquired by the frame acquisition unit;
A memory control unit that reads out the frame image closest to the user's operation timing among the frame images stored in the memory unit, and the frame images stored within a predetermined retroactive time with reference to the frame image When,
With
The information processing apparatus according to claim 1, wherein the display unit displays each frame image read by the memory control unit as a reduced image on the display screen in a predetermined arrangement pattern. .
前記映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得し、
取得した各前記フレーム画像内で、所定数前の前記フレーム画像との差分がない画像領域を抽出し、
抽出した前記画像領域に含まれる文字情報を抽出し、
抽出した前記文字情報を検索キーワードとしてネットワーク上のコンテンツを検索し、
検索した前記コンテンツを表示画面に表示することを特徴とする、情報処理方法。 Display the video based on the input video data on the display image,
Sequentially obtaining frame images in response to user operations or automatically from the video data,
In each of the acquired frame images, extract an image area having no difference from the frame image of a predetermined number before,
Extract character information contained in the extracted image area,
Search the content on the network using the extracted character information as a search keyword,
An information processing method comprising displaying the searched content on a display screen.
入力される映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得するフレーム取得手段と、
前記フレーム取得手段により取得された各前記フレーム画像内で、所定数前の前記フレーム画像との差分がない画像領域を抽出する画像領域抽出手段と、
前記画像領域抽出手段により抽出された前記画像領域に含まれる文字情報を抽出する文字情報抽出手段と、
前記文字情報抽出手段により抽出された前記文字情報を検索キーワードとしてネットワーク上のコンテンツを検索する検索手段と、
前記検索手段により検索された前記コンテンツを表示画面に表示する表示手段と、
として機能させるためのプログラム。 Computer
Frame acquisition means for sequentially acquiring frame images in response to user operations or automatically from input video data;
Image area extraction means for extracting an image area that is not different from the predetermined number of frame images in each of the frame images acquired by the frame acquisition means;
Character information extracting means for extracting character information contained in the image area extracted by the image area extracting means;
Search means for searching content on a network using the character information extracted by the character information extraction means as a search keyword;
Display means for displaying the content searched by the search means on a display screen;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007337046A JP2009159437A (en) | 2007-12-27 | 2007-12-27 | Information processor, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007337046A JP2009159437A (en) | 2007-12-27 | 2007-12-27 | Information processor, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009159437A true JP2009159437A (en) | 2009-07-16 |
Family
ID=40962917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007337046A Withdrawn JP2009159437A (en) | 2007-12-27 | 2007-12-27 | Information processor, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009159437A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011517223A (en) * | 2008-04-09 | 2011-05-26 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | Television receiver and method |
JP2012103760A (en) * | 2010-11-05 | 2012-05-31 | Sharp Corp | Information processing apparatus, information processing method, and program |
JP2012160023A (en) * | 2011-01-31 | 2012-08-23 | Toshiba Corp | Character extracting device, display method, and character extracting method |
EP3370170A1 (en) | 2017-03-03 | 2018-09-05 | Fujitsu Limited | Feature term classification method, information processing apparatus, and feature term classification program |
-
2007
- 2007-12-27 JP JP2007337046A patent/JP2009159437A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011517223A (en) * | 2008-04-09 | 2011-05-26 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | Television receiver and method |
JP2012103760A (en) * | 2010-11-05 | 2012-05-31 | Sharp Corp | Information processing apparatus, information processing method, and program |
JP2012160023A (en) * | 2011-01-31 | 2012-08-23 | Toshiba Corp | Character extracting device, display method, and character extracting method |
EP3370170A1 (en) | 2017-03-03 | 2018-09-05 | Fujitsu Limited | Feature term classification method, information processing apparatus, and feature term classification program |
US10482138B2 (en) | 2017-03-03 | 2019-11-19 | Fujitsu Limited | Feature term classification method, information processing apparatus, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4482829B2 (en) | Preference extraction device, preference extraction method, and preference extraction program | |
US8666223B2 (en) | Electronic apparatus and image data management method | |
JP5038607B2 (en) | Smart media content thumbnail extraction system and method | |
US8285114B2 (en) | Electronic apparatus and display method | |
JP4905103B2 (en) | Movie playback device | |
US9378286B2 (en) | Implicit user interest marks in media content | |
CN101267522B (en) | Information processing apparatus, imaging apparatus, image display control method | |
JP2021525031A (en) | Video processing for embedded information card locating and content extraction | |
US8214368B2 (en) | Device, method, and computer-readable recording medium for notifying content scene appearance | |
JP2008061120A (en) | Reproducing apparatus, retrieving method and program | |
JP2010103843A (en) | Electronic apparatus, and video display method | |
JPWO2007029489A1 (en) | Content replay device, content playback device, content replay method, content playback method, program, and recording medium | |
CN108810580B (en) | Media content pushing method and device | |
JP2010087976A (en) | Information processing apparatus, information acquisition method, information acquisition program, and information retrieval system | |
JP2009048348A (en) | Information processing apparatus, method for searching through candidate for character information, and program for searching through candidate for character information | |
JP4814849B2 (en) | How to identify the frame | |
JP2009065712A (en) | Digital broadcast receiver and related information presenting program | |
JP2009159437A (en) | Information processor, information processing method, and program | |
JP2008118232A (en) | Video image reproducing unit | |
JP2005072826A (en) | Digital broadcast receiving system, content reproducing method, scene reproducing program, related information presenting program, and keyword searching program | |
JP4929128B2 (en) | Recording / playback device | |
US20130101271A1 (en) | Video processing apparatus and method | |
JP4882687B2 (en) | Recorded program management device | |
KR20060102639A (en) | System and method for playing mutimedia data | |
JP5091708B2 (en) | Search information creation device, search information creation method, search information creation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110301 |