JP2009159437A - Information processor, information processing method, and program - Google Patents

Information processor, information processing method, and program Download PDF

Info

Publication number
JP2009159437A
JP2009159437A JP2007337046A JP2007337046A JP2009159437A JP 2009159437 A JP2009159437 A JP 2009159437A JP 2007337046 A JP2007337046 A JP 2007337046A JP 2007337046 A JP2007337046 A JP 2007337046A JP 2009159437 A JP2009159437 A JP 2009159437A
Authority
JP
Japan
Prior art keywords
frame
unit
character information
search
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007337046A
Other languages
Japanese (ja)
Inventor
Tomomi Takizawa
朋美 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2007337046A priority Critical patent/JP2009159437A/en
Publication of JP2009159437A publication Critical patent/JP2009159437A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processor capable of easily acquiring a content on a network without adding new information to an image signal nor newly arranging a separate server or the like; an information processing method; and a program. <P>SOLUTION: This information processor includes: display means 115 and 117 displaying the image of image data on a display screen; a frame acquisition part 121 sequentially acquiring frame images from the image data in response to the operation of a user or automatically; an image region extraction part 123 extracting an image region without having a difference from a predetermined number of previous frame images within the respective frame images acquired by the frame acquisition part 121; a character information extraction part 124 extracting character information included in the image region extracted by the image region extraction part 123; and a retrieval part 131 retrieving a content on a network by using the character information extracted by the character information extraction part 124 as a keyword. The display means 115 and 117 display the content retrieved by the retrieval part 131 on the display screen. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

近年のインターネットの普及に伴い、例えばテレビ(以下「TV」ともいう。)で放映されるTV番組やコマーシャル(以下「CM」ともいう。)などの映像データ中に、インターネットに公開されているホームページ(以下「HP」ともいう。)などのコンテンツを参照するための情報が表示されることが多くなっている。このネットワーク上のコンテンツを参照するための情報としては、例えばURI(Uniform Resource Identifier)や検索キーワードなどが挙げられる。そして、映像データには、例えば『続きはインターネットで。「○○CM」検索。』などの文字情報が画像として表示される。   Along with the spread of the Internet in recent years, for example, homepages published on the Internet in video data such as TV programs and commercials (hereinafter also referred to as “CM”) broadcast on television (hereinafter also referred to as “TV”). Information for referring to content such as “HP” (hereinafter also referred to as “HP”) is often displayed. Examples of information for referring to the content on the network include a URI (Uniform Resource Identifier) and a search keyword. For example, “Continued on the Internet. Search for “XXCM”. Is displayed as an image.

この放映される映像データを視聴したユーザは、コンテンツをネットワーク上から取得するために、そのコンテンツを参照するための情報を書き留めたり記憶しておき、インターネットに接続可能な機器(例えばコンピュータなど)を使用してHTML Browser等を起動して、書き留めたり記憶していた情報を入力して、HPを取得したりインターネット検索を行うなどといった作業が必要である。   In order to acquire the content from the network, the user who has watched the video data to be broadcast writes down or stores information for referring to the content, and installs a device (such as a computer) that can be connected to the Internet. It is necessary to start up an HTML browser, etc., and write down or input stored information to acquire an HP or search the Internet.

一方、デジタル放送の開発及び普及に伴い、デジタルテレビなどインターネットに接続可能なTV受信機も開発されている。   On the other hand, with the development and popularization of digital broadcasting, TV receivers that can be connected to the Internet, such as digital television, have been developed.

このTV受信機によれば、ネットワーク上のコンテンツを取得するために、例えば、デジタル放送におけるデータ放送部分に付加情報を添付して、その付加情報を元にコンテンツをインターネットから取得してユーザに提供したり、ユーザにコンテンツの取得方法を提供する方法が提案されている。この方法の一例としては、特許文献1,2が挙げられる。この特許文献1,2では、ネットワーク上のコンテンツのURIを特定するタグ情報や文字情報を、映像データを含む放送波に埋め込んだり多重化して放送し、TV受信機が、そのタグ情報を元にネットワーク上のコンテンツを取得する。   According to this TV receiver, in order to acquire content on a network, for example, additional information is attached to a data broadcast portion in digital broadcasting, and the content is acquired from the Internet based on the additional information and provided to the user. And a method for providing a user with a content acquisition method has been proposed. Examples of this method include Patent Documents 1 and 2. In Patent Documents 1 and 2, tag information and character information for specifying a URI of content on a network are embedded in a broadcast wave including video data or multiplexed and broadcast, and a TV receiver is based on the tag information. Get content on the network.

また、例えば、別途のCMコンテンツ管理サーバを使用する方法も提案されている。この方法の一例としては、特許文献3,4が挙げられる。この特許文献3,4では、新たにCMコンテンツ管理サーバが設けられる。そして、CMコンテンツ管理サーバは、TV放送内のCMコンテンツの映像データを蓄積し、このサーバの管理者が、新規のCMコンテンツに対して、その映像データに含まれるメッセージとCMの企業名・商品名・楽曲・出演俳優などの付加情報とを関連付けてCMコンテンツ管理サーバに記録させる。そして、ユーザは、新規のCMコンテンツを視聴した場合、クライアント(TV受信機)を使用してCMコンテンツ管理サーバにアクセスし、CMに含まれるメッセージを検索キーワードとして入力して検索させることにより付加情報を取得する。   For example, a method of using a separate CM content management server has been proposed. Examples of this method include Patent Documents 3 and 4. In Patent Documents 3 and 4, a CM content management server is newly provided. Then, the CM content management server accumulates video data of the CM content in the TV broadcast, and the server administrator sends a message included in the video data and the company name / product of the CM to the new CM content. The CM content management server records the name / music / acting actor and other additional information in association with each other. When a user views a new CM content, the user accesses the CM content management server using a client (TV receiver), inputs a message included in the CM as a search keyword, and searches for additional information. To get.

特開2001−204005号公報JP 2001-204005 A 特開2003−219374号公報JP 2003-219374 A 特開2006−237878号公報JP 2006-237878 A 特開2006−237879号公報JP 2006-237879 A

しかしながら、上記特許文献1,2に記載の方法では、データ放送部に付加情報を新たに付加する際に、TV受信機の提供者、放送事業者及びコンテンツ製作者が協力して新たなTV放送サービスを開始しなければならない。つまり、TV放送で送信される情報自体を大きく変更する必要がある。また、上記特許文献3,4に記載の方法では、CMコンテンツ管理サーバに蓄積されるデータベースは管理者によって作成される。そのため、CMコンテンツ管理サーバの管理を行う必要がある。更に、ユーザはTV受信機を使用して映像データに含まれるメッセージを取得するものの、そのメッセージを検索キーワードとして別途TV受信機に入力する必要がある。   However, in the methods described in Patent Documents 1 and 2, when additional information is newly added to the data broadcasting unit, the TV receiver provider, the broadcaster, and the content producer cooperate to create a new TV broadcast. The service must be started. That is, it is necessary to greatly change the information itself transmitted by TV broadcasting. In the methods described in Patent Documents 3 and 4, the database stored in the CM content management server is created by the administrator. Therefore, it is necessary to manage the CM content management server. Furthermore, although the user uses the TV receiver to acquire a message included in the video data, it is necessary to separately input the message to the TV receiver as a search keyword.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、映像データに新たな情報を付加することなく、かつ、別途のサーバ等を新たに設けることなく、ネットワーク上のコンテンツを容易に取得することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to add new information to video data and to provide a new server or the like. Another object of the present invention is to provide a new and improved information processing apparatus, information processing method, and program capable of easily acquiring content on a network.

上記課題を解決するために、本発明のある観点によれば、入力される映像データに基づく映像を表示画面に表示する表示手段と、映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得するフレーム取得部と、フレーム取得部により取得された各フレーム画像内で、所定数前のフレーム画像との差分がない画像領域を抽出する画像領域抽出部と、画像領域抽出部により抽出された画像領域に含まれる文字情報を抽出する文字情報抽出部と、文字情報抽出部により抽出された文字情報を検索キーワードとしてネットワーク上のコンテンツを検索する検索部と、を備え、表示手段は、検索部により検索されたコンテンツを表示画面に表示することを特徴とする、情報処理装置が提供される。   In order to solve the above-described problems, according to an aspect of the present invention, display means for displaying a video based on input video data on a display screen, and a frame image from the video data according to a user operation or automatically A frame acquisition unit for sequentially acquiring images, an image region extraction unit for extracting an image region having no difference from a predetermined number of previous frame images in each frame image acquired by the frame acquisition unit, and an image region extraction unit A character information extraction unit that extracts character information included in the image area, and a search unit that searches content on the network using the character information extracted by the character information extraction unit as a search keyword. An information processing apparatus is provided, wherein content searched by a search unit is displayed on a display screen.

この構成によれば、フレーム取得部により、映像データのフレーム画像を取得し、画像領域抽出部により、所定数前のフレーム画像との差分がない画像領域を抽出することができる。そして、文字情報抽出部により、その画像領域に含まれる文字情報を抽出することができ、検索部により、この文字情報を検索キーワードとしてネットワーク上のコンテンツを検索することができる。更に、表示手段により、検索したコンテンツを表示画面に表示させることができる。   According to this configuration, the frame acquisition unit can acquire a frame image of video data, and the image region extraction unit can extract an image region that is not different from a predetermined number of previous frame images. Then, the character information extraction unit can extract the character information included in the image area, and the search unit can search the content on the network using the character information as a search keyword. Furthermore, the searched content can be displayed on the display screen by the display means.

また、画像領域抽出部は、抽出した画像領域が所定のパターン形状を含むか否かを判定し、文字情報抽出部は、画像領域抽出部で所定のパターン形状を含むと判定された画像領域に含まれる文字情報を抽出してもよい。
この構成によれば、画像領域抽出部により、所定のパターン形状を含むか否かを判定することができる。そして、文字情報抽出部により、所定のパターン形状を含むと判定された画像領域に含まれる文字情報を抽出することができる。
The image area extraction unit determines whether or not the extracted image area includes a predetermined pattern shape, and the character information extraction unit determines whether the image area extraction unit includes the predetermined pattern shape. The included character information may be extracted.
According to this configuration, the image region extraction unit can determine whether or not a predetermined pattern shape is included. Then, the character information extraction unit can extract the character information included in the image area determined to include the predetermined pattern shape.

また、文字情報抽出部は、画像領域から抽出した文字情報が複数存在する場合、各文字情報に対して所定規則に従った優先順位を付加し、検索部は、優先順位の高い文字情報に対応するコンテンツを最初に検索してもよい。
この構成によれば、文字情報抽出部により、複数の文字情報に優先順位を付加することができる。そして、検索部により、その優先順位の高い文字情報に対応するコンテンツを最初に検索することができる。
In addition, when there are a plurality of character information extracted from the image area, the character information extraction unit adds a priority according to a predetermined rule to each character information, and the search unit supports character information with a high priority. The content to be searched may be searched first.
According to this configuration, a priority order can be added to a plurality of character information by the character information extraction unit. And the content corresponding to the character information with a high priority can be searched first by the search part.

また、文字情報抽出部は、画像領域から抽出した文字情報が複数存在する場合、当該各文字情報を表示画面にリスト表示させ、検索部は、ユーザの操作に応じて指定された文字情報に対応するコンテンツを検索してもよい。
この構成によれば、文字情報抽出部により、複数の文字情報を表示画面にリスト表示させることができる。そして、検索部は、ユーザの操作に応じて指定された文字情報に対応するコンテンツを検索することができる。
In addition, when there are a plurality of character information extracted from the image area, the character information extraction unit displays each character information in a list on the display screen, and the search unit corresponds to the character information specified according to the user's operation. The content to be searched may be searched.
According to this configuration, a plurality of pieces of character information can be displayed as a list on the display screen by the character information extraction unit. And a search part can search the content corresponding to the character information designated according to a user's operation.

また、表示手段は、映像データと関連して受信した情報データに基づく各文字情報を表示画面に表示するととともに、当該表示画面にリスト表示されている文字情報抽出部により抽出された複数の文字情報の中から、情報データに基づく各文字情報と同一の文字情報を全て表示対象から取り除いてもよい。
この構成によれば、同一の文字情報を表示画面にリスト表示せずに済む。
The display means displays each character information based on the information data received in association with the video data on the display screen, and a plurality of character information extracted by the character information extraction unit displayed as a list on the display screen. All of the character information identical to the character information based on the information data may be removed from the display target.
According to this configuration, it is not necessary to list the same character information on the display screen.

また、フレーム取得部により取得された各フレーム画像を順次記憶するメモリ部と、メモリ部に記憶された各フレーム画像のうち、ユーザの操作タイミングに最も近いフレーム画像と、当該フレーム画像を基準として所定の遡及時間内に記憶された各フレーム画像を読み出すメモリ制御部と、を備え、表示手段は、メモリ制御部により読み出された各フレーム画像を縮小画像として所定の配置パターンで表示画面に表示してもよい。   Further, a memory unit that sequentially stores each frame image acquired by the frame acquisition unit, a frame image that is closest to the user operation timing among the frame images stored in the memory unit, and a predetermined value based on the frame image A memory control unit that reads out each frame image stored within the retroactive time, and the display means displays each frame image read out by the memory control unit as a reduced image on the display screen in a predetermined arrangement pattern. May be.

また、メモリ制御部は、メモリ部に記憶された各フレーム画像を、ユーザの操作タイミング時点からの遡及時間が長いものから順次消去してもよい。   In addition, the memory control unit may sequentially delete each frame image stored in the memory unit from the one with the longest retroactive time from the user operation timing.

また、上記課題を解決するために、本発明の別の観点によれば、入力される映像データに基づく映像を表示画像に表示し、映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得し、取得した各フレーム画像内で、所定数前のフレーム画像との差分がない画像領域を抽出し、抽出した画像領域に含まれる文字情報を抽出し、抽出した文字情報を検索キーワードとしてネットワーク上のコンテンツを検索し、検索したコンテンツを表示画面に表示することを特徴とする、情報処理方法が提供される。   In order to solve the above problems, according to another aspect of the present invention, a video based on input video data is displayed on a display image, and a frame image is automatically generated from the video data in accordance with a user operation. Are sequentially acquired, and an image area that is not different from a predetermined number of previous frame images is extracted from each acquired frame image, character information included in the extracted image area is extracted, and the extracted character information is searched as a search keyword. An information processing method is provided that searches for content on a network and displays the searched content on a display screen.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、入力される映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得するフレーム取得手段と、フレーム取得手段により取得された各フレーム画像内で、所定数前のフレーム画像との差分がない画像領域を抽出する画像領域抽出手段と、画像領域抽出手段により抽出された画像領域に含まれる文字情報を抽出する文字情報抽出手段と、文字情報抽出手段により抽出された文字情報を検索キーワードとしてネットワーク上のコンテンツを検索する検索手段と、検索手段により検索されたコンテンツを表示画面に表示する表示手段と、として機能させるためのプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a frame acquisition unit that sequentially acquires frame images in accordance with a user operation or automatically from input video data according to a computer; In each frame image acquired by the frame acquisition means, an image area extraction means for extracting an image area that is not different from a predetermined number of previous frame images, and character information included in the image area extracted by the image area extraction means Character information extracting means for extracting the content, search means for searching the content on the network using the character information extracted by the character information extracting means as a search keyword, and display means for displaying the content searched by the search means on the display screen, , A program for functioning is provided.

以上説明したように本発明によれば、映像データに新たな情報を付加することなく、かつ、別途のサーバ等を新たに設けることなく、ネットワーク上のコンテンツを容易に取得することができる。   As described above, according to the present invention, it is possible to easily acquire content on the network without adding new information to the video data and without newly providing a separate server or the like.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

本発明の各実施形態に係る情報処理装置は、一のコンテンツの映像データを再生することが可能で、かつ、ネットワークに接続可能な様々な機器、例えば、デジタルテレビなどの表示装置、ビデオプレーヤ・ビデオデッキ・HDDレコーダ・DVDプレーヤ・DVDレコーダなどの再生装置、テレビ放送を受信したり記録された映像コンテンツを再生できる携帯電話・コンピュータ・PDA(Personal Digital Assistant)・音楽再生装置などの機器に適用することができる。そして、この情報処理装置は、その映像データを表示した際にその表示映像に含まれる文字情報を抽出し、その文字情報を検索キーワードとしてインターネットなどのネットワーク上に蓄積された他のコンテンツを検索することができる。   An information processing apparatus according to each embodiment of the present invention can reproduce video data of one content and can be connected to a network, for example, a display device such as a digital TV, a video player, Applicable to playback devices such as VCRs, HDD recorders, DVD players, DVD recorders, mobile phones, computers, PDAs (Personal Digital Assistants), music playback devices that can receive TV broadcasts and play back recorded video content can do. When the video data is displayed, the information processing apparatus extracts character information included in the display video, and searches for other contents stored on a network such as the Internet using the character information as a search keyword. be able to.

以下では、この情報処理装置がデジタルテレビなどの表示装置に適用された場合を例に説明する。そして、表示装置は、TV放送などを受信して、受信したコンテンツの映像データを表示する場合を例に説明する。しかしながら、本発明の各実施形態に係る情報処理装置は、この表示装置に限定されるものではなく、かつ、映像データも、TV放送された映像データに限定されるものではない。   Hereinafter, a case where the information processing apparatus is applied to a display device such as a digital television will be described as an example. The case where the display device receives a TV broadcast or the like and displays video data of the received content will be described as an example. However, the information processing apparatus according to each embodiment of the present invention is not limited to this display apparatus, and the video data is not limited to video data broadcast on TV.

<第1実施形態>
まず、図1及び図2を参照して、本発明の第1実施形態に係る表示装置の構成について説明する。図1及び図2は、本実施形態に係る表示装置の構成を説明するための説明図である。
<First Embodiment>
First, with reference to FIG.1 and FIG.2, the structure of the display apparatus which concerns on 1st Embodiment of this invention is demonstrated. 1 and 2 are explanatory diagrams for explaining the configuration of the display device according to the present embodiment.

図1に示すように、本実施形態に係る情報処理装置が適応される機器の一例である表示装置100は、放送局200から送信されるTV放送などの映像データを、アンテナ310又はケーブル320を介して受信する。また、表示装置100は、例えばビデオプレーヤ・ビデオデッキ・HDDレコーダ・DVDプレーヤ・DVDレコーダなどの外部機器330から、その外部機器330(その外部機器330が読み取る記録媒体も含む)に記録された映像データを取得する。   As shown in FIG. 1, a display device 100, which is an example of a device to which the information processing apparatus according to the present embodiment is applied, transmits video data such as TV broadcast transmitted from a broadcasting station 200 to an antenna 310 or a cable 320. Receive via. In addition, the display device 100 displays video recorded on an external device 330 (including a recording medium read by the external device 330) from an external device 330 such as a video player, a video deck, an HDD recorder, a DVD player, or a DVD recorder. Get the data.

更に、表示装置100は、例えばインターネットなどのようなネットワーク400に接続可能である。そして、表示装置100は、ネットワーク400を介して検索サーバ500及び情報提供サーバ600と接続可能である。   Furthermore, the display device 100 can be connected to a network 400 such as the Internet. The display device 100 can be connected to the search server 500 and the information providing server 600 via the network 400.

検索サーバ500は、ネットワーク400上をキーワード検索するサーバの一例である。より具体的に検索サーバ500は、ネットワーク400を介して接続された他の機器から入力される検索要求に応じて、その機器から入力された検索キーワード(文字情報の一例)を含むHP(ネットワーク上のコンテンツの一例)がネットワーク上のどこに蓄積されているかを表した情報をネットワーク検索し、検索結果をその機器に出力する。ここでは、ネットワーク上のどこに蓄積されているかを表した情報の一例として、URI(Uniform Resource Identifier)を出力するとして説明する。
つまり、表示装置100は、この検索サーバを利用して検索キーワードを含むHPのURI等を検索することができる。
The search server 500 is an example of a server that searches the network 400 for keywords. More specifically, the search server 500 responds to a search request input from another device connected via the network 400, and includes an HP (on the network) including a search keyword (an example of character information) input from the device. Network search for information indicating where on the network is stored), and the search result is output to the device. Here, as an example of information indicating where the data is stored on the network, a URI (Uniform Resource Identifier) is output.
That is, the display device 100 can search for a URI or the like of an HP including a search keyword using the search server.

なお、この検索サーバ500は、URIと共に検索したHPに関する情報、例えば検索キーワードの前後の文章や画像などを他の機器に出力してもよい。また、この検索サーバ500としては、特定のサーバを新たに設置する必要はなく、ネットワーク400に接続された既存の如何なる検索サーバであってもよい。更に、表示装置100は、特定の検索サーバ500にアクセスする必要はなく、ネットワーク400に接続された複数の検索サーバの中から、検索に使用する検索サーバを選択することも可能である。   The search server 500 may output information related to the HP searched together with the URI, for example, texts and images before and after the search keyword to other devices. The search server 500 does not need to newly install a specific server, and may be any existing search server connected to the network 400. Further, the display device 100 does not need to access a specific search server 500, and can select a search server to be used for a search from a plurality of search servers connected to the network 400.

なお、検索サーバ500が検索する対象(ネットワーク上のコンテンツ)について、ここではHPを例示して説明してるが、このネットワーク上のコンテンツには、HPだけでなく、例えば音楽データ・文章データ・画像データなど、ネットワーク上に公開され、かつ、検索キーワードによって検索可能なあらゆるコンテンツが含まれる。   Note that the search target 500 (contents on the network) is described using HP as an example here, but the contents on this network include not only HP but also music data, text data, images, for example. This includes all contents such as data that are disclosed on the network and can be searched by a search keyword.

情報提供サーバ600は、様々な情報を蓄積してネットワーク上に公開しているサーバである。ここでは、この公開している情報は、例えば、HPであるとして説明する。また、各HPは、URIにより特定される。よって、上記検索サーバ500は、ネットワーク上に公開されたHP中に、検索キーワードが含まれるか否かを検索して、URIを特定する。   The information providing server 600 is a server that accumulates various information and publishes it on the network. Here, description will be made assuming that the disclosed information is, for example, HP. Each HP is specified by a URI. Therefore, the search server 500 searches for whether or not the search keyword is included in the HP published on the network, and specifies the URI.

一方、表示装置100は、その表示装置100を操作するための操作信号をリモートコントローラ(以下「リモコン」ともいう。)700から取得する。つまり、ユーザは、リモコン700を操作することにより表示装置100を操作することが可能である。なお、表示装置100は、操作信号を、リモコン700だけでなく、例えば表示装置100に配置された操作盤や操作ボタン、マウスポインタのようなポインタ、タッチスクリーンなどから取得してもよいが、以下では説明の便宜上、表示装置100は、操作信号をリモコン700から取得するとして説明する。また、以下では、このリモコン700は、「検索ボタン」と、「選択ボタン」と、「詳細ボタン」と、上下左右方向それぞれへの「移動ボタン」を有し、各ボタンが選択されるとリモコン700は、押下されたボタンに応じた操作信号を出力するとして説明するが、リモコン700が有するボタンもかかる例に限定されるものではない。   On the other hand, the display device 100 acquires an operation signal for operating the display device 100 from a remote controller (hereinafter also referred to as “remote controller”) 700. That is, the user can operate the display device 100 by operating the remote controller 700. The display device 100 may acquire the operation signal from not only the remote control 700 but also from, for example, an operation panel or operation buttons arranged on the display device 100, a pointer such as a mouse pointer, a touch screen, or the like. For convenience of explanation, the display device 100 will be described as acquiring an operation signal from the remote control 700. Hereinafter, the remote controller 700 has a “search button”, a “select button”, a “detail button”, and “move buttons” in the up / down / left / right directions. 700 is described as outputting an operation signal corresponding to the pressed button, but the buttons of the remote control 700 are not limited to this example.

(表示装置100の構成)
次に、図2を参照して、表示装置100の構成について説明する。
図2に示すように、表示装置100は、放送データ取得部111Aと、外部データ取得部111Bと、デマルチプレクサ112と、オーディオデコーダ113Aと、データデコーダ113Bと、ビデオデコーダ113Cと、フレーム制御部114Aと、表示制御部115と、音声出力部116と、表示部117と、操作信号受信部118と、検索部120と、ネットワーク通信部133とを有する。
(Configuration of display device 100)
Next, the configuration of the display device 100 will be described with reference to FIG.
As shown in FIG. 2, the display device 100 includes a broadcast data acquisition unit 111A, an external data acquisition unit 111B, a demultiplexer 112, an audio decoder 113A, a data decoder 113B, a video decoder 113C, and a frame control unit 114A. A display control unit 115, an audio output unit 116, a display unit 117, an operation signal receiving unit 118, a search unit 120, and a network communication unit 133.

放送データ取得部111Aは、例えば放送局200が放送してアンテナ310又はケーブル320を介して入力する放送データを取得する。そして、デマルチプレクサ(demultiplexer)112は、映像データ・音声データ・EPC(電子番組ガイド)等の情報データがまとめられて送信された放送データを、映像データ・音声データ・情報データそれぞれのストリームに分離する。   The broadcast data acquisition unit 111A acquires broadcast data that the broadcast station 200 broadcasts and is input via the antenna 310 or the cable 320, for example. The demultiplexer 112 demultiplexes the broadcast data transmitted by combining information data such as video data, audio data, and EPC (electronic program guide) into separate streams of video data, audio data, and information data. To do.

外部データ取得部111Bは、外部機器330に記録された外部データを取得する。この外部データには、少なくとも映像データが含まれ、他にも音声データ・情報データなどが含まれてもよい。   The external data acquisition unit 111B acquires external data recorded in the external device 330. This external data includes at least video data, and may also include audio data / information data.

なお、映像データは、デジタル放送の場合、例えばMPEG1・MPEG2・H.264などの規格で符合化されて送信又は記録される。また、映像データは、複数のフレーム画像(以下では単に「フレーム」ともいう。)に時間分割されている。例えばMPEG1・MPEG2・H.264などの規格では、データ量を少なくするために、映像データには、そのフレーム単体で1つの画像を表示可能なフレーム(例えばIピクチャ、Iフレーム)と、前後のフレームを参照することにより1つの画像を表示可能なフレーム(例えばBピクチャ、Pピクチャ)とが含まれる。なお、これらの圧縮形式の映像データでは、例えば、フレーム間予想や動き補償技術が使用される。そして、BピクチャやPピクチャには、フレーム間の差分を表した信号(差分情報)や動き補償(フレーム間予想)技術で使用される情報(動きベクトルなど)が含まれる。Bピクチャは、直前のIピクチャで表示された画像と、最も近い将来のPピクチャに含まれる情報とにより、1のフレームを表示させる。以下、フレーム単体で1つの画像を表示可能なフレームとして、Iピクチャを例に挙げ、前後のフレームを参照することにより1つの画像を表示可能なフレームとして、Bピクチャを例に挙げて説明するが、これらのフレームの名称は、圧縮形式によって異なってもよいことは言うまでもない。   In the case of digital broadcasting, for example, MPEG1, MPEG2, H. The data is encoded or transmitted according to a standard such as H.264. Further, the video data is time-divided into a plurality of frame images (hereinafter also simply referred to as “frames”). For example, MPEG1, MPEG2, H. In standards such as H.264, in order to reduce the amount of data, the video data is 1 by referring to a frame (for example, an I picture or an I frame) in which one frame can be displayed and a frame before and after the frame. A frame (for example, a B picture or a P picture) that can display one image is included. Note that, for example, inter-frame prediction and motion compensation techniques are used in these compressed video data. The B picture and the P picture include a signal (difference information) representing a difference between frames and information (motion vector and the like) used in a motion compensation (interframe prediction) technique. The B picture displays one frame based on the image displayed as the immediately preceding I picture and the information included in the nearest future P picture. Hereinafter, an I picture will be described as an example of a frame that can display one image by itself, and a B picture will be described as an example of a frame that can display one image by referring to the preceding and following frames. Needless to say, the names of these frames may differ depending on the compression format.

オーディオデコーダ113Aは、デマルチプレクサ112又は外部データ取得部111Bから入力する音声データをデコード(復号、decode)する。このデコードされた音声データは、例えばスピーカなどのような音声出力部116から出力される。なお、この音声出力部116には、例えばアンプなども含まれる。   The audio decoder 113A decodes (decodes) the audio data input from the demultiplexer 112 or the external data acquisition unit 111B. The decoded audio data is output from an audio output unit 116 such as a speaker. The audio output unit 116 includes an amplifier, for example.

データデコーダ113Bは、デマルチプレクサ112又は外部データ取得部111Bから入力する情報データをデコードする。そして、このデコードされた情報データは、表示制御部115に送られ、表示制御部115が必要に応じて表示部117に表示させる。   The data decoder 113B decodes the information data input from the demultiplexer 112 or the external data acquisition unit 111B. The decoded information data is sent to the display control unit 115, and the display control unit 115 causes the display unit 117 to display the data as necessary.

ビデオデコーダ113Cは、例えばMPEG1・MPEG2・H.264などの形式で圧縮された映像データをデコードする。   The video decoder 113C is, for example, MPEG1, MPEG2, H.264, or the like. The video data compressed in a format such as H.264 is decoded.

フレーム制御部114Aは、メモリ制御部の一例であって、ビデオデコーダ113Cがデコードした映像データのフレームを制御する。より具体的には、フレーム制御部114Aは、フレームのバッファとして動作する第1フレーム記憶部114B及び第2フレーム記憶部114C(メモリ部の一例)に接続される。そして、フレーム制御部114Aは、ビデオデコーダ113Cがデコードした映像データのフレームを、表示制御部115に出力する一方、第1フレーム記憶部114B又は第2フレーム記憶部114Cに順次記録させる。この際、フレーム制御部114Aは、図3に示すように、現在の時刻(カレント時刻)TからN秒(図3では、10秒)前までのフレームを記録させる。よって、この記録されたフレームは、ユーザが表示装置100に映像を表示させている間、更新される。このフレーム制御部114Aが記録させる映像データの長さ(N秒)は、適宜変更可能である。   The frame control unit 114A is an example of a memory control unit, and controls a frame of video data decoded by the video decoder 113C. More specifically, the frame control unit 114A is connected to a first frame storage unit 114B and a second frame storage unit 114C (an example of a memory unit) that operate as a frame buffer. Then, the frame control unit 114A outputs the video data frames decoded by the video decoder 113C to the display control unit 115, and sequentially records them in the first frame storage unit 114B or the second frame storage unit 114C. At this time, as shown in FIG. 3, the frame control unit 114A records frames from the current time (current time) T to N seconds (10 seconds in FIG. 3) before. Therefore, this recorded frame is updated while the user is displaying video on the display device 100. The length (N seconds) of the video data recorded by the frame control unit 114A can be changed as appropriate.

なお、フレーム制御部114Aが記録させるフレームは、Iピクチャのフレームである。また、フレーム制御部114Aは、時間が経過するに従い、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記憶されているフレーム中で遡及時間が長いものから順次消去する。換言すれば、フレーム制御部114Aは、記録させている過去の代表的なフレームの時間間隔が広くなるように、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録されたフレームを消去して、新たなフレームの記憶容量として使用する。   The frame to be recorded by the frame control unit 114A is an I picture frame. Also, the frame control unit 114A sequentially erases the frames stored in the first frame storage unit 114B or the second frame storage unit 114C from those having the longest retroactive time as time elapses. In other words, the frame control unit 114A erases the frames recorded in the first frame storage unit 114B or the second frame storage unit 114C so that the time interval of the past representative frames recorded is widened. And used as a storage capacity for a new frame.

つまり、ある時刻Tにおいて、第1フレーム記憶部114B又は第2フレーム記憶部114Cには、代表的なフレームとして、図3に示すように、例えば、時刻TのIピクチャ、時刻T−1(1秒前)のIピクチャ、時刻T−2(2秒前)のIピクチャ、時刻T−5(5秒前)のIピクチャ、及び時刻T−10(10秒前)のIピクチャが記録される。さらに、第1フレーム記憶部114B又は第2フレーム記憶部114Cには、これらに付随するフレームとして、上記のIピクチャに時間的に近い過去(未来であってもよい。)の1又は2以上のIピクチャがそれぞれ記録される。そして、時間が経過するに従い代表的なフレーム間の時間間隔が広くなるように、過去の代表的なフレームとそれに付随するフレームとが消去される。   That is, at a certain time T, as shown in FIG. 3, the first frame storage unit 114B or the second frame storage unit 114C has, for example, an I picture at time T and a time T-1 (1 Seconds), an I picture at time T-2 (2 seconds before), an I picture at time T-5 (5 seconds before), and an I picture at time T-10 (10 seconds before). . Further, the first frame storage unit 114B or the second frame storage unit 114C has one or more past (may be the future) near the above I picture as a frame accompanying them. Each I picture is recorded. Then, the past representative frame and the accompanying frame are erased so that the time interval between the representative frames becomes wider as time passes.

このように第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録されるフレームを、現在時刻Tに近いほど細かく、この時刻Tから過去に離れるほど荒くすることにより、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録するデータ量を削減することができる。なお、代表的なフレームを、例えば、時刻TのIピクチャと、時刻Tから所定時間(例えば1秒、2秒、5秒、10秒など)遡ったIピクチャとに設定することができる。また、これら代表的なフレームに付随するフレームを、代表的なフレームに時間的に近い過去(又は未来)の所定枚数又は所定時間中のIピクチャに設定することができる。換言すれば、付随するフレームが、代表的なフレームと同一のシーンを表示した他のIピクチャになるように設定されることが好ましい。なお、ここで言うシーン(場面)とは、例えば同一の撮影場所で同一のカメラにて撮影された映像データなどのように、フレーム中に表された画像データが大きく変化しない複数のフレームの集まりを言う。   Thus, by making the frame recorded in the first frame storage unit 114B or the second frame storage unit 114C finer as it is closer to the current time T, and rougher as it leaves the past from this time T, the first frame storage unit 114B Alternatively, the amount of data recorded in the second frame storage unit 114C can be reduced. Note that a representative frame can be set, for example, as an I picture at time T and an I picture retroactive from the time T by a predetermined time (eg, 1 second, 2 seconds, 5 seconds, 10 seconds, etc.). Further, the frames accompanying these representative frames can be set to a predetermined number of past (or future) temporally close to the representative frames or I pictures in a predetermined time. In other words, it is preferable to set the accompanying frame to be another I picture displaying the same scene as the representative frame. Note that a scene here refers to a collection of a plurality of frames in which image data represented in a frame does not change significantly, such as video data shot by the same camera at the same shooting location. Say.

第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録されたフレームは、下記の検索部120が検索動作中に使用する。よって、フレーム制御部114Aは、検索部120の検索動作が開始されると、フレームを記録させる記憶部を第1フレーム記憶部114Bと第2フレーム記憶部114Cとの間で切替える。つまり、第1フレーム記憶部114Bにフレームを記録している最中に、検索部120の検索動作が開始されると、第1フレーム記憶部114Bに記録されたフレームは、検索部120における検索動作に使用される。一方、フレーム制御部114Aは、再生されているフレームを引き続き第2フレーム記憶部114Bに記録させる。よって、検索部120は、再度検索動作を開始した場合、今度は第2フレーム記憶部114Bに記録されたフレームを使用することができる。このように2つのバッファを備えることにより、フレーム制御部114Aは、流れ続けるフレームを絶え間なく記録させることができ、検索部120は、検索対象となるフレームを漏れなく取得することができる。   The frames recorded in the first frame storage unit 114B or the second frame storage unit 114C are used during the search operation by the search unit 120 described below. Therefore, when the search operation of the search unit 120 is started, the frame control unit 114A switches the storage unit for recording the frame between the first frame storage unit 114B and the second frame storage unit 114C. That is, when the search operation of the search unit 120 is started while the frame is being recorded in the first frame storage unit 114B, the frame recorded in the first frame storage unit 114B is the search operation in the search unit 120. Used for. On the other hand, the frame control unit 114A continues to record the reproduced frame in the second frame storage unit 114B. Therefore, when the search unit 120 starts the search operation again, this time, the frame recorded in the second frame storage unit 114B can be used. By providing the two buffers in this way, the frame control unit 114A can continuously record frames that continue to flow, and the search unit 120 can acquire the frames to be searched without omission.

表示制御部115は、ビデオデコーダ113Cがデコードした映像データを受信して、表示部117にその映像を表示させる。なお、この表示制御部115は、更に映像データのフレーム以外に、データデコーダ113Bがデコードした情報データや、以下で説明する動作及び表示装置100の動作に関する所定の情報を表示させることもできる。また、表示制御部115は、表示部117に2画面表示などの複数画面表示を行わせることもできる。なお、この表示制御部115も、操作信号受信部118が取得した操作信号に応じて動作してもよい。   The display control unit 115 receives the video data decoded by the video decoder 113C and causes the display unit 117 to display the video. In addition to the video data frame, the display control unit 115 can also display information data decoded by the data decoder 113B and predetermined information related to the operation described below and the operation of the display device 100. The display control unit 115 can also cause the display unit 117 to perform multi-screen display such as two-screen display. The display control unit 115 may also operate according to the operation signal acquired by the operation signal receiving unit 118.

表示部117は、表示画面を有し、表示制御部115により制御され、表示制御部115から出力される映像を表示する。この表示部117は、例えば、ブラウン管(CRT:Cathode Ray Tube)・液晶ディスプレイ(LCD:Liquid Crystal Display)・プラズマディスプレイ(PDP:Plasma Display Panel)・電界放出ディスプレイ(FED:Field Emission Display)・有機エレクトロルミネッセンスディスプレイ(有機EL、OELD:Organic Electroluminescence Display)・ビデオプロジェクタなどであってもよい。なお、表示制御部115及び表示部117は、表示手段の一例である。   The display unit 117 has a display screen, is controlled by the display control unit 115, and displays an image output from the display control unit 115. The display unit 117 includes, for example, a cathode ray tube (CRT), a liquid crystal display (LCD), a plasma display panel (PDP), a field emission display (FED), and organic electroluminescence. It may be a luminescence display (organic EL, OELD: Organic Electroluminescence Display), a video projector, or the like. The display control unit 115 and the display unit 117 are examples of display means.

操作信号受信部118は、例えばリモコン700が出力する様々な操作信号を受信する。この操作信号は、通常の動作(例えば表示装置100の映像データの表示など)や、後述する検索動作などに使用される。   The operation signal receiving unit 118 receives various operation signals output from the remote controller 700, for example. This operation signal is used for a normal operation (for example, display of video data on the display device 100), a search operation described later, and the like.

つまり、この放送データ取得部111A又は外部データ取得部111B,ビデオデコーダ113C,フレーム制御部114A,表示制御部115,表示部117及び操作信号受信部118により映像データの表示が行われる。より具体的には、例えば操作信号受信部118から入力する所定の操作信号により、表示される入力ラインや放送チャンネルが決定されて、当該決定に基づいて放送データ取得部111A又は外部データ取得部111Bが映像データを取得する。そして、ビデオデコーダ113Cが、その映像データをデコードし、デコードされた映像データを、フレーム制御部114Aを介して表示制御部115に出力する。そして、表示制御部115は、この映像データを表示部117に表示させる。   That is, video data is displayed by the broadcast data acquisition unit 111A or the external data acquisition unit 111B, the video decoder 113C, the frame control unit 114A, the display control unit 115, the display unit 117, and the operation signal reception unit 118. More specifically, for example, an input line or a broadcast channel to be displayed is determined by a predetermined operation signal input from the operation signal receiving unit 118, and the broadcast data acquisition unit 111A or the external data acquisition unit 111B is determined based on the determination. Acquires video data. Then, the video decoder 113C decodes the video data, and outputs the decoded video data to the display control unit 115 via the frame control unit 114A. Then, the display control unit 115 causes the display unit 117 to display this video data.

検索部120は、フレーム取得部121と、フレーム解析部123と、文字認識部124と、キーワード記憶部125と、検索制御部131と、検索サーバ情報記憶部132と、嗜好データ記憶部134とを有する。   The search unit 120 includes a frame acquisition unit 121, a frame analysis unit 123, a character recognition unit 124, a keyword storage unit 125, a search control unit 131, a search server information storage unit 132, and a preference data storage unit 134. Have.

フレーム取得部121は、ユーザの操作に応じてか、又は、自動的に検索キーワードを含む複数のフレームを順次取得する。
より具体的には、フレーム取得部121は、ユーザの操作に応じてか、又は、自動的にフレーム制御部114Aにフレーム取得要求を出力し、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記憶された複数の代表的なフレーム(例えば、図3に示したIピクチャ)を、フレーム制御部114Aに取得させる。つまり、フレーム制御部114Aは、フレーム取得部121からのフレーム取得要求を取得すると、この要求を取得したタイミングに最も近いフレームと、このフレームを基準として所定の遡及時間内に記憶されたフレームとを、第1フレーム記憶部114B又は第2フレーム記憶部114Cから読み出す。この際、フレーム制御部114Aは、記録するフレームを第1フレーム記憶部114Bと第2フレーム記憶部114Cとの間で切替る。そして、フレーム制御部114Aは、取得した複数の代表的なフレームを表示制御部115に出力する。表示制御部115は、この取得した複数の代表的なフレームを表示部117に表示する。
The frame acquisition unit 121 sequentially acquires a plurality of frames including a search keyword in response to a user operation or automatically.
More specifically, the frame acquisition unit 121 outputs a frame acquisition request to the frame control unit 114A automatically in response to a user operation, and the first frame storage unit 114B or the second frame storage unit 114C. A plurality of representative frames (for example, the I picture shown in FIG. 3) stored in the frame control unit 114A are acquired. That is, when the frame control unit 114A acquires the frame acquisition request from the frame acquisition unit 121, the frame control unit 114A determines the frame closest to the timing at which the request is acquired and the frame stored within a predetermined retroactive time with reference to this frame. , Read from the first frame storage unit 114B or the second frame storage unit 114C. At this time, the frame control unit 114A switches the recording frame between the first frame storage unit 114B and the second frame storage unit 114C. Then, the frame control unit 114A outputs the acquired plurality of representative frames to the display control unit 115. The display control unit 115 displays the acquired plurality of representative frames on the display unit 117.

そして、フレーム取得部121は、どのフレームを検索対象とするのかを表した操作信号を操作信号受信部118が受信した場合、この操作信号に表された代表的なフレームと、その代表的なフレームに付随したフレームとを含む複数のフレームを、フレーム取得部121から取得する。一方、上記操作信号を操作信号受信部118が受信しない場合、フレーム取得部121は、フレーム取得要求を出力した時点Tにおける代表的なフレームと、その代表的なフレームに付随したフレームとを含む複数のフレームを、フレーム取得部121から取得する。そして、フレーム取得部121は、取得した複数のフレームをフレーム解析部123に出力する。このフレーム取得部121が取得するフレームの一例を、図4(A)〜(C)に示す。また、フレーム取得部121が取得する複数のフレームは、同一シーンを表したフレームであることが望ましい。   When the operation signal receiving unit 118 receives an operation signal indicating which frame is to be searched, the frame acquisition unit 121 and the representative frame represented by the operation signal and the representative frame are displayed. A plurality of frames including a frame attached to the frame acquisition unit 121 is acquired from the frame acquisition unit 121. On the other hand, when the operation signal reception unit 118 does not receive the operation signal, the frame acquisition unit 121 includes a plurality of frames including a representative frame at the time T when the frame acquisition request is output and a frame associated with the representative frame. Are acquired from the frame acquisition unit 121. Then, the frame acquisition unit 121 outputs the acquired plurality of frames to the frame analysis unit 123. An example of the frame acquired by the frame acquisition unit 121 is shown in FIGS. In addition, the plurality of frames acquired by the frame acquisition unit 121 are preferably frames representing the same scene.

なお、フレーム取得部121は、操作信号受信部118が受信した所定の操作信号(例えば検索ボタンの押下に対応)をトリガーとして、上記フレーム取得要求を出力する。換言すれば、フレーム取得部121は、フレーム制御部114Aに、操作信号受信部118が所定の操作信号を受信した時点Tのフレームと、それよりもN秒前までのフレームを取得させる(図3参照。)。   The frame acquisition unit 121 outputs the frame acquisition request using a predetermined operation signal (for example, corresponding to pressing of the search button) received by the operation signal receiving unit 118 as a trigger. In other words, the frame acquisition unit 121 causes the frame control unit 114A to acquire the frame at the time point T when the operation signal reception unit 118 receives the predetermined operation signal and the frame up to N seconds before that (FIG. 3). reference.).

また、上述のように、フレーム制御部114Aが取得するフレーム、つまり、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録されていたフレームは、操作信号受信部118が所定の操作信号を受信した時点Tに近いほど細かく、この時点Tから過去に離れるほど荒くなる。   Further, as described above, the operation signal receiving unit 118 receives a predetermined operation signal for a frame acquired by the frame control unit 114A, that is, a frame recorded in the first frame storage unit 114B or the second frame storage unit 114C. The closer to the received time point T, the finer it becomes, and the farther away from this time point T, the rougher it becomes.

フレーム解析部123は、画像領域抽出部の一例であって、フレーム取得部121が取得した複数のフレーム(1の代表的なフレームとそれに付随したフレームとを含む複数のフレーム)を解析して、ネットワーク400上の映像データに関連したコンテンツを検索するための検索キーワードとなり得る文字情報が含まれる領域(文字情報領域ともいう。)を抽出する。そのためにフレーム解析部123は、例えば以下のような2段階の抽出を行う。   The frame analysis unit 123 is an example of an image region extraction unit, and analyzes a plurality of frames acquired by the frame acquisition unit 121 (a plurality of frames including one representative frame and a frame attached thereto) An area (also referred to as a character information area) including character information that can be a search keyword for searching for content related to video data on the network 400 is extracted. For this purpose, the frame analysis unit 123 performs the following two-stage extraction, for example.

(第1の抽出)
まず、第1段階の抽出として、フレーム解析部123は、複数のフレーム間の差分が少ない領域、つまり、複数のフレーム間で画像データが変化しない領域を抽出する。つまり、映像データに含まれる検索キーワードとなりうる文字情報は、例えば図4(A)〜(C)に示す文字情報Wのように、変形や移動せずに、変化しないことが多い。一方、検索キーワードを含まない領域に表示される映像は、図4(A)〜(C)に示す移動物体Mのように複数のフレームが経過するに従い、変形や移動して、変化することが多い。従って、フレーム解析部123は、図5に示すように、フレーム間の差分が他の領域(移動物体Mを含む領域)に比べて少ない領域A(文字情報Wを含む領域)を抽出する。
(First extraction)
First, as a first-stage extraction, the frame analysis unit 123 extracts a region where the difference between a plurality of frames is small, that is, a region where the image data does not change between the plurality of frames. That is, the character information that can be a search keyword included in the video data often does not change without being deformed or moved, such as the character information W shown in FIGS. On the other hand, the video displayed in the area not including the search keyword may change and change as the plurality of frames elapse as the moving object M shown in FIGS. Many. Therefore, as shown in FIG. 5, the frame analysis unit 123 extracts a region A (region including character information W) in which the difference between frames is smaller than other regions (region including the moving object M).

このように映像が動かない、つまり画像データが変化しない領域(静止領域ともいう。)を抽出することにより、後述する文字認識部124における処理が行われるデータ量を削減し、処理に要する時間を短縮し、装置の処理性能を向上させることができる。   Thus, by extracting an area where the video does not move, that is, the image data does not change (also referred to as a still area), the amount of data to be processed in the character recognition unit 124 described later is reduced, and the time required for the process is reduced. It can be shortened and the processing performance of the apparatus can be improved.

なお、第1段階の抽出において、画像データが変化する領域(変化領域ともいう。)がない場合、フレーム解析部123は、例えば、そのフレームに含まれる全ての領域を抽出してもよい。逆に、第1段階の抽出において、静止領域(例えば領域A)がない場合、フレーム解析部123は、例えば、フレーム取得部121がフレーム制御部114Aから取得したフレーム、つまり、時刻Tにおけるフレーム又は操作信号に表されたフレームに含まれる全ての領域を抽出してもよい。   Note that in the first-stage extraction, when there is no region in which image data changes (also referred to as a change region), the frame analysis unit 123 may extract all the regions included in the frame, for example. On the other hand, in the first stage extraction, when there is no still region (for example, region A), the frame analysis unit 123, for example, the frame acquired by the frame acquisition unit 121 from the frame control unit 114A, that is, the frame at time T All regions included in the frame represented by the operation signal may be extracted.

(第2の抽出)
次に、第2段階の抽出として、フレーム解析部123は、フレームに含まれる画像データ(画像領域)が所定のパターン形状(以下単に「パターン」ともいう。)を含むか否かを判定する。より具体的には、フレーム解析部123は、フレームに含まれる画像データの所定のパターンを検出し、そのパターンを含む領域を抽出する。つまり、フレーム解析部123は、第1の抽出を行った場合には抽出された領域に対して、第1の抽出を行わない場合にはフレーム全体に対して、所定のパターンが含まれるか否かを検出する。そして、フレーム解析部123は、所定のパターンが含まれる場合には、そのパターンを含む領域を、検索キーワードとなりうる文字情報を含みうる領域として抽出する(抜き出す)。そして、フレーム解析部123は、その領域に含まれる画像の情報を、文字認識部124に出力する。
(Second extraction)
Next, as the second stage extraction, the frame analysis unit 123 determines whether or not the image data (image region) included in the frame includes a predetermined pattern shape (hereinafter also simply referred to as “pattern”). More specifically, the frame analysis unit 123 detects a predetermined pattern of the image data included in the frame and extracts a region including the pattern. That is, the frame analysis unit 123 determines whether or not a predetermined pattern is included in the extracted region when the first extraction is performed, and the entire frame when the first extraction is not performed. To detect. Then, if a predetermined pattern is included, the frame analysis unit 123 extracts (extracts) an area including the pattern as an area including character information that can be a search keyword. Then, the frame analysis unit 123 outputs information on the image included in the area to the character recognition unit 124.

なお、このパターンを含む領域は、パターンの内部と、パターンから所定の距離離隔した領域を含むことが好ましい。また、このパターンからの離隔距離は、文字情報を含みうる距離を統計的に導くことにより設定されてもよい。   The region including this pattern preferably includes the inside of the pattern and a region separated from the pattern by a predetermined distance. Further, the separation distance from this pattern may be set by statistically deriving a distance that can include character information.

より具体的にこの第2の抽出について説明する。一般的に、CMなどに含まれる検索キーワードとなりうる文字情報は、図4(A)〜(C)に示すように、インターネットの検索サイトにおける検索キーワード入力欄を模した形状のボックスB中に含まれる場合が多い。そこで、フレーム解析部123は、例えば、所定のパターンとして、このボックスBを特定し、このボックスBの近傍(ボックスBの内部も含む)の領域を抽出する。つまり、所定のパターン(所定の形状)とは、検索サイトにおける検索キーワード入力欄をユーザに連想させうる形状のことをいう。なお、所定のパターンはこのボックスBに限定されず、通常使用されている検索キーワード入力欄が多種多様である場合や、新たな検索キーワード記入欄が使用されるようになった場合には、それらを全て含むように所定のパターンを決定することも可能である。   More specifically, the second extraction will be described. In general, character information that can be a search keyword included in a CM or the like is included in a box B shaped like a search keyword input field on an Internet search site, as shown in FIGS. In many cases. Therefore, for example, the frame analysis unit 123 specifies the box B as a predetermined pattern, and extracts a region in the vicinity of the box B (including the inside of the box B). That is, the predetermined pattern (predetermined shape) refers to a shape that can remind the user of the search keyword input field in the search site. Note that the predetermined pattern is not limited to this box B. When there are various search keyword input fields that are normally used, or when a new search keyword entry field is used, these patterns are used. It is also possible to determine a predetermined pattern so that all are included.

更に具体的に説明すると、所定のパターンがボックスBである場合、フレーム解析部123は、例えば、画像データがボックスBであるか否かを特定するために、以下の条件を順次判定する。   More specifically, when the predetermined pattern is box B, the frame analysis unit 123 sequentially determines the following conditions in order to specify whether the image data is box B, for example.

(条件1)長方形又は角が丸い長方形(以下長方形Bともいう)があり、その長方形Bに近接する長方形又は角が丸い長方形(長方形C)があること(長方形Cは、例えば、長方形Bの右方向又は下方向にあることが好ましい。)。
(条件2)長方形Cの左右方向の幅は、長方形Bの左右方向の幅よりも短いこと。
(条件3)長方形Cの上下方向の高さは、長方形Bの上下方向の高さとほぼ等しいこと。
(Condition 1) There is a rectangle or a rectangle with rounded corners (hereinafter also referred to as rectangle B), and there is a rectangle close to the rectangle B or a rectangle with rounded corners (rectangle C). Preferably in the direction or down).
(Condition 2) The width of the rectangle C in the left-right direction is shorter than the width of the rectangle B in the left-right direction.
(Condition 3) The height of the rectangle C in the vertical direction is substantially equal to the height of the rectangle B in the vertical direction.

そして、フレーム解析部123は、上記の条件を多く満たすパターンが、ボックスBである可能性が高いとして、当該パターンの近傍の領域を抽出する。なお、例えば、条件を満たすパターンが複数ある場合には、フレーム解析部123は、複数のパターンを含む領域を抽出してもよく、条件を満たすパターンがない場合には、第2の抽出の対象となった領域の全てを抽出してもよい。   Then, the frame analysis unit 123 extracts a region in the vicinity of the pattern, assuming that there is a high possibility that the pattern that satisfies many of the above conditions is the box B. For example, when there are a plurality of patterns that satisfy the condition, the frame analysis unit 123 may extract a region including the plurality of patterns, and when there is no pattern that satisfies the conditions, the second extraction target All of the regions that have become may be extracted.

このように検索キーワードとなりうる文字情報を含みうる領域(文字情報領域)を特定することにより、後述する文字認識部124における処理が行われるデータ量を削減し、処理に要する時間を短縮し、装置の処理性能を向上させることができ、かつ、検索キーワードとなりうる情報の量を削減することができる。   By specifying an area (character information area) that can contain character information that can be a search keyword in this way, the amount of data to be processed in the character recognition unit 124, which will be described later, is reduced, and the time required for the process is reduced. And the amount of information that can be a search keyword can be reduced.

文字認識部124は、文字情報抽出部の一例であって、フレーム解析部123が抽出した領域(文字情報領域)に対して文字認識を行い、その領域に含まれる文字情報を抽出する。そして、文字認識部124は、抽出した文字情報を表示制御部115及び検索制御部131に出力する。この際、文字認識部124は、抽出した文字情報をキーワード記憶部125に記録させてもよい。また、文字認識部124は、データデコーダ113Bに含まれる情報データを取得して、情報データから検索キーワードとなりうる文字情報を抽出して、キーワード記憶部125に記録させてもよい。なお、キーワード記憶部125は、文字情報認識処理におけるバッファとしても機能することができる。   The character recognition unit 124 is an example of a character information extraction unit, and performs character recognition on the region (character information region) extracted by the frame analysis unit 123, and extracts character information included in the region. Then, the character recognition unit 124 outputs the extracted character information to the display control unit 115 and the search control unit 131. At this time, the character recognition unit 124 may record the extracted character information in the keyword storage unit 125. The character recognition unit 124 may acquire information data included in the data decoder 113B, extract character information that can be a search keyword from the information data, and record the character information in the keyword storage unit 125. The keyword storage unit 125 can also function as a buffer in the character information recognition process.

なお、文字認識部124は、文字情報を複数抽出してもよく、複数の文字情報を抽出した場合には、各文字情報に優先順位を付加する。この優先順位としては、例えば、ボックスB中に含まれていた文字情報に対しては高い優先順位が付加され、ボックスBから離れるほど低くなる優先順位が付加されてもよい。また、優先順位として、英数字とピリオド(.)だけで構成された文字情報がある場合、その文字情報に高い優先順位を付加してもよい。更に優先順位として、文字の大きさに応じて優先順位を付加してもよい。また、抽出した順番に応じた優先順位を付加することも可能である。   Note that the character recognition unit 124 may extract a plurality of pieces of character information. When a plurality of pieces of character information are extracted, a priority order is added to each piece of character information. As this priority order, for example, a high priority order may be added to the character information included in the box B, and a lower priority order may be added as the distance from the box B increases. Further, when there is character information composed only of alphanumeric characters and periods (.) As priorities, a higher priority may be added to the character information. Furthermore, a priority order may be added according to the character size. It is also possible to add priorities according to the extracted order.

この文字認識部124が行う文字認識は、例えば、OCR(Optical Character Recognition)・BCR(Bar Code Reader)・CRUなどで行われるパターンマッチングと同様の処理により行われてもよい。   The character recognition performed by the character recognition unit 124 may be performed by a process similar to pattern matching performed by, for example, OCR (Optical Character Recognition), BCR (Bar Code Reader), or CRU.

検索制御部131は、検索部の一例であって、ネットワーク400に接続可能なネットワーク通信部133を介して、ネットワーク上のHP(ネットワーク上のコンテンツの一例)を検索する。この際、検索制御部131は、文字認識部124が抽出した文字情報を検索キーワードとして使用して、ネットワーク検索を行う。なお、文字認識部124が複数の文字情報を抽出した場合、まず、優先順位の高い文字情報を使用して検索を行い、操作信号受信部118から他の文字情報を表した操作信号を取得した場合、その文字情報を使用して検索を行う。   The search control unit 131 is an example of a search unit, and searches for an HP on the network (an example of content on the network) via the network communication unit 133 that can be connected to the network 400. At this time, the search control unit 131 performs a network search using the character information extracted by the character recognition unit 124 as a search keyword. When the character recognition unit 124 extracts a plurality of pieces of character information, first, a search is performed using character information having a high priority, and an operation signal representing other character information is obtained from the operation signal reception unit 118. In that case, a search is performed using the character information.

より具体的には、検索制御部131は、文字情報を検索キーワードとして、ネットワーク通信部133とネットワーク400を介して検索サーバ500に検索させ、検索サーバ500の検索結果をネットワーク通信部133に取得させる。一方、ネットワーク通信部133は、その検索結果を表示制御部115に出力する。なお、このネットワーク通信部133は、操作信号受信部118からネットワーク上のHPを指定する操作信号を取得した場合、そのHPで公開されている情報をネットワーク400を介して情報提供サーバ600から取得して、検索制御部131に出力する。そして、検索制御部131は、受取ったHPに公開されている情報を、表示制御部115に出力する。なお、上記ネットワーク通信部133は、例えばHTML Browserなどにより構成されてもよい。   More specifically, the search control unit 131 causes the search server 500 to search using the character information as a search keyword via the network communication unit 133 and the network 400, and causes the network communication unit 133 to acquire the search result of the search server 500. . On the other hand, the network communication unit 133 outputs the search result to the display control unit 115. When the network communication unit 133 acquires an operation signal designating an HP on the network from the operation signal receiving unit 118, the network communication unit 133 acquires information published on the HP from the information providing server 600 via the network 400. To the search control unit 131. Then, the search control unit 131 outputs information received on the received HP to the display control unit 115. The network communication unit 133 may be configured by, for example, an HTML browser.

また、検索制御部131は、上記のネットワーク検索に使用する検索サーバ500を変更することもできる。より具体的には、検索制御部131は、検索サーバ情報記憶部132に接続され、検索サーバ情報記憶部132には、図6に示すような選択可能な検索サーバ500の情報(検索サーバ500のリスト)が記録されている。この検索サーバ500の情報としては、例えば検索サーバのURIなどが挙げられる。そして、検索制御部131は、この検索サーバ情報記憶部132から検索サーバ500の情報を取得して、現在設定されている検索サーバ500とは異なる検索サーバ500を新たに設定してもよい。   The search control unit 131 can also change the search server 500 used for the network search. More specifically, the search control unit 131 is connected to the search server information storage unit 132, and the search server information storage unit 132 stores information on selectable search servers 500 as shown in FIG. List) is recorded. As information of the search server 500, for example, the URI of the search server can be cited. Then, the search control unit 131 may acquire information on the search server 500 from the search server information storage unit 132, and may newly set a search server 500 different from the currently set search server 500.

更に、検索制御部131は、検索キーワードとして使用した文字列や、ネットワーク通信部133が取得したHPを特定するための情報(例えばURIやそのコンテンツ自身など)を、ユーザの嗜好データとして嗜好データ記憶部134に記録させてもよい。この嗜好データ記憶部134に記録された嗜好データは、例えば、ユーザの嗜好を解析したり、文字認識部124における文字認識処理や、その文字情報に優先順位を付加する処理を行う際に使用されてもよい。   Further, the search control unit 131 stores the character string used as the search keyword and information for specifying the HP acquired by the network communication unit 133 (for example, the URI and the content itself) as the preference data of the user. It may be recorded in the unit 134. The preference data recorded in the preference data storage unit 134 is used, for example, when analyzing user preferences, performing character recognition processing in the character recognition unit 124, or adding priority to the character information. May be.

以上、本実施形態に係る情報処理装置が適用された機器の一例である表示装置100の構成について説明した。次に、本実施形態に係る表示装置100の動作について説明する。   The configuration of the display device 100 that is an example of a device to which the information processing apparatus according to the present embodiment is applied has been described above. Next, the operation of the display device 100 according to the present embodiment will be described.

(表示装置100の通常の動作)
まず、図7を参照しつつ、本実施形態に係る表示装置100の通常の動作、つまり、ユーザが放送データ又は外部データを視聴している際の表示装置100の動作について説明する。図7は、本実施形態に係る表示装置の通常の動作を説明するための説明図である。
(Normal operation of display device 100)
First, a normal operation of the display device 100 according to the present embodiment, that is, an operation of the display device 100 when the user is viewing broadcast data or external data will be described with reference to FIG. FIG. 7 is an explanatory diagram for explaining a normal operation of the display device according to the present embodiment.

表示装置100の電源がONされると、まず、放送データ取得部111Aが放送データを取得し、かつ、操作信号受信部118が受信した操作信号が放送データの視聴を表している場合、デマルチプレクサ112が、放送データを映像データ・音声データ・情報データそれぞれのストリームに分離する。そして、各データは、それぞれ対応したデコーダに送られる。一方、外部データ取得部111Bが外部データを取得し、かつ、操作信号受信部118が受信した操作信号が外部データの視聴を表してる場合、外部データに含まれる映像データ・音声データ・情報データも、それぞれ対応したデコーダに送られる。そして、ステップS01の処理が行われる。なお、以下では、放送データを放送データ取得部111Aが取得した場合を例に挙げて説明する。   When the power of the display device 100 is turned on, first, when the broadcast data acquisition unit 111A acquires broadcast data and the operation signal received by the operation signal reception unit 118 indicates viewing of the broadcast data, the demultiplexer 112 separates the broadcast data into video data, audio data, and information data streams. Each data is sent to a corresponding decoder. On the other hand, when the external data acquisition unit 111B acquires external data and the operation signal received by the operation signal reception unit 118 represents viewing of external data, video data, audio data, and information data included in the external data are also included. Are sent to corresponding decoders. Then, the process of step S01 is performed. In the following, a case where broadcast data is acquired by the broadcast data acquisition unit 111A will be described as an example.

このステップS01では、オーディオデコーダ113Aが、音声データをデコードし、音声出力部116に出力させる。そして、データデコーダ113Bが、情報データをデコードし、表示制御部115に出力する。更に、ビデオデコーダ113Cが、映像データをデコードし、フレーム制御部114Aに出力する。   In step S01, the audio decoder 113A decodes the audio data and causes the audio output unit 116 to output it. Then, the data decoder 113B decodes the information data and outputs it to the display control unit 115. Further, the video decoder 113C decodes the video data and outputs it to the frame control unit 114A.

次に、ステップS03の処理が行われ、フレーム制御部114Aが、デコードされた映像データに含まれるフレームを、第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録させる。また、フレーム制御部114Aは、デコードされた映像データを表示制御部115に出力する。そして、ステップS05に進む。   Next, the process of step S03 is performed, and the frame control unit 114A records the frames included in the decoded video data in the first frame storage unit 114B or the second frame storage unit 114C. Further, the frame control unit 114A outputs the decoded video data to the display control unit 115. Then, the process proceeds to step S05.

ステップS05では、表示制御部115が、映像データに含まれるフレームを、そのフレームを表示させるタイミングで表示部117に表示させる。同時に、音声出力部116が、オーディオデコーダ113Aでデコードされた音声データを、その音声データを出力すべきタイミングで出力する。また、表示制御部115は、データデコーダ113Bがデコードした情報データを、操作信号受信部118により受信された操作信号が情報データの表示を表している場合に、表示部117に表示させる。   In step S05, the display control unit 115 causes the display unit 117 to display a frame included in the video data at a timing for displaying the frame. At the same time, the audio output unit 116 outputs the audio data decoded by the audio decoder 113A at a timing at which the audio data should be output. In addition, the display control unit 115 causes the display unit 117 to display the information data decoded by the data decoder 113B when the operation signal received by the operation signal receiving unit 118 represents the display of the information data.

そして、ステップS07に進み、表示制御部115又は上位の制御装置が、電源がOFFされたか否かを確認する。電源がOFFされた場合、表示装置100は動作を終了し、電源がOFFされていない場合、ステップS01以降を繰り返し処理する。   Then, the process proceeds to step S07, and the display control unit 115 or the upper control device confirms whether the power is turned off. When the power is turned off, the display device 100 ends the operation, and when the power is not turned off, the processes after step S01 are repeated.

(表示装置100の検索動作の一例)
次に、図8及び図9A〜図9Dを参照しつつ、本実施形態に係る表示装置100の検索動作について説明する。図8は、本実施形態に係る表示装置の検索動作の一例について説明するための説明図である。図9A〜図9Dは、本実施形態に係る表示装置の検索動作の一例において、表示部に表示される表示画面の例について説明するための説明図である。
(Example of search operation of display device 100)
Next, the search operation of the display device 100 according to the present embodiment will be described with reference to FIGS. 8 and 9A to 9D. FIG. 8 is an explanatory diagram for explaining an example of a search operation of the display device according to the present embodiment. 9A to 9D are explanatory diagrams for explaining examples of display screens displayed on the display unit in an example of the search operation of the display device according to the present embodiment.

表示装置100の検索動作の一例では、表示装置100の検索動作は、操作信号受信部118が受信した所定の操作信号(例えば検索ボタンの押下に対応)をトリガーとして開始される。つまり、操作信号受信部118が「検索」を表した所定の操作信号を受信すると、フレーム取得部121は、フレーム取得要求をフレーム制御部114Aに出力し、ステップS101以降の処理が行われる。   In an example of the search operation of the display device 100, the search operation of the display device 100 is started with a predetermined operation signal (for example, corresponding to pressing of the search button) received by the operation signal receiving unit 118 as a trigger. That is, when the operation signal receiving unit 118 receives a predetermined operation signal indicating “search”, the frame acquisition unit 121 outputs a frame acquisition request to the frame control unit 114A, and the processes after step S101 are performed.

ステップS101では、フレーム制御部114Aが、フレームの記録に使用する記憶部を、第1フレーム記憶部114Bと第2フレーム記憶部114Cとの間で切替える。そして、ステップS103に進み、フレーム制御部114Aが、それまで記録に使用されていた第1フレーム記憶部114B又は第2フレーム記憶部114Cから、記録された複数のフレームを取得し、この複数のフレームを表示制御部115が表示部117に表示させる。この際、表示制御部115は、例えば図9Aに示すように、複数のフレームを縮小画像として所定の配置パターンで表示部117に表示させる。このステップS101及びステップS103の処理中に表示部117に表示される表示画面の一例を、図9A及び図9Bに示す。   In step S101, the frame control unit 114A switches the storage unit used for frame recording between the first frame storage unit 114B and the second frame storage unit 114C. In step S103, the frame control unit 114A acquires a plurality of recorded frames from the first frame storage unit 114B or the second frame storage unit 114C that have been used for recording, and the plurality of frames. Is displayed on the display unit 117 by the display control unit 115. At this time, the display control unit 115 causes the display unit 117 to display a plurality of frames as reduced images in a predetermined arrangement pattern, as shown in FIG. 9A, for example. An example of a display screen displayed on the display unit 117 during the processing of steps S101 and S103 is shown in FIGS. 9A and 9B.

まず、表示部117が、図9Aに示す放送データのフレームF1を表示している状態で、ユーザが、例えばフレームF1中にインターネット検索を行いたい検索キーワードなどが表示されているなどと判断して、リモコン700の「検索ボタン」を押下した場合、操作信号受信部118は、リモコン700から出力された所定の操作信号を受信する。すると、上記ステップS101及びステップS103の処理が行われ、表示部117には、図9Bに示す表示画像が表示される。つまり、表示制御部115は、表示部117のモードを2画面モード(2以上の画面のモードでもよい。)に切替え、例えば、表示部117の左方画面Lには、視聴中の放送データのフレームを表示させ、表示部117の右方画面Rには、フレーム制御部114Aが取得した第1フレーム記憶部114B又は第2フレーム記憶部114Cに記録された複数のフレームF1〜F5を表示させる。   First, in the state where the display unit 117 displays the broadcast data frame F1 shown in FIG. 9A, the user determines that, for example, a search keyword or the like to be searched for the Internet is displayed in the frame F1. When the “search button” on the remote controller 700 is pressed, the operation signal receiving unit 118 receives a predetermined operation signal output from the remote controller 700. Then, the processing of step S101 and step S103 is performed, and the display image shown in FIG. 9B is displayed on the display unit 117. That is, the display control unit 115 switches the mode of the display unit 117 to a two-screen mode (a mode of two or more screens). For example, the left screen L of the display unit 117 displays the broadcast data being viewed. A frame is displayed, and a plurality of frames F1 to F5 recorded in the first frame storage unit 114B or the second frame storage unit 114C acquired by the frame control unit 114A are displayed on the right screen R of the display unit 117.

そして、次のステップS105が処理される。
つまり、このステップS105では、フレーム取得部121が、操作信号受信部118が1のフレームの選択を表した操作信号を受信したか否かを確認する。より具体的には、ユーザは、図9Bに示す画像を参照して、リモコン700の上下左右の「移動ボタン」や「選択ボタン」などを押下することにより、検索キーワードとしたい文字情報が表示されている1のフレームを選択する。この選択操作に応じてリモコン700は、所定の操作信号を出力し、操作信号受信部118が、この操作信号を受信する。よって、フレーム取得部121は、1のフレームが選択されたか否かを、この操作信号を受信したか否かで判断する。1のフレームが選択された場合には、ステップS109に進み、所定の時間間隔が経過しても1のフレームが選択されていない場合には、ステップS109の前にステップS107に進む。
Then, the next step S105 is processed.
That is, in this step S105, the frame acquisition unit 121 confirms whether or not the operation signal reception unit 118 has received an operation signal indicating selection of one frame. More specifically, the user refers to the image shown in FIG. 9B and presses the “move button”, “select button”, etc. on the top, bottom, left and right of the remote control 700 to display the character information desired as the search keyword. 1 frame is selected. In response to this selection operation, the remote controller 700 outputs a predetermined operation signal, and the operation signal receiving unit 118 receives this operation signal. Therefore, the frame acquisition unit 121 determines whether or not one frame has been selected based on whether or not this operation signal has been received. If one frame is selected, the process proceeds to step S109. If one frame is not selected even after a predetermined time interval has elapsed, the process proceeds to step S107 before step S109.

ステップS107では、フレーム取得部121は、検索動作を開始した時点におけるフレーム、つまりユーザがリモコン700の「検索ボタン」を押下した時点において表示されていたフレーム(例えば、図9Aのフレーム)を、ユーザが選択する1のフレームの変わりに選択する。そして、ステップS109に進む。   In step S107, the frame acquisition unit 121 displays the frame at the time when the search operation is started, that is, the frame displayed when the user presses the “search button” on the remote control 700 (for example, the frame in FIG. 9A). Select instead of one frame to select. Then, the process proceeds to step S109.

ステップS109では、フレーム取得部121が、選択された1のフレームと、その前のフレーム(その後のフレームを含んでもよい。)を含む複数のフレームを、フレーム解析部123に出力する。そして、次のステップS111が処理され、このステップS111では、フレーム解析部123が、上記第1の抽出及び第2の抽出を行い文字情報領域を抽出する。更に、フレーム解析部123は、抽出した文字情報領域の画像データを、文字認識部124に出力し、次のステップS113に進む。   In step S <b> 109, the frame acquisition unit 121 outputs a plurality of frames including the selected one frame and the previous frame (may include subsequent frames) to the frame analysis unit 123. Then, the next step S111 is processed. In step S111, the frame analysis unit 123 performs the first extraction and the second extraction to extract a character information area. Further, the frame analysis unit 123 outputs the extracted image data of the character information area to the character recognition unit 124, and proceeds to the next step S113.

ステップS113では、文字認識部124が、文字情報領域に対して文字認識を行い、その領域に含まれる文字情報を抽出する。そして、ステップS115に進み、文字認識部124は、抽出した文字情報を、キーワード記憶部125に検索キーワードの候補として記録させると共に、検索制御部131に出力する。なお、上述のように、文字認識部124は、複数の文字情報を抽出した場合、各文字情報に優先順位を付加して記録させ、かつ、出力する。そして、ステップS117に進む。   In step S113, the character recognition unit 124 performs character recognition on the character information area and extracts character information included in the area. In step S 115, the character recognition unit 124 records the extracted character information in the keyword storage unit 125 as a search keyword candidate and outputs it to the search control unit 131. As described above, when a plurality of pieces of character information are extracted, the character recognizing unit 124 records each character information with a priority added thereto, and outputs it. Then, the process proceeds to step S117.

ステップS117では、検索制御部131が、抽出された複数の文字情報から、検索キーワードを1つ選択する。この際、検索制御部131は、優先順位の高い文字情報を検索キーワードとして選択する。そして、ステップS119に進む。   In step S117, the search control unit 131 selects one search keyword from the plurality of extracted character information. At this time, the search control unit 131 selects character information having a high priority as a search keyword. Then, the process proceeds to step S119.

なお、このステップS117では、検索制御部131は、例えば、操作信号受信部118が受信する操作信号が表す文字情報を選択してもよい。この場合、検索制御部131は、キーワード記憶部125に記録された複数の文字情報を表示制御部115に出力し、表示制御部115は、この複数の文字情報を表示部117に表示させる。そして、ユーザは、表示部117に表示された文字情報を選択し、リモコン700は、かかる選択に応じた操作信号を出力する。   In step S117, the search control unit 131 may select character information represented by the operation signal received by the operation signal receiving unit 118, for example. In this case, the search control unit 131 outputs the plurality of character information recorded in the keyword storage unit 125 to the display control unit 115, and the display control unit 115 causes the display unit 117 to display the plurality of character information. Then, the user selects character information displayed on the display unit 117, and the remote controller 700 outputs an operation signal corresponding to the selection.

ステップS119では、検索制御部131が、ステップS117で選択した検索キーワードに基づいてネットワーク検索する。より具体的には、検索制御部131は、既に設定されている検索サーバ500の情報を用いて、ネットワーク通信部133を介して検索サーバ500に接続する。そして、検索制御部131は、検索キーワードを検索サーバ500に出力して、検索キーワードに基づいてネットワーク上のHPを検索させる。ステップS119の処理後は、ステップS121に進む。   In step S119, the search control unit 131 performs a network search based on the search keyword selected in step S117. More specifically, the search control unit 131 connects to the search server 500 via the network communication unit 133 using information of the search server 500 that has already been set. Then, the search control unit 131 outputs the search keyword to the search server 500, and searches HP on the network based on the search keyword. After the process of step S119, the process proceeds to step S121.

ステップS121では、検索制御部131が、ネットワーク通信部133を介して検索サーバ500から検索結果を表したデータ(検索結果データとも言う。)を取得して、表示制御部115に出力する。そして、ステップS123に進み、表示制御部115は、検索結果データを表示部117に表示させる。検索結果を表示した表示部117の表示画面の一例を、図9Cに示す。図9Cに示すように、表示制御部115は、表示部117の表示画面を2画面表示モードに設定した状態で、表示部117の左方画面Lには視聴中の放送データのフレームを表示させる一方、表示部117の右方画面Rには検索結果データが表示される。検索結果データには、例えば、ネットワーク上のHPを特定するための情報(例えばURIなど)やHPで公開されている情報の一部又は全部が含まれてもよい。そして、これらの情報の一部には、そのHPへのリンクが貼られている。このステップS123の処理後は、ステップS125に進む。   In step S <b> 121, the search control unit 131 acquires data representing a search result (also referred to as search result data) from the search server 500 via the network communication unit 133 and outputs the data to the display control unit 115. In step S123, the display control unit 115 causes the display unit 117 to display search result data. An example of the display screen of the display unit 117 displaying the search result is shown in FIG. 9C. As shown in FIG. 9C, the display control unit 115 displays the frame of the broadcast data being viewed on the left screen L of the display unit 117 while the display screen of the display unit 117 is set to the two-screen display mode. On the other hand, search result data is displayed on the right screen R of the display unit 117. The search result data may include, for example, information for specifying the HP on the network (for example, URI) and a part or all of the information disclosed on the HP. Then, a link to the HP is pasted on a part of the information. After the process of step S123, the process proceeds to step S125.

ステップS125では、検索制御部131が、他の文字情報が新たな検索キーワードとして選択されたか否かを確認する。より具体的には、図9Cに示す表示画面が表示部117に表示されている状態で、ユーザがリモコン700の「詳細ボタン」を押下すると、リモコン700は、「詳細ボタン」の押下に応じた操作信号を出力して、操作信号受信部118が、この操作信号を受信する。すると、検索制御部131は、キーワード記憶部125に記録された複数の検索キーワード候補の文字情報を取得して、表示制御部115に出力する。そして、表示制御部115は、例えば、図9Dに示すように、表示部117の右方画面R上に複数の文字情報を表示させる。ユーザは、この表示された複数の文字情報を参照して、例えばリモコン700の「移動ボタン」及び「選択ボタン」などを押下することにより、検索キーワードとしたい所望の文字情報を選択する。リモコン700は、この選択された文字情報を表す操作信号を出力し、操作信号受信部118は、この操作信号を受信する。すると、検索制御部131は、操作信号が表した文字情報を、新たな検索キーワードとして選択して、再度ステップS119,ステップS121及びステップS123を順次処理する。一方、上記のように新たな検索キーワードが選択されない場合には、ステップS129に進む。   In step S125, the search control unit 131 confirms whether other character information has been selected as a new search keyword. More specifically, when the user presses the “detail button” on the remote control 700 while the display screen shown in FIG. 9C is displayed on the display unit 117, the remote control 700 responds to the press of the “detail button”. An operation signal is output, and the operation signal receiving unit 118 receives this operation signal. Then, the search control unit 131 acquires character information of a plurality of search keyword candidates recorded in the keyword storage unit 125 and outputs it to the display control unit 115. Then, for example, as shown in FIG. 9D, the display control unit 115 displays a plurality of character information on the right screen R of the display unit 117. The user selects desired character information to be used as a search keyword by, for example, pressing the “move button” and “select button” of the remote controller 700 with reference to the displayed plurality of character information. The remote controller 700 outputs an operation signal representing the selected character information, and the operation signal receiving unit 118 receives this operation signal. Then, the search control unit 131 selects the character information represented by the operation signal as a new search keyword, and sequentially processes step S119, step S121, and step S123 again. On the other hand, when a new search keyword is not selected as described above, the process proceeds to step S129.

ステップS129では、検索制御部131が、HP選択情報を取得する。このHP選択情報は、例えばユーザが図9Cに示した表示画面を参照しつつ、所望のHPを選択するように操作されたリモコン700から出力される。そして、検索制御部131は、操作信号受信部118を介して、このHP選択情報を取得する。そして、ステップS131に進む。   In step S129, the search control unit 131 acquires HP selection information. This HP selection information is output from the remote control 700 operated by the user to select a desired HP while referring to the display screen shown in FIG. 9C, for example. Then, the search control unit 131 acquires this HP selection information via the operation signal receiving unit 118. Then, the process proceeds to step S131.

ステップS131では、検索制御部131は、HP選択情報に表されたHPのURIを使用して、そのHPに公開されている情報を取得して、表示制御部115に出力する。そして、ステップS133に進み、表示制御部115は、このHPに公開されている情報を、例えば図9Cに示す表示部117の右方画面Rに表示させる。そして、表示装置100は、検索動作を終了する。   In step S <b> 131, the search control unit 131 uses the HP URI represented in the HP selection information to acquire information disclosed on the HP and outputs the information to the display control unit 115. In step S133, the display control unit 115 displays the information disclosed on the HP on the right screen R of the display unit 117 shown in FIG. 9C, for example. Then, the display device 100 ends the search operation.

(検索サーバ500の切替え動作)
以上説明した検索動作では、検索動作に使用する検索サーバ500は予め設定されているとして説明した。しかし、本実施形態に係る表示装置100は、検索動作に使用する検索サーバ500を切替えることができる。そこで、以下では、この検索サーバ500の切替え動作について、図10を参照して説明する。図10は、本実施形態に係る表示装置の検索サーバ切替え動作の一例について説明するための説明図である。
(Search server 500 switching operation)
In the search operation described above, the search server 500 used for the search operation has been described as being set in advance. However, the display device 100 according to the present embodiment can switch the search server 500 used for the search operation. Therefore, hereinafter, the switching operation of the search server 500 will be described with reference to FIG. FIG. 10 is an explanatory diagram for explaining an example of the search server switching operation of the display device according to the present embodiment.

まず、ステップS201が処理され、検索制御部131が、検索サーバ変更要求を表した操作信号を取得する。つまり、検索サーバ500を変更する場合、ユーザは、リモコン700を操作して、検索サーバ変更要求を表した操作信号を出力させる。操作信号受信部118は、この操作信号を受信して検索制御部131に出力し、検索制御部131は、この操作信号を取得する。そして、次のステップS203に進む。   First, step S201 is processed, and the search control unit 131 acquires an operation signal indicating a search server change request. That is, when changing the search server 500, the user operates the remote controller 700 to output an operation signal representing a search server change request. The operation signal receiving unit 118 receives this operation signal and outputs it to the search control unit 131, and the search control unit 131 acquires this operation signal. Then, the process proceeds to the next step S203.

ステップS203では、検索制御部131は、検索サーバ情報記憶部132に記録された検索サーバ500のリスト(図6に示すような選択可能な検索サーバ500の情報)を取得して、表示制御部115に出力する。そして、表示制御部115は、この検索サーバ500のリストを表示部117に表示させる。   In step S <b> 203, the search control unit 131 acquires a list of search servers 500 (information on selectable search servers 500 as shown in FIG. 6) recorded in the search server information storage unit 132, and the display control unit 115. Output to. Then, the display control unit 115 displays the list of the search server 500 on the display unit 117.

そして、この表示された検索サーバ500のリストを参照したユーザは、リモコン700を操作して、リスト中の1の検索サーバ500を選択する。すると、リモコン700は、この選択された検索サーバ500を表した操作信号(検索サーバ選択情報)を出力する。   Then, the user who refers to the displayed list of search servers 500 operates the remote controller 700 to select one search server 500 in the list. Then, the remote controller 700 outputs an operation signal (search server selection information) representing the selected search server 500.

そして、ステップS205において、検索制御部131は、検索サーバ選択情報を操作信号受信部118を介して取得する。そして、ステップS207の処理が行われ、検索制御部131は、検索動作に使用する検索サーバ500の情報を更新する。従って、ユーザは、検索に使用する検索サーバ500を所望の検索サーバに変更することができる。   In step S <b> 205, the search control unit 131 acquires search server selection information via the operation signal receiving unit 118. Then, the process of step S207 is performed, and the search control unit 131 updates the information of the search server 500 used for the search operation. Therefore, the user can change the search server 500 used for the search to a desired search server.

(本実施形態に係る表示装置による効果の例)
以上、本実施形態に係る情報処理装置が適用された装置の一例である表示装置100について説明した。このような表示装置100によれば、放送データや外部データなどに含まれる映像データから、検索キーワードを抽出してネットワーク検索を行うことができる。従って、放送データや外部データを変更したり、新たに別途のデータベースなどを配置することなく、ネットワーク上のHPを検索して取得することができる。
(Example of effects by the display device according to the present embodiment)
The display device 100 that is an example of the device to which the information processing apparatus according to the present embodiment is applied has been described above. According to such a display device 100, it is possible to perform a network search by extracting a search keyword from video data included in broadcast data, external data, or the like. Therefore, it is possible to search for and acquire HPs on the network without changing broadcast data or external data, or newly arranging a separate database or the like.

この際、表示装置100は、フレーム解析を行うことにより、文字情報の認識処理にかかる計算量を削減することができる。よって、上記検索動作に要する時間を短縮することができる。更に、装非常に高い処理速度を要求することなく装置を構成することができるので、製造コストの増加を削減できる。   At this time, the display device 100 can reduce the amount of calculation for character information recognition processing by performing frame analysis. Therefore, the time required for the search operation can be shortened. Furthermore, since the apparatus can be configured without requiring a very high processing speed, an increase in manufacturing cost can be reduced.

以上、本発明の第1実施形態に係る情報処理装置について説明した。
この第1実施形態に係る情報処理装置(表示装置100)では、ユーザの操作に応じてリモコン700が出力する操作信号をトリガーとして、上記検索動作を行う場合について説明した。よって、操作信号を受信した後に、フレーム解析処理(ステップS111の文字情報領域抽出処理)及び文字情報認識処理(ステップS113の文字情報抽出処理)が行われた。しかしながら、本発明はこの例に限定されるものではない。例えば、操作信号とは関係なく、表示部117に映像データを表示している最中に検索キーワードを検出し続けてもよい。従って、このような動作を行う本発明の第2実施形態に係る情報処理装置について、以下では説明する。ただし、この第2実施形態でも、情報処理装置が適用される機器として、表示装置を例に説明する。また、この第2実施形態に係る表示装置も、上記第1実施形態に係る表示装置100が有する構成と同様に構成することができる。従って、以下では、第1実施形態との相違点を中心に説明する。
The information processing apparatus according to the first embodiment of the present invention has been described above.
In the information processing apparatus (display apparatus 100) according to the first embodiment, a case has been described in which the search operation is performed using an operation signal output from the remote controller 700 in response to a user operation. Therefore, after receiving the operation signal, frame analysis processing (character information area extraction processing in step S111) and character information recognition processing (character information extraction processing in step S113) are performed. However, the present invention is not limited to this example. For example, the search keyword may continue to be detected while video data is being displayed on the display unit 117 regardless of the operation signal. Therefore, an information processing apparatus according to the second embodiment of the present invention that performs such an operation will be described below. However, also in the second embodiment, a display device will be described as an example of a device to which the information processing device is applied. The display device according to the second embodiment can also be configured in the same manner as the configuration of the display device 100 according to the first embodiment. Therefore, the following description will focus on differences from the first embodiment.

<第2実施形態>
図11は、本発明の第2実施形態に係る表示装置の通常動作及び検索動作の一例について説明するための説明図である。
Second Embodiment
FIG. 11 is an explanatory diagram for explaining an example of a normal operation and a search operation of the display device according to the second embodiment of the present invention.

本実施形態に係る表示装置は、電源がONされると、まず、上記第1実施形態に係る表示装置100と同様に動作して、ステップS01,ステップS03及びステップS05を処理する(図7参照。)。その後、ステップS301が処理される。   When the power is turned on, the display device according to the present embodiment first operates in the same manner as the display device 100 according to the first embodiment, and processes step S01, step S03, and step S05 (see FIG. 7). .) Thereafter, step S301 is processed.

このステップS301では、フレーム取得部121が、フレーム制御部114Aから現在のフレーム(カレントフレーム)を取得する。この際、フレーム取得部121は、Iフレームを取得する。なお、本実施形態では、フレーム制御部114A,第1フレーム記憶部114B及び第2フレーム記憶部114Cは必ずしも必要ではなく、フレーム取得部121は、例えば、ビデオデコーダ113Cから現在のフレームを受取ってもよい。そして、ステップS111に進む。   In step S301, the frame acquisition unit 121 acquires the current frame (current frame) from the frame control unit 114A. At this time, the frame acquisition unit 121 acquires an I frame. In this embodiment, the frame control unit 114A, the first frame storage unit 114B, and the second frame storage unit 114C are not necessarily required. The frame acquisition unit 121 may receive the current frame from the video decoder 113C, for example. Good. Then, the process proceeds to step S111.

このステップS111と、これに後続するステップS113及びステップS115は、第1実施形態に係る表示装置100では操作信号を受信した後に処理されたが、本実施形態に係る表示装置は、ステップS111〜ステップS115を常時処理する。つまり、ユーザが放送データなどを視聴している最中には、ステップS111〜ステップS115の処理が行われ、映像データの各フレームで表示される文字情報が、常時抽出されてキーワード記憶部125に記録される。よって、キーワード記憶部125には、視聴中の放送データなどに含まれる文字情報が蓄積される。   Step S111 and subsequent steps S113 and S115 are processed after receiving the operation signal in the display device 100 according to the first embodiment. However, the display device according to the present embodiment includes steps S111 to S111. S115 is always processed. That is, while the user is viewing the broadcast data or the like, the processing in steps S111 to S115 is performed, and the character information displayed in each frame of the video data is always extracted and stored in the keyword storage unit 125. To be recorded. Thus, the keyword storage unit 125 stores character information included in the broadcast data being viewed.

ネットワーク検索を行いたいユーザは、例えばリモコン700の「検索ボタン」を押下する。すると、リモコン700からは、検索要求を表した操作信号が出力される。一方、ステップS115の処理後には、ステップS303に進み、検索制御部131は、リモコン700が出力した検索要求を表した操作信号を操作信号受信部118を介して取得したか否かを確認する。検索要求を表した操作信号を取得した場合には、ステップS305に進む。一方、検索要求を表した操作信号を取得していない場合には、再度ステップS01以降の処理が行われる。ただし、ステップS305に進んだ場合でも、ステップS305以降の処理と並行してステップS01〜ステップS115が処理されてもよい。   A user who wants to perform a network search presses a “search button” on the remote control 700, for example. Then, the remote control 700 outputs an operation signal representing a search request. On the other hand, after the processing of step S115, the process proceeds to step S303, and the search control unit 131 confirms whether or not the operation signal representing the search request output from the remote controller 700 has been acquired via the operation signal receiving unit 118. If an operation signal representing a search request has been acquired, the process proceeds to step S305. On the other hand, if the operation signal representing the search request has not been acquired, the processes after step S01 are performed again. However, even when the process proceeds to step S305, steps S01 to S115 may be processed in parallel with the processes after step S305.

ステップS305では、検索制御部131が、キーワード記憶部125に記録された文字情報を取得して表示制御部115に出力する。そして、表示制御部115は、この文字情報を、表示部117に表示させる。このステップS303及びステップS305の処理中に表示部117に表示される表示画面の一例を、図9A,図12A及び図12Bに示す。   In step S <b> 305, the search control unit 131 acquires character information recorded in the keyword storage unit 125 and outputs it to the display control unit 115. Then, the display control unit 115 causes the display unit 117 to display this character information. An example of a display screen displayed on the display unit 117 during the processing of step S303 and step S305 is shown in FIGS. 9A, 12A, and 12B.

まず、表示部117が、図9Aに示す放送データのフレームF1を表示している状態で、ユーザが、例えばインターネット検索を行うためにリモコン700の「検索ボタン」を押下した場合、操作信号受信部118は、リモコン700から出力された所定の操作信号を受信する。すると、上記ステップS303及びステップS305の処理が行われ、表示部117には、図12Aに示す表示画像が表示される。つまり、表示制御部115は、表示部117のモードを2画面モード(2以上の画面のモードでもよい。)に切替え、例えば、表示部117の左方画面Lには、視聴中の放送データのフレームを表示させ、表示部117の右方画面Rには、フレームから抽出されキーワード記憶部125に蓄積された文字情報WL1をリスト表示させる。更に、文字認識部124が情報データから文字情報を抽出している場合、表示制御部115は、表示部117の右方画面Rには、情報データから抽出されてキーワード記憶部125に蓄積された文字情報WL2をも表示させる(図12A参照。)。この際、情報データから抽出された文字情報WL2に含まれた検索キーワードが、フレームから抽出された文字情報WL1中に含まれる場合、表示制御部115は、文字情報W1中から、その重複した検索キーワードの全てを取り除き、重複した検索キーワードを表示部117への表示対象から取り除く。このように文字情報WL1と文字情報WL2とで重複している検索キーワードを表示しないことにより、ユーザが検索キーワードを選択する際に余分な情報を表示させずに済み、操作性が向上する。また、一画面に表示させることができる情報の数を増やすこともできる。   First, when the display unit 117 displays the broadcast data frame F1 shown in FIG. 9A and the user presses the “search button” of the remote control 700 to search the Internet, for example, the operation signal receiving unit Reference numeral 118 receives a predetermined operation signal output from the remote controller 700. Then, the processing of step S303 and step S305 is performed, and the display image shown in FIG. 12A is displayed on the display unit 117. That is, the display control unit 115 switches the mode of the display unit 117 to a two-screen mode (a mode of two or more screens). For example, the left screen L of the display unit 117 displays the broadcast data being viewed. A frame is displayed, and character information WL1 extracted from the frame and accumulated in the keyword storage unit 125 is displayed as a list on the right screen R of the display unit 117. Further, when the character recognition unit 124 is extracting character information from the information data, the display control unit 115 is extracted from the information data and stored in the keyword storage unit 125 on the right screen R of the display unit 117. Character information WL2 is also displayed (see FIG. 12A). At this time, if the search keyword included in the character information WL2 extracted from the information data is included in the character information WL1 extracted from the frame, the display control unit 115 searches the redundant search from the character information W1. All the keywords are removed, and duplicate search keywords are removed from the display target on the display unit 117. Thus, by not displaying the search keyword which overlaps with the character information WL1 and the character information WL2, it is not necessary to display extra information when the user selects the search keyword, and the operability is improved. In addition, the number of pieces of information that can be displayed on one screen can be increased.

そして、次のステップS307が処理され、検索制御部131がキーワード記憶部125に記録された文字情報から、検索キーワードを選択する。より具体的には、ユーザは、表示部117に表示された文字情報を参照して、リモコン700を操作することにより、検索キーワードとして使用したい文字情報を選択する(図12B参照。)。すると、リモコン700は、選択された文字情報を表した操作信号を出力する。そして、検索制御部131は、操作信号を操作信号受信部118を介して取得し、この操作信号に表された文字情報を検索キーワードとして選択する。そして、ステップS119に進む。ステップS119以降の処理は、ステップS127(新たなフレームが選択されか否かの確認処理)が行われない以外、上記第1実施形態に係る表示装置100が行う検索動作における処理と同様である(図8参照)。   The next step S307 is processed, and the search control unit 131 selects a search keyword from the character information recorded in the keyword storage unit 125. More specifically, the user refers to the character information displayed on the display unit 117 and operates the remote controller 700 to select character information to be used as a search keyword (see FIG. 12B). Then, the remote controller 700 outputs an operation signal representing the selected character information. Then, the search control unit 131 acquires an operation signal via the operation signal reception unit 118, and selects character information represented in the operation signal as a search keyword. Then, the process proceeds to step S119. The processes after step S119 are the same as the processes in the search operation performed by the display device 100 according to the first embodiment, except that step S127 (a process for confirming whether or not a new frame is selected) is not performed ( (See FIG. 8).

以上、本実施形態に係る情報処理装置が適用された装置の一例である表示装置について説明した。このような表示装置によれば、上記第1実施形態に係る表示装置が奏することができる効果に加えて、更に、例えばユーザの手元にリモコン700がない場合など、検索を行いたい文字情報が表示された時点からしばらくの間(第1フレーム記憶部114B及び第2フレーム記憶部114Cから当該文字情報が含まれるフレームが消去されるまでの間)リモコン700を操作することができない場合にも、適切な検索キーワードを使用してネットワーク検索を行うことができる。   In the above, the display apparatus which is an example of the apparatus to which the information processing apparatus according to the present embodiment is applied has been described. According to such a display device, in addition to the effects that can be achieved by the display device according to the first embodiment, character information to be searched is displayed, for example, when the remote control 700 is not at hand of the user. Even when the remote controller 700 cannot be operated for a while from the time when the remote control 700 cannot be operated (until the frame including the character information is deleted from the first frame storage unit 114B and the second frame storage unit 114C) Network search using various search keywords.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されないことは言うまでもない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described in detail, referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記実施形態では、フレーム解析部123が第1の抽出と第2の抽出の両方を行う場合について説明した。しかし、本発明はかかる例に限定されない。例えば、フレーム解析部123は、第1の抽出及び第2の抽出のどちらか一方を行ってもよい。また、例えば、これらの抽出を行わない場合、検索部120は、フレーム解析部123を備えなくてもよい。   For example, in the above embodiment, the case where the frame analysis unit 123 performs both the first extraction and the second extraction has been described. However, the present invention is not limited to such an example. For example, the frame analysis unit 123 may perform either the first extraction or the second extraction. For example, when these extractions are not performed, the search unit 120 does not have to include the frame analysis unit 123.

また、上記実施形態では、フレーム取得部121は、Iピクチャを取得して、フレーム解析部123は、このIピクチャを使用して、文字情報領域(静止領域)の抽出を行う場合について説明した。しかし、本発明はかかる例に限定されない。フレーム取得部121は、例えば、Iピクチャと共に、BピクチャやPピクチャなどの前後のフレームを参照することにより静止領域を抽出してもよい。この場合、フレーム解析部123は、BピクチャやPピクチャなどに含まれる、フレーム間の差分を表した信号(差分情報)や動き補償(フレーム間予想)技術で使用される情報(動きベクトルなど)に基づいて、Iピクチャ中の静止領域を抽出してもよい。   In the above embodiment, the case has been described in which the frame acquisition unit 121 acquires an I picture, and the frame analysis unit 123 uses this I picture to extract a character information area (still area). However, the present invention is not limited to such an example. For example, the frame acquisition unit 121 may extract a still area by referring to frames before and after such as a B picture and a P picture together with an I picture. In this case, the frame analysis unit 123 includes a signal (difference information) representing a difference between frames included in a B picture, a P picture, or the like, or information (motion vector or the like) used in motion compensation (interframe prediction) technology. Based on the above, a still area in the I picture may be extracted.

また、上記各実施形態で説明した一連の処理は、専用のハードウエアにより実行させてもよいが、ソフトウエアにより実行させてもよい。一連の処理をソフトウエアにより行う場合、図13に示すような汎用又は専用のコンピュータにプログラムを実行させることにより、上記の一連の処理を実現することができる。   In addition, the series of processes described in the above embodiments may be executed by dedicated hardware, but may be executed by software. When a series of processing is performed by software, the above-described series of processing can be realized by causing a general-purpose or dedicated computer as shown in FIG. 13 to execute the program.

図13は、プログラムを実行することにより一連の処理を実現するコンピュータの構成例を説明するための説明図である。一連の処理を行うプログラムのコンピュータによる実行について説明すれば、以下のようになる。   FIG. 13 is an explanatory diagram for explaining a configuration example of a computer that realizes a series of processes by executing a program. The execution of a program for performing a series of processes by a computer will be described as follows.

図13に示すように、コンピュータは、例えば、バス901及び入出力インターフェイス906等を介して接続された、CPU(Central Processing Unit)902と、HDD(Hard Disk Drive)903・ROM(Read Only Memory)904・RAM(Random Access Memory)905等の記録装置と、LAN(Local Area Network)・インターネット等のネットワーク400に接続されたネットワーク通信部133と、リモコン700・マウス・キーボード(図示せず)等の入力装置907と、フレキシブルディスク、各種のCD(Compact Disc)・MO(Magneto Optical)ディスク・DVD(Digital Versatile Disc)等の光ディスク、磁気ディスク、半導体メモリ等のリムーバブル記録媒体909等を読み書きするドライブ908と、表示部117・音声出力部116などの出力装置等を有する。   As shown in FIG. 13, the computer includes, for example, a CPU (Central Processing Unit) 902, an HDD (Hard Disk Drive) 903, and a ROM (Read Only Memory) connected via a bus 901, an input / output interface 906, and the like. 904, a recording device such as a RAM (Random Access Memory) 905, a network communication unit 133 connected to a network 400 such as a LAN (Local Area Network), the Internet, a remote controller 700, a mouse / keyboard (not shown), etc. A drive 908 for reading and writing an input device 907, a flexible disk, various optical disks such as CD (Compact Disc), MO (Magneto Optical) disk, DVD (Digital Versatile Disc), magnetic disk, and removable recording medium 909 such as semiconductor memory And output devices such as the display unit 117 and the audio output unit 116 To.

そして、CPU902が、記録装置に記録されたプログラム、ネットワーク400を介して受信したプログラム、またはリムーバブル記録媒体909から読み出したプログラム等に従って、各種の処理を実行することにより、上記の一連の処理が、実現される。この際、CPU902は、必要に応じて入力装置907から入力する情報や信号に基づいて各種の処理を行ってもよい。そして、この処理結果は、必要に応じて上記の記録装置やリムーバブル記録媒体909等に記録されてもよく、出力装置に出力されてもよく、ネットワーク400に送信されてもよい。   The CPU 902 executes various processes in accordance with a program recorded in the recording device, a program received via the network 400, a program read from the removable recording medium 909, and the like, so that the series of processes described above is performed. Realized. At this time, the CPU 902 may perform various processes based on information and signals input from the input device 907 as necessary. Then, this processing result may be recorded in the above-described recording device, removable recording medium 909, or the like as necessary, may be output to an output device, or may be transmitted to the network 400.

尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含むものである。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。   In this specification, the steps described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. The processing to be performed is also included. Further, it goes without saying that the order can be appropriately changed even in the steps processed in time series.

本発明の第1実施形態に係る表示装置の構成を説明するための説明図である。It is explanatory drawing for demonstrating the structure of the display apparatus which concerns on 1st Embodiment of this invention. 同実施形態に係る表示装置の構成を説明するための説明図である。4 is an explanatory diagram for explaining a configuration of a display device according to the embodiment. FIG. 同実施形態に係る表示装置に記録されるフレームの一例を説明するための説明図である。4 is an explanatory diagram for describing an example of a frame recorded in the display device according to the embodiment. FIG. 検索キーワードとなりうる文字情報を含む表示画面の一例の時間変化を説明するための説明図である。It is explanatory drawing for demonstrating the time change of an example of the display screen containing the character information which can become a search keyword. 検索キーワードとなりうる文字情報を含む表示画面の一例の時間変化を説明するための説明図である。It is explanatory drawing for demonstrating the time change of an example of the display screen containing the character information which can become a search keyword. 同実施形態に係る表示装置に記録される検索サーバの情報について説明するための説明図である。It is explanatory drawing for demonstrating the information of the search server recorded on the display apparatus which concerns on the same embodiment. 同実施形態に係る情報処理装置の動作を説明するための説明図である。It is an explanatory view for explaining operation of the information processor concerning the embodiment. 同実施形態に係る表示装置の検索動作の一例について説明するための説明図である。7 is an explanatory diagram illustrating an example of a search operation of the display device according to the embodiment. FIG. 同実施形態に係る表示装置の検索動作の一例において、表示部に表示される表示画面の例について説明するための説明図である。4 is an explanatory diagram for describing an example of a display screen displayed on a display unit in an example of a search operation of the display device according to the embodiment. FIG. 同実施形態に係る表示装置の検索動作の一例において、表示部に表示される表示画面の例について説明するための説明図である。4 is an explanatory diagram for describing an example of a display screen displayed on a display unit in an example of a search operation of the display device according to the embodiment. FIG. 同実施形態に係る表示装置の検索動作の一例において、表示部に表示される表示画面の例について説明するための説明図である。4 is an explanatory diagram for describing an example of a display screen displayed on a display unit in an example of a search operation of the display device according to the embodiment. FIG. 同実施形態に係る表示装置の検索動作の一例において、表示部に表示される表示画面の例について説明するための説明図である。4 is an explanatory diagram for describing an example of a display screen displayed on a display unit in an example of a search operation of the display device according to the embodiment. FIG. 同実施形態に係る表示装置の検索サーバ切替え動作の一例について説明するための説明図である。8 is an explanatory diagram for describing an example of a search server switching operation of the display device according to the embodiment. FIG. 本発明の第2実施形態に係る表示装置の検索動作の一例について説明するための説明図である。It is explanatory drawing for demonstrating an example of search operation of the display apparatus which concerns on 2nd Embodiment of this invention. 同実施形態に係る表示装置の検索動作の一例において、表示部に表示される表示画面の例について説明するための説明図である。4 is an explanatory diagram for describing an example of a display screen displayed on a display unit in an example of a search operation of the display device according to the embodiment. FIG. 同実施形態に係る表示装置の検索動作の一例において、表示部に表示される表示画面の例について説明するための説明図である。4 is an explanatory diagram for describing an example of a display screen displayed on a display unit in an example of a search operation of the display device according to the embodiment. FIG. プログラムを実行することにより一連の処理を実現するコンピュータの構成例を説明するための説明図である。And FIG. 14 is an explanatory diagram for explaining a configuration example of a computer that realizes a series of processes by executing a program.

符号の説明Explanation of symbols

100 表示装置
111A 放送データ取得部
111B 外部データ取得部
112 デマルチプレクサ
113A オーディオデコーダ
113B データデコーダ
113C ビデオデコーダ
114A フレーム制御部
115 表示制御部
116 音声出力部
117 表示部
118 操作信号受信部
120 検索部
121 フレーム取得部
123 フレーム解析部
124 文字認識部
125 キーワード記憶部
131 検索制御部
132 検索サーバ情報記憶部
133 ネットワーク通信部
134 嗜好データ記憶部
200 放送局
310 アンテナ
320 ケーブル
330 外部機器
400 ネットワーク
500 検索サーバ
600 情報提供サーバ
700 リモコン
901 バス
902 CPU
903 HDD
904 ROM
905 RAM
906 入出力インターフェイス
907 入力装置
908 ドライブ
909 リムーバブル記録媒体
DESCRIPTION OF SYMBOLS 100 Display apparatus 111A Broadcast data acquisition part 111B External data acquisition part 112 Demultiplexer 113A Audio decoder 113B Data decoder 113C Video decoder 114A Frame control part 115 Display control part 116 Audio | voice output part 117 Display part 118 Operation signal receiving part 120 Search part 121 Frame Acquisition unit 123 Frame analysis unit 124 Character recognition unit 125 Keyword storage unit 131 Search control unit 132 Search server information storage unit 133 Network communication unit 134 Preference data storage unit 200 Broadcast station 310 Antenna 320 Cable 330 External device 400 Network 500 Search server 600 Information Providing server 700 Remote control 901 Bus 902 CPU
903 HDD
904 ROM
905 RAM
906 Input / output interface 907 Input device 908 Drive 909 Removable recording medium

Claims (9)

入力される映像データに基づく映像を表示画面に表示する表示手段と、
前記映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得するフレーム取得部と、
前記フレーム取得部により取得された各前記フレーム画像内で、所定数前の前記フレーム画像との差分がない画像領域を抽出する画像領域抽出部と、
前記画像領域抽出部により抽出された前記画像領域に含まれる文字情報を抽出する文字情報抽出部と、
前記文字情報抽出部により抽出された前記文字情報を検索キーワードとしてネットワーク上のコンテンツを検索する検索部と、
を備え、
前記表示手段は、前記検索部により検索された前記コンテンツを前記表示画面に表示することを特徴とする、情報処理装置。
Display means for displaying video based on input video data on a display screen;
A frame acquisition unit that sequentially acquires frame images in response to a user operation or automatically from the video data;
An image area extraction unit that extracts an image area that is not different from the frame image of a predetermined number of times in each of the frame images acquired by the frame acquisition unit;
A character information extraction unit that extracts character information included in the image region extracted by the image region extraction unit;
A search unit for searching content on a network using the character information extracted by the character information extraction unit as a search keyword;
With
The information processing apparatus, wherein the display unit displays the content searched by the search unit on the display screen.
前記画像領域抽出部は、抽出した前記画像領域が所定のパターン形状を含むか否かを判定し、
前記文字情報抽出部は、前記画像領域抽出部で前記所定のパターン形状を含むと判定された前記画像領域に含まれる文字情報を抽出することを特徴とする、請求項1に記載の情報処理装置。
The image area extraction unit determines whether or not the extracted image area includes a predetermined pattern shape,
The information processing apparatus according to claim 1, wherein the character information extraction unit extracts character information included in the image region determined to include the predetermined pattern shape by the image region extraction unit. .
前記文字情報抽出部は、前記画像領域から抽出した文字情報が複数存在する場合、各前記文字情報に対して所定規則に従った優先順位を付加し、
前記検索部は、前記優先順位の高い前記文字情報に対応するコンテンツを最初に検索することを特徴とする、請求項1又は2に記載の情報処理装置。
The character information extraction unit, when there are a plurality of character information extracted from the image area, adds a priority according to a predetermined rule for each character information,
The information processing apparatus according to claim 1, wherein the search unit first searches for content corresponding to the character information having a high priority.
前記文字情報抽出部は、前記画像領域から抽出した文字情報が複数存在する場合、当該各文字情報を前記表示画面にリスト表示させ、
前記検索部は、ユーザの操作に応じて指定された前記文字情報に対応するコンテンツを検索することを特徴とする、請求項1〜3のいずれかに記載の情報処理装置。
The character information extraction unit, when there is a plurality of character information extracted from the image area, to display a list of the character information on the display screen,
The information processing apparatus according to claim 1, wherein the search unit searches for content corresponding to the character information specified in accordance with a user operation.
前記表示手段は、前記映像データと関連して受信した情報データに基づく各文字情報を前記表示画面に表示するととともに、当該表示画面にリスト表示されている前記文字情報抽出部により抽出された前記複数の文字情報の中から、前記情報データに基づく各前記文字情報と同一の文字情報を全て表示対象から取り除くことを特徴とする、請求項4に記載の情報処理装置。   The display means displays each character information based on the information data received in association with the video data on the display screen, and the plurality of characters extracted by the character information extraction unit displayed as a list on the display screen 5. The information processing apparatus according to claim 4, wherein all character information identical to the character information based on the information data is removed from a display target from the character information. 前記フレーム取得部により取得された各前記フレーム画像を順次記憶するメモリ部と、
前記メモリ部に記憶された各前記フレーム画像のうち、ユーザの操作タイミングに最も近い前記フレーム画像と、当該フレーム画像を基準として所定の遡及時間内に記憶された各前記フレーム画像を読み出すメモリ制御部と、
を備え、
前記表示手段は、前記メモリ制御部により読み出された各前記フレーム画像を縮小画像として所定の配置パターンで前記表示画面に表示することを特徴とする、請求項1〜5に記載の情報処理装置。
A memory unit for sequentially storing the frame images acquired by the frame acquisition unit;
A memory control unit that reads out the frame image closest to the user's operation timing among the frame images stored in the memory unit, and the frame images stored within a predetermined retroactive time with reference to the frame image When,
With
The information processing apparatus according to claim 1, wherein the display unit displays each frame image read by the memory control unit as a reduced image on the display screen in a predetermined arrangement pattern. .
前記メモリ制御部は、前記メモリ部に記憶された各前記フレーム画像を、ユーザの前記操作タイミング時点からの遡及時間が長いものから順次消去することを特徴とする、請求項1〜6のいずれかに記載の情報処理装置。   The said memory control part deletes each said frame image memorize | stored in the said memory part sequentially from the thing with the long retroactive time from the said operation timing time of a user, The one of Claims 1-6 characterized by the above-mentioned. The information processing apparatus described in 1. 入力される映像データに基づく映像を表示画像に表示し、
前記映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得し、
取得した各前記フレーム画像内で、所定数前の前記フレーム画像との差分がない画像領域を抽出し、
抽出した前記画像領域に含まれる文字情報を抽出し、
抽出した前記文字情報を検索キーワードとしてネットワーク上のコンテンツを検索し、
検索した前記コンテンツを表示画面に表示することを特徴とする、情報処理方法。
Display the video based on the input video data on the display image,
Sequentially obtaining frame images in response to user operations or automatically from the video data,
In each of the acquired frame images, extract an image area having no difference from the frame image of a predetermined number before,
Extract character information contained in the extracted image area,
Search the content on the network using the extracted character information as a search keyword,
An information processing method comprising displaying the searched content on a display screen.
コンピュータを、
入力される映像データからユーザの操作に応じて又は自動的にフレーム画像を順次取得するフレーム取得手段と、
前記フレーム取得手段により取得された各前記フレーム画像内で、所定数前の前記フレーム画像との差分がない画像領域を抽出する画像領域抽出手段と、
前記画像領域抽出手段により抽出された前記画像領域に含まれる文字情報を抽出する文字情報抽出手段と、
前記文字情報抽出手段により抽出された前記文字情報を検索キーワードとしてネットワーク上のコンテンツを検索する検索手段と、
前記検索手段により検索された前記コンテンツを表示画面に表示する表示手段と、
として機能させるためのプログラム。
Computer
Frame acquisition means for sequentially acquiring frame images in response to user operations or automatically from input video data;
Image area extraction means for extracting an image area that is not different from the predetermined number of frame images in each of the frame images acquired by the frame acquisition means;
Character information extracting means for extracting character information contained in the image area extracted by the image area extracting means;
Search means for searching content on a network using the character information extracted by the character information extraction means as a search keyword;
Display means for displaying the content searched by the search means on a display screen;
Program to function as.
JP2007337046A 2007-12-27 2007-12-27 Information processor, information processing method, and program Withdrawn JP2009159437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007337046A JP2009159437A (en) 2007-12-27 2007-12-27 Information processor, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007337046A JP2009159437A (en) 2007-12-27 2007-12-27 Information processor, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2009159437A true JP2009159437A (en) 2009-07-16

Family

ID=40962917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007337046A Withdrawn JP2009159437A (en) 2007-12-27 2007-12-27 Information processor, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2009159437A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011517223A (en) * 2008-04-09 2011-05-26 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Television receiver and method
JP2012103760A (en) * 2010-11-05 2012-05-31 Sharp Corp Information processing apparatus, information processing method, and program
JP2012160023A (en) * 2011-01-31 2012-08-23 Toshiba Corp Character extracting device, display method, and character extracting method
EP3370170A1 (en) 2017-03-03 2018-09-05 Fujitsu Limited Feature term classification method, information processing apparatus, and feature term classification program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011517223A (en) * 2008-04-09 2011-05-26 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Television receiver and method
JP2012103760A (en) * 2010-11-05 2012-05-31 Sharp Corp Information processing apparatus, information processing method, and program
JP2012160023A (en) * 2011-01-31 2012-08-23 Toshiba Corp Character extracting device, display method, and character extracting method
EP3370170A1 (en) 2017-03-03 2018-09-05 Fujitsu Limited Feature term classification method, information processing apparatus, and feature term classification program
US10482138B2 (en) 2017-03-03 2019-11-19 Fujitsu Limited Feature term classification method, information processing apparatus, and storage medium

Similar Documents

Publication Publication Date Title
JP4482829B2 (en) Preference extraction device, preference extraction method, and preference extraction program
US8666223B2 (en) Electronic apparatus and image data management method
JP5038607B2 (en) Smart media content thumbnail extraction system and method
US8285114B2 (en) Electronic apparatus and display method
JP4905103B2 (en) Movie playback device
US9378286B2 (en) Implicit user interest marks in media content
CN101267522B (en) Information processing apparatus, imaging apparatus, image display control method
JP2021525031A (en) Video processing for embedded information card locating and content extraction
US8214368B2 (en) Device, method, and computer-readable recording medium for notifying content scene appearance
JP2008061120A (en) Reproducing apparatus, retrieving method and program
JP2010103843A (en) Electronic apparatus, and video display method
JPWO2007029489A1 (en) Content replay device, content playback device, content replay method, content playback method, program, and recording medium
CN108810580B (en) Media content pushing method and device
JP2010087976A (en) Information processing apparatus, information acquisition method, information acquisition program, and information retrieval system
JP2009048348A (en) Information processing apparatus, method for searching through candidate for character information, and program for searching through candidate for character information
JP4814849B2 (en) How to identify the frame
JP2009065712A (en) Digital broadcast receiver and related information presenting program
JP2009159437A (en) Information processor, information processing method, and program
JP2008118232A (en) Video image reproducing unit
JP2005072826A (en) Digital broadcast receiving system, content reproducing method, scene reproducing program, related information presenting program, and keyword searching program
JP4929128B2 (en) Recording / playback device
US20130101271A1 (en) Video processing apparatus and method
JP4882687B2 (en) Recorded program management device
KR20060102639A (en) System and method for playing mutimedia data
JP5091708B2 (en) Search information creation device, search information creation method, search information creation program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110301