JP2013219447A - Content display device, content reception device, program, and content reproduction device - Google Patents

Content display device, content reception device, program, and content reproduction device Download PDF

Info

Publication number
JP2013219447A
JP2013219447A JP2012086086A JP2012086086A JP2013219447A JP 2013219447 A JP2013219447 A JP 2013219447A JP 2012086086 A JP2012086086 A JP 2012086086A JP 2012086086 A JP2012086086 A JP 2012086086A JP 2013219447 A JP2013219447 A JP 2013219447A
Authority
JP
Japan
Prior art keywords
content
display
still image
recommendation
image group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012086086A
Other languages
Japanese (ja)
Inventor
Takeshi Kaneko
毅 金子
Norio Ito
典男 伊藤
Masahiro Shioi
正宏 塩井
Hisao Kumai
久雄 熊井
Senhin Gei
嬋斌 倪
敦稔 〆野
Atsutoshi Simeno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012086086A priority Critical patent/JP2013219447A/en
Publication of JP2013219447A publication Critical patent/JP2013219447A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a content display device etc. which allows for appropriate utilization of a content, by user's predetermined instruction on a group of still images displayed on the basis of the content.SOLUTION: The content display device comprises: still image group display means which generates or extracts from image data included in the content the group of still images corresponding to the display content with the timing of an inputted trigger, and displays the group of still images; display position designation means which designates the display position of the displayed group of still images; and recommendation display means which is capable of displaying a recommendation on the basis of information material recognized from the designated display position.

Description

本発明は、映像データを含むコンテンツを表示可能なコンテンツ表示装置等に関する。   The present invention relates to a content display device capable of displaying content including video data.

各種コンテンツを利用することにより、複数のコンテンツやサービスを活用するニーズが高まっている。各種コンテンツのうち、放送コンテンツを例にあげると、テレビの放送通信融合に向けた様々な取り組みが模索されている。すなわち、放送コンテンツをトリガにした関連情報へのアクセスに対してユーザのニーズが高まっている。   The use of various contents has increased the need to use multiple contents and services. Taking various broadcast contents as an example, various efforts for fusion of broadcasting and communication of TV are being sought. That is, user needs are increasing for access to related information triggered by broadcast content.

この場合、TV等において表示されている放送番組自体に含まれる情報のうち、興味ある対象物や必要と感じる画面領域等に対して、直接働きかけ、検索・保存・外部機器での活用を、直感的に行う手段が望まれている。   In this case, out of the information contained in the broadcast program itself displayed on the TV or the like, it is intuitive to directly work on the object of interest or the screen area that it feels necessary to search / save / use on an external device. There is a need for an automated means.

例えば、ユーザが映像中の表示物をタッチパネル等で指示した場合に、当該指示に対応する指示座標情報及び指示タイミング情報を検索サーバに送信し、当該検索サーバから対応する表示物のデータを取得して画面に表示することにより、映像データを配信する際の配信データ量を増大させることもなく、映像中の所望の表示物に関する詳細な情報を画面に表示させることができる発明が開示されている(例えば、特許文献1参照)。   For example, when the user designates a display object in the video with a touch panel or the like, the instruction coordinate information and instruction timing information corresponding to the instruction are transmitted to the search server, and the data of the corresponding display object is acquired from the search server. Thus, there is disclosed an invention in which detailed information about a desired display item in a video can be displayed on the screen without increasing the amount of distribution data when the video data is distributed. (For example, refer to Patent Document 1).

国際公開第2009/145233号International Publication No. 2009/145233

このように、表示されている放送コンテンツに対して、直接操作指示することにより、ユーザは様々な情報を活用することができる。しかし、放送コンテンツに含まれる情報を、ユーザが活用したい場合、現状は、放送局等の配信側があらかじめデータ放送等を用いたリンク情報等のメタデータを付与しておく必要があった。   In this way, the user can utilize various information by directly instructing the displayed broadcast content. However, when the user wants to utilize information included in the broadcast content, at present, the distribution side such as a broadcasting station needs to add metadata such as link information using data broadcasting or the like in advance.

一方、ユーザニーズは非常に多様化しているため、情報付与作業が膨大で、配信側に多大な手間とコストが発生してしまうという問題点があった。更に、これらの作業は本質的には、予測不能なライブ映像等への対応は困難という問題点もあった。   On the other hand, since user needs are very diversified, there has been a problem that the information providing operation is enormous and a great amount of labor and cost are generated on the distribution side. In addition, these operations essentially have a problem that it is difficult to cope with unpredictable live images.

また、コンテンツからユーザが情報を取得したい場合、現状は、詳細なメタデータ付与がなければ、多様な文字やモノや人等の対象を、簡単に適切に指し示す手段が存在しない。それらの対象に関連する情報も、映像やブログ、つぶやき等、多種にわたることが一般的なため、たとえ対象を適切に指し示すことができたとしても、情報活用やアクションへ適切にユーザを導くことが難しいという問題点があった。   In addition, when a user wants to acquire information from content, there is currently no means for easily and appropriately pointing objects such as various characters, objects, and people unless detailed metadata is attached. Since information related to these objects is generally diverse, such as videos, blogs, tweets, etc., even if the target can be pointed appropriately, it can lead the user to information utilization and actions appropriately. There was a problem that it was difficult.

また、上述した特許文献1では、適切にユーザの所望する情報を表示させるため、指示座標情報及び指示タイミングの他にサービス識別子と呼ばれる情報を検索キーとしている。このサービス識別子は、映像データ供給側が予め対象物となるデータを準備しておく必要があり、必ずしも適切に利用できるとは限らなかった。   In Patent Document 1 described above, in order to appropriately display information desired by the user, information called a service identifier is used as a search key in addition to instruction coordinate information and instruction timing. This service identifier needs to be prepared in advance by the video data supply side as target data, and cannot always be used appropriately.

また、表示されている映像データに対して指示入力を行うため、動きの早い映像や細かい領域の指示を行うことは難しかった。特に、ユーザが所望する情報に対して、指示入力を行う前に場面が切り替わってしまうという問題点も生じていた。   In addition, since an instruction is input to the displayed video data, it is difficult to instruct a fast moving image or a detailed area. In particular, there has been a problem that scenes are switched before an instruction is input for information desired by the user.

上述した課題に鑑み、本発明の目的は、コンテンツに基づいて表示された静止画群に対して、ユーザが所定の指示を行うことにより、適切にコンテンツを活用することを可能にするコンテンツ表示装置等を提供することである。   In view of the above-described problems, an object of the present invention is to provide a content display device that allows a user to appropriately use content by giving a predetermined instruction to a group of still images displayed based on the content. Etc. is to provide.

上述した課題を解決するために、本発明のコンテンツ表示装置は、
映像データを含むコンテンツを表示可能なコンテンツ表示装置であって、
入力されたトリガのタイミングの表示コンテンツに対応する静止画群を、コンテンツに含まれる映像データから生成又は抽出して表示する静止画群表示手段と、
表示された静止画群の表示位置を指定することが可能な表示位置指定手段と、
前記指定された表示位置から認識される情報素材に基づいてレコメンドを表示可能なレコメンド表示手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the content display device of the present invention provides:
A content display device capable of displaying content including video data,
Still image group display means for generating or extracting a still image group corresponding to the display content of the input trigger timing from the video data included in the content and displaying it;
Display position designation means capable of designating the display position of the displayed still image group;
Recommendation display means capable of displaying a recommendation based on the information material recognized from the designated display position;
It is characterized by providing.

また、本発明のコンテンツ受信装置は、
本発明のコンテンツ表示装置が接続されており、映像データを含むコンテンツを受信するコンテンツ受信装置において、
前記コンテンツ受信装置又は前記コンテンツ表示装置に入力されたトリガのタイミングのコンテンツを、前記コンテンツ表示装置へ送信するコンテンツ送信手段と、
を備えることを特徴とする。
The content receiving device of the present invention is
In the content receiving device that is connected to the content display device of the present invention and receives content including video data,
Content transmitting means for transmitting content at a trigger timing input to the content receiving device or the content display device to the content display device;
It is characterized by providing.

また、本発明のコンテンツ表示装置は、
映像データを含むコンテンツを受信するコンテンツ受信装置に接続され、前記コンテンツ受信装置から転送されるコンテンツを表示可能なコンテンツ表示装置において、
入力されたトリガのタイミングに基づいてコンテンツを前記コンテンツ受信装置から取得するコンテンツ取得手段と、
前記取得されたコンテンツに含まれる映像データから、入力されたトリガのタイミングの表示コンテンツに対応する静止画群を生成又は抽出して表示する静止画群表示手段と、
表示された静止画群の表示位置を指定することが可能な表示位置指定手段と、
前記指定された表示位置から認識される情報素材に基づいてレコメンドを表示可能なレコメンド表示手段と、
を備えることを特徴とする。
The content display device of the present invention is
In a content display device connected to a content receiving device that receives content including video data and capable of displaying content transferred from the content receiving device,
Content acquisition means for acquiring content from the content reception device based on the input trigger timing;
Still image group display means for generating or extracting a still image group corresponding to the display content at the input trigger timing from the video data included in the acquired content, and displaying it.
Display position designation means capable of designating the display position of the displayed still image group;
Recommendation display means capable of displaying a recommendation based on the information material recognized from the designated display position;
It is characterized by providing.

また、本発明のプログラムは、
映像データを含むコンテンツを表示可能なコンピュータにおいて、
入力されたトリガのタイミングの表示コンテンツに対応する静止画群を、コンテンツに含まれる映像データから生成又は抽出して表示する静止画群表示機能と、
表示された静止画群の表示位置を指定することが可能な表示位置指定機能と、
前記指定された表示位置から認識される情報素材に基づいてレコメンドを表示可能なレコメンド表示機能と、
を実現させることを特徴とする。
The program of the present invention is
In a computer capable of displaying content including video data,
A still image group display function for generating or extracting a still image group corresponding to the display content of the input trigger timing from video data included in the content, and displaying it;
A display position designation function capable of designating the display position of the displayed still image group,
A recommendation display function capable of displaying a recommendation based on the information material recognized from the designated display position;
It is characterized by realizing.

また、本発明のコンテンツ再生装置は、
映像データを含むコンテンツを再生可能なコンテンツ再生装置において、
入力されたトリガのタイミングのコンテンツに対応する静止画群を、コンテンツに含まれる映像データから生成又は抽出する静止画群生成手段と、
前記静止画群における指定位置の入力を受け付ける指定位置受付手段と、
前記静止画群における指定位置に基づいて、ユーザへのレコメンドを生成するための処理を、決定して実行するレコメンド実行手段と、
を備えることを特徴とする。
In addition, the content reproduction apparatus of the present invention is
In a content playback apparatus capable of playing back content including video data,
Still image group generation means for generating or extracting a still image group corresponding to the input trigger timing content from the video data included in the content;
Designated position receiving means for receiving an input of a specified position in the still image group;
Recommendation execution means for determining and executing a process for generating a recommendation to the user based on a designated position in the still image group;
It is characterized by providing.

本発明のコンテンツ表示装置によれば、入力されたトリガのタイミングの表示コンテンツに対応する静止画群を、コンテンツに含まれる映像データから生成又は抽出して表示し、表示された静止画群の表示位置を指定する。そして、指定された表示位置から認識される情報素材に基づいてレコメンドが表示可能となる。これにより、コンテンツに含まれる映像データから生成された静止画群に基づいて領域が選択されると、選択された領域に基づいて情報素材が認識され、情報素材に応じた処理が適切に実行できるようになる。   According to the content display device of the present invention, the still image group corresponding to the display content at the input trigger timing is generated or extracted from the video data included in the content and displayed, and the displayed still image group is displayed. Specify the position. The recommendation can be displayed based on the information material recognized from the designated display position. Thus, when an area is selected based on a group of still images generated from video data included in the content, the information material is recognized based on the selected area, and processing according to the information material can be appropriately executed. It becomes like this.

第1実施形態における全体を説明するための図である。It is a figure for demonstrating the whole in 1st Embodiment. 第1実施形態におけるコンテンツ表示装置の機能構成を説明するための図である。It is a figure for demonstrating the function structure of the content display apparatus in 1st Embodiment. 第1実施形態におけるキャプチャ処理について説明をするための図である。It is a figure for demonstrating the capture process in 1st Embodiment. 第1実施形態における解析処理について説明をするための図である。It is a figure for demonstrating the analysis process in 1st Embodiment. 第1実施形態におけるタッチ入力の動作について説明するための図である。It is a figure for demonstrating operation | movement of the touch input in 1st Embodiment. 第1実施形態における静止画群に対する文字情報処理について説明するための図である。It is a figure for demonstrating the character information processing with respect to the still image group in 1st Embodiment. 第1実施形態における静止画群に対する文字情報処理について説明するための図である。It is a figure for demonstrating the character information processing with respect to the still image group in 1st Embodiment. 第1実施形態における静止画群に対する文字情報処理について説明するための図である。It is a figure for demonstrating the character information processing with respect to the still image group in 1st Embodiment. 第1実施形態における第1実施例を説明するための図である。It is a figure for demonstrating the 1st Example in 1st Embodiment. 第1実施形態における第2実施例を説明するための図である。It is a figure for demonstrating the 2nd Example in 1st Embodiment. 第2実施形態における全体を説明するための図である。It is a figure for demonstrating the whole in 2nd Embodiment. 第2実施形態における機能構成を説明するための図である。It is a figure for demonstrating the function structure in 2nd Embodiment. 第2実施形態における実施例を説明するための図である。It is a figure for demonstrating the Example in 2nd Embodiment. 第2実施形態における実施例を説明するための図である。It is a figure for demonstrating the Example in 2nd Embodiment. 第2実施形態における実施例を説明するための図である。It is a figure for demonstrating the Example in 2nd Embodiment. 第2実施形態における実施例を説明するための図である。It is a figure for demonstrating the Example in 2nd Embodiment. 第2実施形態における実施例を説明するための図である。It is a figure for demonstrating the Example in 2nd Embodiment. 第3実施形態について説明するための図である。It is a figure for demonstrating 3rd Embodiment.

続いて、本発明のコンテンツ表示装置を適用した場合における実施形態について、図を使って説明する。本実施形態におけるコンテンツ表示装置は、放送局等の発信元より配信されている放送コンテンツ(番組)を受信して表示する装置を例にとって説明する。   Next, an embodiment when the content display device of the present invention is applied will be described with reference to the drawings. The content display apparatus in the present embodiment will be described by taking an example of an apparatus that receives and displays broadcast content (program) distributed from a transmission source such as a broadcast station.

[1.第1実施形態]
[1.1 全体説明]
まず、全体説明について図1を用いて説明する。図1は、第1実施形態におけるコンテンツ表示装置10の外観図である。コンテンツ表示装置10は、種々のコンテンツを表示可能であり、また、可搬型でも据え置き型であっても良い。また、詳細は後述するが、例えばLCD(Liquid Crystal Display)により構成されている表示部と、音声出力部とを有しており、ユーザはコンテンツ(例えば、放送局から受信される放送コンテンツ、ネットワークから受信される通信コンテンツ等)の視聴が行える装置である。
[1. First Embodiment]
[1.1 General description]
First, the overall description will be described with reference to FIG. FIG. 1 is an external view of a content display device 10 according to the first embodiment. The content display device 10 can display various contents, and may be portable or stationary. Although details will be described later, for example, a display unit configured by an LCD (Liquid Crystal Display) and an audio output unit are included, and the user can select content (for example, broadcast content received from a broadcasting station, network The communication content received from the device).

[1.2 機能構成]
続いて、コンテンツ表示装置10の機能構成について、図2を用いて説明する。コンテンツ表示装置10は、制御部100と、コンテンツ受信部110と、逆多重化部115と、キャプチャ制御部120と、情報解析部130と、記憶部140と、トリガ入力部150と、ネットワーク通信部160と、出力制御部170と、音声出力部175と、表示部180と、操作部185とを備えて構成されている。
[1.2 Functional configuration]
Next, the functional configuration of the content display device 10 will be described with reference to FIG. The content display device 10 includes a control unit 100, a content reception unit 110, a demultiplexing unit 115, a capture control unit 120, an information analysis unit 130, a storage unit 140, a trigger input unit 150, and a network communication unit. 160, an output control unit 170, an audio output unit 175, a display unit 180, and an operation unit 185.

制御部100は、コンテンツ表示装置10の全体を制御するための機能部である。制御部100は、記憶部140に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Process Unit)等により構成されている。   The control unit 100 is a functional unit for controlling the entire content display device 10. The control unit 100 realizes various functions by reading and executing various programs stored in the storage unit 140, and is configured by, for example, a CPU (Central Process Unit).

コンテンツ受信部110は、コンテンツ表示装置10が、コンテンツを受信するための機能部である。ここで、本実施形態において取得されるコンテンツは、外部の放送局から、例えば、地上波デジタル放送や、デジタル衛星放送、ケーブルテレビ等を介して受信される放送コンテンツである。   The content receiving unit 110 is a functional unit for the content display device 10 to receive content. Here, the content acquired in the present embodiment is broadcast content received from an external broadcasting station via, for example, terrestrial digital broadcasting, digital satellite broadcasting, cable television, or the like.

なお、コンテンツ受信部110が受信するコンテンツは、放送コンテンツ以外にも、例えば記憶部140や、外部の記録媒体に記録されているマルチメディアコンテンツや、ネットワークを介して受信されるIPマルチキャスト放送や、WEB等の通信コンテンツであっても良い。   The content received by the content receiving unit 110 is not limited to broadcast content, for example, storage unit 140, multimedia content recorded on an external recording medium, IP multicast broadcast received via a network, It may be communication content such as WEB.

逆多重化部115は、コンテンツ(例えば、受信された放送コンテンツ)から、映像データ、音声データ、文字データ等といった多重化されているデータ(ストリーム)を逆多重化するための機能部である。逆多重化部115により、分離された各種データ(ストリーム)は、各機能部にそれぞれ出力されることとなる。   The demultiplexing unit 115 is a functional unit for demultiplexing multiplexed data (stream) such as video data, audio data, character data, and the like from content (for example, received broadcast content). Various data (streams) separated by the demultiplexing unit 115 is output to each functional unit.

キャプチャ制御部120は、後述するキャプチャ処理を実行する場合に利用される機能部である。キャプチャ制御部120が、キャプチャ処理を実行することにより、コンテンツから抽出(分離)される映像データから静止画(群)をキャプチャすることとなる。   The capture control unit 120 is a functional unit used when executing a capture process described later. The capture control unit 120 captures a still image (group) from video data extracted (separated) from the content by executing a capture process.

情報解析部130は、後述する解析処理を実行するための機能部である。例えば、静止画(群)の画像を解析することにより文字列を情報素材として認識したり、オブジェクトを情報素材として認識したりする。また、当該文字列のカテゴリを判定し、当該識別された文字列及びカテゴリに基づいて適切な処理を実行できるように、制御を行うことが可能である。すなわち、ユーザからの入力や、指示入力された座標等を解析し、情報素材に対応したレコメンド処理を決定する。具体的な情報解析部130の仕組みについて、以下例をあげて説明する。   The information analysis unit 130 is a functional unit for executing analysis processing described later. For example, a character string is recognized as an information material by analyzing a still image (group) image, or an object is recognized as an information material. Further, it is possible to perform control so that the category of the character string can be determined and appropriate processing can be executed based on the identified character string and category. That is, the recommendation processing corresponding to the information material is determined by analyzing the input from the user, the coordinates inputted by the instruction, and the like. A specific mechanism of the information analysis unit 130 will be described below with an example.

(1)操作部185のタップ入力を基に、その座標周辺にある画像を文字、URLであると判断をした場合、当該文字等を情報素材として認識する。そして、ネットワーク通信部160を通して、URLの示すウェブページのタイトルを取得した後、ユーザにそこへジャンプするレコメンド処理を示す。   (1) When it is determined that the image around the coordinates is a character or URL based on the tap input of the operation unit 185, the character or the like is recognized as an information material. Then, after obtaining the title of the web page indicated by the URL through the network communication unit 160, the recommendation process of jumping to the user is shown.

(2)操作部185のスライド入力を基に、そのライン上の画像が文字列と判断された場合、当該文字列を情報素材として認識する。その情報素材が住所である場合は、旅行情報、地図情報等へのジャンプ、その情報素材が住所ではない場合は、その文字による検索結果へジャンプ等のレコメンド処理を示す。   (2) When the image on the line is determined to be a character string based on the slide input of the operation unit 185, the character string is recognized as an information material. When the information material is an address, a recommendation process such as a jump to travel information, map information or the like, and when the information material is not an address, a recommendation process such as a jump to a search result using the character is shown.

(3)レコメンド処理として「保存する」という処理を示し、利用者がその処理を選らんだ場合、テキストか画像か映像等の形式を、更にレコメンド処理として示す。   (3) The process of “save” is shown as the recommendation process, and when the user selects the process, the format of text, image, video or the like is further shown as the recommendation process.

(4)1つの静止画に対して、円形や矩形で領域指定が入力された場合、そこに含まれる画像を、宅内ネットワークに属しているプリンタへ送信する等のレコメンド処理を追加する。   (4) When an area designation is input in the form of a circle or rectangle for one still image, a recommendation process such as transmitting an image contained therein to a printer belonging to the home network is added.

(5)1つの静止画に対して、タップや領域指定が行われ、かつ、そこに文字が含まれないと判断された場合、類似画像検索へのジャンプを、レコメンド処理として示す。また、その類似画像検索等の検索を行う際、時間的に隣接する静止画の同一座標上の画像データも一緒に検索のためのデータとして活用する。   (5) When a tap or region designation is performed on one still image and it is determined that no character is included therein, a jump to a similar image search is indicated as a recommendation process. In addition, when performing a search such as a similar image search, image data on the same coordinates of still images that are temporally adjacent are also used together as search data.

(6)時刻の異なる複数の静止画に対して、例えば領域指定が行われた場合に、そこに含まれる画像を比較して、同一対象物だと判断した際、複数の静止画の間の時刻の静止画における対象物の「動き」を解析して、例えば、「猫のジャンプ」等を情報素材(検索キー)として活用するレコメンド処理を追加する。   (6) For example, when region designation is performed for a plurality of still images with different times, when the images included in the region are compared and determined to be the same object, Analyzing the “movement” of the object in the still image at the time, for example, adding a recommendation process that utilizes “cat jump” or the like as an information material (search key).

(7)長タップ、フリック、フリップ等の動作が行われた際、その動作が行われた画像の一部に文字等の情報が含まれるかどうかの解析を行った上で、特に情報素材が抽出されなかった場合等は、その映像データ全体や、コンテンツ全体が指定されたと判断し、コンテンツ全体に関連する通信コンテンツを含むVODコンテンツの有無を調べてレコメンド処理として示す。   (7) When an operation such as a long tap, flick, or flip is performed, an analysis is performed to determine whether information such as characters is included in a part of the image on which the operation is performed. When not extracted, it is determined that the entire video data or the entire content has been designated, and the presence / absence of VOD content including communication content related to the entire content is checked and indicated as recommendation processing.

記憶部140は、コンテンツ表示装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部140は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。   The storage unit 140 is a functional unit that stores various programs and various data necessary for the operation of the content display device 10. The storage unit 140 includes, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like.

また、記憶部140には、記憶領域として、コンテンツデータ記憶領域142と、コンテンツ作業領域144と、静止画群記憶領域146が確保されている。   In the storage unit 140, a content data storage area 142, a content work area 144, and a still image group storage area 146 are secured as storage areas.

コンテンツデータ記憶領域142は、コンテンツ受信部110により受信されたコンテンツが記憶される領域である。記憶されるコンテンツには、コンテンツに関するデータ、例えば、放送コンテンツであれば、映像データ、音声データ、番組情報、メタデータ等が含まれている。   The content data storage area 142 is an area in which content received by the content receiving unit 110 is stored. The stored content includes data related to the content, for example, video data, audio data, program information, metadata, and the like for broadcast content.

コンテンツ作業領域144は、表示されているコンテンツ又は記憶されているコンテンツのうち、必要に応じてキャプチャされたコンテンツが作業用(一時記憶用)に記憶される領域である。例えば、受信されているコンテンツから10秒間分のコンテンツが記憶される。   The content work area 144 is an area in which displayed content or stored content that is captured as necessary is stored for work (temporary storage). For example, the content for 10 seconds is stored from the received content.

静止画群記憶領域146は、コンテンツ作業領域144に記憶されたコンテンツから生成される静止画群が記憶される領域である。具体的には、コンテンツ作業領域144に記憶されている作業用のコンテンツに含まれる映像データから静止画群が生成されることとなる。   The still image group storage area 146 is an area in which a still image group generated from the content stored in the content work area 144 is stored. Specifically, a still image group is generated from video data included in work content stored in the content work area 144.

ここで、静止画群は、原則として映像データの複数フレーム画像をキャプチャした複数の静止画から構成されているが、1枚の静止画から構成されていても良い。この場合、静止画群として複数の静止画から構成されている場合は、より認識処理の精度が高まることとなる。   Here, the still image group is composed of a plurality of still images obtained by capturing a plurality of frame images of video data in principle, but may be composed of a single still image. In this case, when the still image group is composed of a plurality of still images, the accuracy of the recognition process is further increased.

トリガ入力部150は、ユーザの動作に応じて、後述するキャプチャ処理を実行するトリガを検知するための機能部である。例えば、コンテンツ表示装置10に内蔵された加速度センサや、照度センサを利用することにより、コンテンツ表示装置10の動きをトリガとして検知しても良い。また、光センサや温度センサ、赤外センサ等により、利用者の動きを検知し、利用者の動きに応じてトリガが入力されることとしても良い。   The trigger input unit 150 is a functional unit for detecting a trigger for executing a later-described capture process in accordance with a user operation. For example, the movement of the content display device 10 may be detected as a trigger by using an acceleration sensor or an illuminance sensor built in the content display device 10. Further, the movement of the user may be detected by an optical sensor, a temperature sensor, an infrared sensor, or the like, and a trigger may be input according to the movement of the user.

ネットワーク通信部160は、他の装置等と通信を行うための機能部である。例えば、Ethernet(登録商標)や、USBといった有線接続するためのインタフェースや、IEEE802.11a/b/g/nといった無線LANのインタフェースにより構成されている。   The network communication unit 160 is a functional unit for communicating with other devices. For example, it includes an interface for wired connection such as Ethernet (registered trademark) and USB, and a wireless LAN interface such as IEEE802.11a / b / g / n.

出力制御部170は、各種機能部の出力を制御するための機能部である。例えば、音声出力部175の音声出力や、表示部180の表示制御、操作部185の操作入力を検出したりしている。   The output control unit 170 is a functional unit for controlling the output of various functional units. For example, the audio output of the audio output unit 175, the display control of the display unit 180, and the operation input of the operation unit 185 are detected.

音声出力部175は、音声出力を行うための機能部である。例えば、スピーカやヘッドホン等により構成されている。また、表示部180は、各種表示を行うための機能部であり、例えばLCD、有機ELパネル等により構成されている。   The audio output unit 175 is a functional unit for performing audio output. For example, it is configured by a speaker, headphones, or the like. The display unit 180 is a functional unit for performing various types of display, and includes, for example, an LCD, an organic EL panel, or the like.

操作部185は、ユーザからの操作入力を受け付けるための機能部である。本実施形態においては、表示部180の一体に構成されたタッチパネルを想定している。なお、マウスや、音声、動きセンサといった他の種類のものであっても良い。   The operation unit 185 is a functional unit for receiving an operation input from the user. In the present embodiment, a touch panel configured integrally with the display unit 180 is assumed. Other types such as a mouse, a voice, and a motion sensor may be used.

[1.3 処理の流れ]
続いて、本実施形態における処理の流れについて図を用いて説明する。
[1.3 Process flow]
Subsequently, the flow of processing in the present embodiment will be described with reference to the drawings.

[1.3.1 キャプチャ処理]
まず、キャプチャ処理について図3を用いて説明する。キャプチャ処理は、コンテンツ表示装置10において、コンテンツが表示されている間(例えば、放送局からコンテンツ受信部110を介して放送コンテンツを受信し、表示されている間)、実行されている処理である。
[1.3.1 Capture processing]
First, the capture process will be described with reference to FIG. The capture process is a process executed on the content display device 10 while the content is displayed (for example, while the broadcast content is received from the broadcast station via the content receiving unit 110 and displayed). .

トリガ入力部150により、トリガ入力が検知されると(ステップS102;Yes)、コンテンツを取得し(ステップS104)、コンテンツ作業領域144に一時記憶する(ステップS106)。なお、トリガ入力検知以降の各処理の間、表示部の一部に受信コンテンツが継続して表示されるようにしてもよい。   When the trigger input is detected by the trigger input unit 150 (step S102; Yes), the content is acquired (step S104) and temporarily stored in the content work area 144 (step S106). It should be noted that the received content may be continuously displayed on a part of the display unit during each process after the trigger input is detected.

この場合、例えば、表示部内の隅等の、静止画群の表示をできるだけ妨げない領域に、受信コンテンツを引き続き表示したり、ボタンやタブ等により、受信コンテンツ表示と静止画群表示を切り替えられるようにしたりすることもできる。また、それらを含む方法に基づく表示の際、トリガ入力のタイミングで受信コンテンツの記録を開始させたり、ユーザの表示内容に基づいて、表示させていない時間のみ受信コンテンツを自動的に記憶しておくようにしたりすることもできる。   In this case, for example, the received content can be continuously displayed in an area where the display of the still image group is not hindered as much as possible, such as a corner in the display unit, or the received content display and the still image group display can be switched by a button, a tab, or the like. It can also be made. In addition, when displaying based on a method including them, recording of the received content is started at the timing of trigger input, or the received content is automatically stored only for a period of time not displayed based on the display content of the user. You can also do it.

ここで、コンテンツの一例として、放送コンテンツの場合、放送コンテンツの番組に付随する情報として番組情報が含まれている。番組情報には、当該番組のタイトル、放送時間、放送局、番組内容、出演者、キーワードといった種々の情報が含まれている。また、放送コンテンツの付随情報として、各種文字情報や、メタデータ等が含まれていても良い。   Here, as an example of content, in the case of broadcast content, program information is included as information accompanying the broadcast content program. The program information includes various information such as the title of the program, broadcast time, broadcast station, program content, performers, and keywords. Moreover, various character information, metadata, etc. may be included as accompanying information of broadcast content.

そして、利用者から現在取得されたコンテンツに基づいてレコメンド処理を実行する要求であるレコメンド要求を検知する(ステップS108)。レコメンド要求が所定時間検知されない場合は(ステップS108;No→ステップS116;Yes)、コンテンツ作業領域144に一時記憶されたコンテンツを消去し(ステップS118)、ステップS102から処理を繰り返し実行する。   And the recommendation request | requirement which is a request | requirement which performs a recommendation process based on the content currently acquired from the user is detected (step S108). When the recommendation request is not detected for a predetermined time (step S108; No → step S116; Yes), the content temporarily stored in the content work area 144 is deleted (step S118), and the processing is repeatedly executed from step S102.

この場合、レコメンド要求検知の方法としては、例えば、明示的にレコメンド要求をボタンで画面に表示する方法や、取得されたコンテンツの有無を、前記所定時間の間、表示部の一部にリスト形式等で表示しておいて、その表示領域に対する利用者のアクションをレコメンド要求として判断することもできる。   In this case, as a method for detecting the recommendation request, for example, a method for explicitly displaying the recommendation request on the screen with a button, or the presence / absence of the acquired content is displayed in a list form in a part of the display unit for the predetermined time. For example, the user's action on the display area can be determined as a recommendation request.

すなわち、トリガ入力により自動的にコンテンツが取得され、記憶されるが、利用者にとって意図しないトリガが検知されて記憶される場合がある。この場合は、利用者から関連コンテンツ要求が入力されないため、一時記憶したコンテンツを削除(消去)することにより、利便性を向上させている。   That is, content is automatically acquired and stored by trigger input, but a trigger that is not intended for the user may be detected and stored. In this case, since the related content request is not input from the user, the convenience is improved by deleting (erasing) the temporarily stored content.

他方、利用者からレコメンド要求があった場合には(ステップS108;Yes)、コンテンツ作業領域144に一時記憶されたコンテンツから映像データを抽出する(ステップS110)。そして、抽出された映像データから静止画群が生成される(ステップS112)。当該生成された静止画群は、静止画群記憶領域146に記憶され、表示部180に所定の静止画が表示される(ステップS114)。この場合、例えば静止画群の中で最初の静止画を表示することとしても良いし、記録された複数の静止画群の中央、最後といった何れかの静止画が表示されたり、もちろん、静止画群のうちの複数の画像が時間順に並べて表示されたりしてもよい。   On the other hand, when there is a recommendation request from the user (step S108; Yes), video data is extracted from the content temporarily stored in the content work area 144 (step S110). Then, a still image group is generated from the extracted video data (step S112). The generated still image group is stored in the still image group storage area 146, and a predetermined still image is displayed on the display unit 180 (step S114). In this case, for example, the first still image in the still image group may be displayed, or any one of the recorded still images such as the center and the last of the plurality of recorded still image groups may be displayed. A plurality of images in the group may be displayed in time order.

なお、このユーザからのレコメンド要求により、ステップS104及びS106において自動的に取得されたコンテンツが、次の解析処理で利用可能な様に記憶されることとなる。   Note that the content automatically acquired in steps S104 and S106 by the recommendation request from the user is stored so that it can be used in the next analysis processing.

なお、トリガ入力の方法(例えば利用者が画面をタップするといった意図的なトリガ入力の方法)によっては、ステップS106から直接ステップS110に処理を遷移させても良い。   Note that, depending on a trigger input method (for example, an intentional trigger input method in which a user taps the screen), the process may be directly shifted from step S106 to step S110.

[1.3.2 解析処理]
続いて解析処理について説明する。解析処理は、図3のキャプチャ処理のあと、表示されている静止画(静止画群)に対して、ユーザからの入力検知が行われた場合に実行される処理である。
[1.3.2 Analysis processing]
Next, the analysis process will be described. The analysis process is a process executed when input detection from the user is performed on the displayed still image (still image group) after the capture process of FIG.

ユーザからの入力の検知が行われると(ステップS202;Yes)、入力検知が指示操作か否かを判定する(ステップS204)。すなわち、ユーザが、コンテンツ表示装置10に対して、例えばコンテンツの切り替えや、表示方法の切り替え、コンテンツの出力といった、種々の操作の指示を行うことができる。この、ユーザからの入力検知が、所定の指示操作であると判定された場合には(ステップS204;Yes)、対応する指示操作処理が実行される(ステップS206)。   When the input from the user is detected (step S202; Yes), it is determined whether the input detection is an instruction operation (step S204). That is, the user can instruct the content display apparatus 10 for various operations such as content switching, display method switching, and content output. When it is determined that the input detection from the user is a predetermined instruction operation (step S204; Yes), a corresponding instruction operation process is executed (step S206).

他方、検知された入力が指示操作ではない場合(ステップS204;No)、すなわちコンテンツに対する指示の場合、入力検知から対象となっている静止画群と、アクション種と、座標とを判定する(ステップS208)。   On the other hand, when the detected input is not an instruction operation (step S204; No), that is, in the case of an instruction for content, the still image group, the action type, and the coordinates determined from the input detection are determined (step) S208).

ここで、入力検知から対象となっている静止画群とは、現在入力検知された(すなわちユーザが表示している)静止画に対応する静止画群を特定するための情報である。また、アクション種は、ユーザの入力方法により、「指定部」か「指定領域」が入力されたかを示す情報である。また、「指定部」又は「指定領域」に対応する「座標」についても入力検知から取得される。   Here, the target still image group from the input detection is information for specifying the still image group corresponding to the still image that is currently input-detected (that is, displayed by the user). The action type is information indicating whether the “designation part” or the “designation area” is entered by the user's input method. Further, “coordinates” corresponding to “designating part” or “designated area” are also acquired from the input detection.

ここで、入力検知からアクション種や座標を判定する方法の概略について、図5を用いて説明する。図5は、タッチパネルを用いてユーザから入力された場合の入力検知について説明するための図である。   Here, an outline of a method for determining an action type and coordinates from input detection will be described with reference to FIG. FIG. 5 is a diagram for describing input detection when input is made by a user using a touch panel.

例えば、図5(a)に示すように、所定の点がタップされた場合、当該タップされた座標を指定部として検知する。図5(a)の場合、(x1,y1)がタップされていることから、当該(x1,y1)が指定部として検知され、その周辺を指定部周辺として検知する。例えば、(x1−10、y−10)から(x1+10、y1+10)で囲まれた領域が指定部周辺として認識される。ここで、(x、y)の各軸の数値は、例えば、ミリメートル等の距離の単位でもよいし、画素数、もしくはそれに相当する値であってもよい。   For example, as shown in FIG. 5A, when a predetermined point is tapped, the tapped coordinate is detected as a designation unit. In the case of FIG. 5A, since (x1, y1) is tapped, the (x1, y1) is detected as the designated portion, and the periphery is detected as the designated portion periphery. For example, an area surrounded by (x1-10, y-10) to (x1 + 10, y1 + 10) is recognized as the designated part periphery. Here, the numerical value of each axis of (x, y) may be a unit of distance such as millimeters, or may be the number of pixels or a value corresponding thereto.

他方、図5(b)の用に、所定の範囲にわたって入力が検知された場合には、指定領域が入力されたと検知する。図5(b)は、円を描くようにタップ入力されており、当該入力された領域(x2,y2)から(x3,y3)で囲まれた領域が指定領域として認識される。   On the other hand, when the input is detected over a predetermined range as shown in FIG. 5B, it is detected that the designated area is input. In FIG. 5B, tap input is performed so as to draw a circle, and an area surrounded by the input areas (x2, y2) to (x3, y3) is recognized as a designated area.

更に、上記のような単純に座標範囲だけではなく、より精度の高い検出を行うようにしてもよい。例えば、画素の色度情報を活用する。具体的には、タップされた座標を中心に所定の範囲(30×30画素や50×50画素等)の領域を決め、その領域内の画素色度を平均し、領域を拡大していき色度が略一定の領域を検出。検出した領域を内接する長方形等で指定領域を確定する。   Furthermore, not only the coordinate range as described above but also more accurate detection may be performed. For example, pixel chromaticity information is utilized. Specifically, an area of a predetermined range (30 × 30 pixels, 50 × 50 pixels, etc.) is determined around the tapped coordinates, the pixel chromaticities within the area are averaged, and the area is expanded. Detect areas where the degree is almost constant. The designated area is determined by a rectangle inscribed in the detected area.

また、静止画全体の輪郭抽出を行い、タップされた時点で、静止画全体に対して、まず、画素の色情報(RGB値)から明るさ情報(0〜255)を算出する。そして、あらかじめ決めておいた閾値で画像データを2値化する。閾値としては、例えば、最大値の半分として127にしておいてもよいし、静止画全体の明るさの平均値を算出した後、その中央としてもよい。その後、2値画像からエッジ部分を検出し、タップされた座標を囲むようなエッジを見つけるといった方法も可能である。そして、見つけたエッジに囲まれた領域を内接する長方形等で指定領域を確定する。更に、輪郭抽出の後、得られた形状からコンテンツのオブジェクト(情報素材)を類推することも可能である。   Further, contour extraction of the entire still image is performed, and when tapped, brightness information (0 to 255) is first calculated from pixel color information (RGB values) for the entire still image. Then, the image data is binarized with a predetermined threshold. As the threshold value, for example, it may be set to 127 as half of the maximum value, or may be set to the center after calculating the average value of the brightness of the entire still image. Thereafter, it is possible to detect an edge portion from the binary image and find an edge surrounding the tapped coordinate. Then, the designated area is determined by a rectangle inscribed in the area surrounded by the found edge. Furthermore, after contour extraction, it is possible to infer a content object (information material) from the obtained shape.

また、顔認識技術を活用してもよい。一般的には、静止画全体に対して、パターン照合等による顔認識処理を行い、顔領域を検出しておき、タップされた座標が顔領域内又はその近傍であれば顔領域を内接する長方形等で指定領域を確定する。また、パターン照合の場合、両目―鼻―口等の顔のパーツで認識処理を行うため、一般的に、検出される顔領域は頭部全体に比べて小さくなってしまうため、例えば、顔領域結果を内接する円形をまず決めた後、更に、その円形を内接する長方形を抽出するといった方法であっても良い。   Further, face recognition technology may be used. In general, face recognition processing such as pattern matching is performed on the entire still image, the face area is detected, and if the tapped coordinate is within or near the face area, a rectangle that inscribes the face area Confirm the specified area with etc. In the case of pattern matching, since recognition processing is performed with facial parts such as both eyes, nose and mouth, the detected face area is generally smaller than the entire head. After determining the circle inscribed in the result, a method of extracting a rectangle inscribed in the circle may be used.

なお、本実施形態においては、入力検知をする装置(手段)としては、タッチパネルを利用することとしても説明するが、他の方法を利用しても良い。例えば、マウスであったり、リモートコントローラであったり、ユーザの動きを装置本体に内蔵されたセンサで検出することとしても良い。   In the present embodiment, as a device (means) for detecting input, a touch panel is used. However, other methods may be used. For example, it may be a mouse, a remote controller, or the movement of the user may be detected by a sensor built in the apparatus main body.

続いて、アクション種が「領域指定」であるか否かを判定する(ステップS210)。アクション種が「領域指定」の場合(ステップS210;Yes)、指定領域内に文字情報が含まれているのか否かを判定する(ステップS220)。ここで、指定領域内に文字情報が含まれている場合には、当該文字情報に基づいて文字情報処理を実行する(ステップS216)。他方、文字情報が含まれていない場合には、画像情報処理を実行する(ステップS222)。ここで、画像情報処理を実行したが、認識結果を取得できなかった場合には、コンテンツ情報処理を実行する(ステップS224;No→ステップS230)。   Subsequently, it is determined whether or not the action type is “region designation” (step S210). When the action type is “area designation” (step S210; Yes), it is determined whether character information is included in the designated area (step S220). Here, if character information is included in the designated area, character information processing is executed based on the character information (step S216). On the other hand, if character information is not included, image information processing is executed (step S222). Here, when the image information processing is executed but the recognition result cannot be acquired, the content information processing is executed (step S224; No → step S230).

他方、ステップS210において、アクション種が「指定部」である場合(ステップS210;No)、指定部周辺に文字情報が含まれているか否かを判定する(ステップS212)。ここで、指定部周辺に文字情報が含まれている場合は(ステップS212;Yes)、文字情報処理が実行される(ステップS216)。   On the other hand, when the action type is “designation part” in step S210 (step S210; No), it is determined whether character information is included around the designation part (step S212). If character information is included around the designated portion (step S212; Yes), character information processing is executed (step S216).

ここで、文字情報処理を実行することにより、文字情報を情報素材の認識結果として取得できなかった場合は(ステップS218;No)、コンテンツ情報処理を実行する(ステップS230)。   If the character information cannot be acquired as the information material recognition result by executing the character information processing (step S218; No), the content information processing is executed (step S230).

他方、ステップS212において、指定部周辺に文字情報が含まれていない場合、指定部周辺に顔や動物、物品等のオブジェクトが含まれているか否かを判定する(ステップS212;No→ステップS214)。   On the other hand, if character information is not included in the vicinity of the designated portion in step S212, it is determined whether or not an object such as a face, an animal, or an article is contained in the vicinity of the designated portion (step S212; No → step S214). .

ここで、指定部周辺にオブジェクトが含まれている場合は、ステップS222(画像情報処理)から処理を進める(ステップS214;Yes→ステップS222)。しかし、指定部周辺にオブジェクトも含まれていない場合は(ステップS214;No)、コンテンツ情報処理が実行される(ステップS230)。   If an object is included around the designated part, the process proceeds from step S222 (image information processing) (step S214; Yes → step S222). However, if no object is included around the designated portion (step S214; No), content information processing is executed (step S230).

文字情報処理を実行して情報素材の認識結果がある場合(ステップS218;Yes)、画像情報処理を実行して情報素材の認識結果がある場合(ステップS224;Yes)又はコンテンツ情報処理を実行した場合(ステップ230)、当該情報素材に基づいてレコメンド処理が実行される(ステップS232)。   When character information processing is executed and there is an information material recognition result (step S218; Yes), image information processing is executed and there is an information material recognition result (step S224; Yes), or content information processing is executed If so (step 230), a recommendation process is executed based on the information material (step S232).

レコメンド処理とは、情報素材に基づいて判断され、利用者にとって適切な動作と思われる処理のことである。レコメンド処理としては、種々の方法が考えられるが、例えば、検索サイトにおいて、情報素材に基づいた検索結果を表示したり、情報素材に基づいたサイトを表示させたり、情報素材に基づいた電話番号に発信したりと、種々の処理を実行することが可能となる。この情報素材に対するレコメンド処理については、各処理から情報素材と併せて指示されることになる。以下、各処理について具体的に説明する。   The recommendation process is a process that is determined based on the information material and seems to be an appropriate operation for the user. Various methods can be considered as recommendation processing. For example, on a search site, a search result based on information material is displayed, a site based on information material is displayed, or a telephone number based on information material is displayed. It is possible to execute various processes such as sending a call. The recommendation processing for the information material is instructed together with the information material from each processing. Each process will be specifically described below.

(1)文字情報処理
文字情報処理は、画像から文字(列)を情報素材として認識する処理である。例えば、所定の領域の画像から、パターン認識により文字を認識する、いわゆるOCRを実行することにより実現する処理である。
(1) Character information processing Character information processing is processing for recognizing a character (string) from an image as an information material. For example, this is a process realized by executing so-called OCR, which recognizes characters from an image in a predetermined area by pattern recognition.

また、本実施形態の場合、文字列に例えば「http://」や「〒123」等が含まれる場合、「ウェブアドレス名」「住所」等のカテゴリ分けを、情報解析部130で行い、レコメンド処理として、「ウェブページへジャンプ処理」や「地図表示処理」等が決定される。この際、例えば対象となる文字列に対して、リンク情報やmailto、phoneto等のメタデータがあらかじめ付与されている場合には、それらのメタデータに基づく処理が、優先的にレコメンド処理として決定される。   In the case of the present embodiment, when the character string includes, for example, “http: //” or “〒123”, the information analysis unit 130 performs categorization such as “web address name” and “address”. As the recommendation process, “jump to web page”, “map display process”, and the like are determined. At this time, for example, when metadata such as link information, mailto, and phoneto is pre-assigned to the target character string, processing based on the metadata is preferentially determined as recommendation processing. The

また、特に、長い文字列の場合は、一度、ネットワーク通信部160から外部ネットワークを活用して、文字列そのままを検索し、検索結果ページ内でハイライトされた単語を抽出して、検索キー(語句)を取得してもよい。そして、当該検索キーを情報素材として「○○○を検索」等をレコメンド処理とすることも可能である。   In particular, in the case of a long character string, the network communication unit 160 uses the external network to search for the character string as it is, extract the highlighted word in the search result page, and search key ( Phrase). Then, using the search key as an information material, “search for XXX” or the like can be used as a recommendation process.

文字列のカテゴリがわからない場合も、一度、通信部からその文字列を検索し、結果ページからその語が「人名」や「施設名」等の判断をすることができるため、その判断結果に基づいて、例えば「人名」なら「プロフィール」や「画像」の検索語を追加してレコメンド処理とする。   Even if you do not know the category of the character string, you can search for the character string once from the communication department, and determine the words such as “person name” or “facility name” from the result page. For example, if it is “person name”, a search term “profile” or “image” is added to perform recommendation processing.

更に、長文やカテゴリ不明の文字列の場合や、指定された画像近傍に文字情報が含まれないと判断された場合には、キャプチャしたコンテンツに番組情報やメタデータ、字幕等が含まれていれば(コンテンツの付随情報が記憶されていれば)、それらのコンテンツ由来情報の文字列も情報素材として検索処理の精度を高めたり、あらかじめ、コンテンツ由来情報だけで検索処理を行っておき、その結果を文字認識の際、優先的にマッチングを確認したりすることも可能である。   Furthermore, in the case of a long sentence, a character string whose category is unknown, or when it is determined that character information is not included in the vicinity of the designated image, program information, metadata, subtitles, etc. may be included in the captured content. If the accompanying information of the content is stored, the character string of the content-derived information is also used as information material to improve the accuracy of the search process, or the search process is performed only with the content-derived information in advance. It is also possible to preferentially check the matching during character recognition.

更に、画像から文字認識を行う際、指定された静止画の前後数枚の静止画群に対して、同じ指定領域の画像部分で同様の文字認識処理を行うことで、認識精度を高めることができる。静止画群に対する処理についての詳細は後述する。   Furthermore, when character recognition is performed from an image, recognition accuracy can be improved by performing similar character recognition processing on the image portion of the same designated area for several still image groups before and after the specified still image. it can. Details of the processing for the still image group will be described later.

(2)画像情報処理
画像情報処理は、利用者が選択された領域に含まれる画像を情報素材として処理が実行される。すなわち、ユーザ入力が丸や四角等で囲むような領域指定の場合、「類似画像検索処理」をレコメンド処理とする。
(2) Image information processing In the image information processing, an image included in an area selected by the user is used as an information material. That is, when the user input is an area specification that is enclosed by a circle or square, the “similar image search process” is set as a recommendation process.

また、囲まれた画像領域内に特定のオブジェクトが情報素材として認識された場合、オブジェクトによって、例えば、顔等が検出されたら「人物検索」等、家具や衣服等を検出されたら「商品検索」や「価格検索」等、食物や料理が検出されたら「レシピ検索」や「レストラン検索」等の処理をレコメンド処理とする。   Further, when a specific object is recognized as an information material in the enclosed image area, for example, when a face is detected by the object, “person search” or the like is detected, and when furniture or clothes are detected, “product search” is detected. When food or cooking is detected, such as “price search” or “price search”, processes such as “recipe search” and “restaurant search” are set as recommendation processes.

例えば、情報解析部130で、画像認識を行い、顔だと判断したり、その形状や色等を認識することも可能であるため、その場合は、情報素材に「顔」や「○○色」等を追加し、検索処理をレコメンド処理とする(「類似顔検索」、「類似色画像検索」等)。   For example, the information analysis unit 130 can recognize an image and determine that it is a face, or recognize its shape, color, and the like. In this case, the information material includes “face” and “XX color”. ”And the like are added, and the search process is a recommendation process (“ similar face search ”,“ similar color image search ”, etc.).

また、文字情報処理例と同様、コンテンツに含まれる付随情報(番組情報、放送由来情報の文字列)や、前後数枚の静止画群の活用等により、画像解析、オブジェクト認識、検索処理等の精度や効率を向上させることができる。   In addition, as in the character information processing example, image analysis, object recognition, search processing, etc. can be performed by using accompanying information (program information, character strings of broadcast-derived information) included in the content, and several still image groups. Accuracy and efficiency can be improved.

(3)コンテンツ情報処理
コンテンツ情報処理は、指定部周辺や、指定領域内に特定の文字列や、画像等を検出できなかった場合に実行される処理である。特にユーザ指示領域の画像解析、オブジェクト認識で特別な情報が含まれていない場合は、ユーザ指示がコンテンツ全体に対するものである可能性が高いと判断し、コンテンツの付随情報(例えば、EPG等の情報)を基に、「関連動画検索(ジャンル、出演者、番組タイトル等)」や「番組検索(シリーズ番組の過去放送VODコンテンツ、今後放送予定の同タイトル番組、同じジャンル番組等)」等といった処理をレコメンド処理とする。
(3) Content information processing The content information processing is a process executed when a specific character string, an image, or the like is not detected around a designated portion or within a designated area. In particular, when special information is not included in image analysis and object recognition of the user instruction area, it is determined that there is a high possibility that the user instruction is for the entire content, and information associated with the content (for example, information such as EPG) ) On the basis of "related video search (genre, cast, program title, etc.)" Is a recommendation process.

特に、特別な情報が含まれないユーザの領域指定が、時刻の異なる複数の静止画群に対して存在する場合、コンテンツ全体だけでなく、シーンや詳細な場面単位でのユーザ指示である可能性が高いと判断し、当該画像の時刻情報から、情報解析部130でその時間領域の音声や字幕、メタデータ等の情報を抽出し、文字列を取りだす等の処理を行うことで、「シーン検索(ジャンルや出演者を限定した動画検索等)」や「BGM検索(音楽の一部から楽曲名検索等)」、「ロケーション検索(地名や建物名等を活用)」といった処理をレコメンド処理とする。   In particular, when the user's area specification that does not include special information exists for multiple still image groups with different times, there is a possibility that it is a user instruction not only for the entire content but also for scenes and detailed scene units The information analysis unit 130 extracts information such as audio, subtitles, metadata, etc. in the time domain from the time information of the image, and performs processing such as extracting a character string. Processes such as “Search videos by genre or performers”, “BGM search (Search music name from a part of music, etc.)”, “Location search (use place names, building names, etc.)” are recommended processing. .

ここで、レコメンド処理として、レコメンドが一つの場合について説明したが、例えば複数ある場合を想定しても良い。例えば、画像情報処理において、複数のオブジェクトが認識された場合は、レコメンドリストを表示し、利用者に選択させることとしても良い。   Here, although the case where there is one recommendation has been described as the recommendation processing, for example, a case where there are a plurality of recommendations may be assumed. For example, when a plurality of objects are recognized in image information processing, a recommendation list may be displayed and the user may be selected.

また、上述した処理においては、説明の都合上、文字情報処理、画像情報処理、コンテンツ情報処理をそれぞれ説明したが、複数実行されることとしても良い。例えば、文字情報処理が実行された後に、画像情報処理が実行され、当該結果に基づいたレコメンドリストを表示することとしても良い。   In the above-described processing, for convenience of explanation, character information processing, image information processing, and content information processing have been described, but a plurality of processing may be executed. For example, after the text information processing is executed, the image information processing is executed, and a recommendation list based on the result may be displayed.

[1.4 静止画群の利用]
[1.4.1 処理の説明]
ここで、本実施形態における静止画群の利用について、説明する。上述した通り、静止画群は、コンテンツから抽出された映像データからキャプチャ(取得)された静止画から構成されているものである。例えば、映像データからフレーム単位で静止画像をキャプチャし、それを複数まとめることにより静止画群となる。静止画群は、1枚しか含まれていない場合(この場合、静止画群は通常の静止画像である)もあるし、複数枚含まれている場合もある。これは、仕様によって決定しても良いし、ユーザが予め設定しても良い。また、コンテンツの受信状況、シーン切り替えの状況に応じて可変するような構成であっても良い。
[1.4 Use of still images]
[1.4.1 Description of processing]
Here, the use of the still image group in the present embodiment will be described. As described above, the still image group is composed of still images captured (acquired) from video data extracted from content. For example, a still image group is obtained by capturing still images from video data in units of frames and collecting a plurality of them. There may be a case where only one still image group is included (in this case, the still image group is a normal still image) or a plurality of still image groups. This may be determined according to the specification, or may be set in advance by the user. Further, it may be configured to vary depending on the content reception status and the scene switching status.

具体的には、受信状況が悪い場合は、コンテンツが正しく取得できていない場合があるため、映像データから多くの静止画をキャプチャして静止画群を生成する。また、シーン切り替えが激しいコンテンツの場合は、画像が流れる(ぶれる)ため、映像データから多くの静止画をキャプチャして静止画群を生成する。逆に、風景映像のように、あまりシーンが切り替わらないコンテンツの場合は、キャプチャする静止画の枚数を減らして静止画群を生成する。これにより、静止画群の記憶量を調整することができる。   Specifically, when the reception status is bad, the content may not be acquired correctly, so a large number of still images are captured from the video data to generate a still image group. In addition, in the case of content where scene switching is intense, an image flows (blurs), so a large number of still images are captured from video data to generate a still image group. Conversely, in the case of content such as a landscape video where the scenes do not change so much, a still image group is generated by reducing the number of still images to be captured. Thereby, the storage amount of the still image group can be adjusted.

静止画群に基づいた処理について例えば文字情報処理を例にとって説明する。図6は、静止画群に対する文字情報処理について説明するための図である。   The processing based on the still image group will be described by taking, for example, character information processing as an example. FIG. 6 is a diagram for explaining character information processing for a still image group.

まず、指示入力画像をNo.Aとし、ユーザにより指示された座標領域(指定座標)として検出する(ステップS302)。すなわち、指定座標としては、指定部周辺領域の座標か、指定領域の座標が記憶されることとなる。   First, the instruction input image is No. A is detected as a coordinate area (designated coordinates) designated by the user (step S302). That is, as the designated coordinates, the coordinates of the designated part peripheral area or the coordinates of the designated area are stored.

続いて、画像文字変換処理を行う(ステップS304)。画像文字変換処理は、例えばパターン認識を利用することにより、画像から文字を認識する処理である。従来から行われる例えばOCRといった処理を実行することにより、文字(列)を認識することができる。   Subsequently, image character conversion processing is performed (step S304). The image character conversion process is a process of recognizing characters from an image by using pattern recognition, for example. Characters (strings) can be recognized by executing processing such as OCR that has been performed conventionally.

続いて、文字列が認識されたか否かを判定する(ステップS306)。ここで、何らかの文字列が認識された場合は、認識された文字列を画像Noに対応づけてリスト化する(ステップS308)。   Subsequently, it is determined whether or not the character string is recognized (step S306). Here, if any character string is recognized, the recognized character string is listed in association with the image No (step S308).

続いて、リスト化された文字列が複数ある場合、各文字列の文字を比較し、共通文字と、相違文字を判別する。そして、共通する文字を抽出することにより、静止画群から共通の文字列を認識する(ステップS310)。例えば、1枚目「A」、2枚目「Λ」、3枚目「A」と認識された場合は、当該文字は「A」と認識される。   Subsequently, when there are a plurality of listed character strings, the characters of the character strings are compared to determine a common character and a different character. Then, by extracting common characters, a common character string is recognized from the still image group (step S310). For example, when the first sheet “A”, the second sheet “Λ”, and the third sheet “A” are recognized, the character is recognized as “A”.

続いて、認識されている文字列が、カテゴライズ処理で分類可能か否か判定する(ステップS312)。ここで、カテゴライズ処理とは、認識された文字列がどのようなカテゴリに分類されるかを判定する処理である。   Subsequently, it is determined whether or not the recognized character string can be classified by the categorization process (step S312). Here, the categorization process is a process for determining in which category the recognized character string is classified.

一例として、例えばカテゴリとして「http://」から始まるURL、「〒」「東京都」「○○県」等から始まる住所、「電話」「TEL」から始まる電話番号といったカテゴリに分類することができる。更に、認識された文字列を辞書データ(辞書データは、予め記憶されていても良いし、ネットワークを介して照会しても良い)と比較し、一般の言葉であるか否かを比較する。そして、何れかのカテゴリに分類可能であれば、認識された文字列に決定し(ステップS312;Yes→ステップS314)、処理を終了する。   For example, the URL may be classified into categories such as URLs starting from “http: //”, addresses starting from “〒”, “Tokyo”, “XX prefecture”, etc., and telephone numbers starting from “telephone” and “TEL”. it can. Furthermore, the recognized character string is compared with dictionary data (dictionary data may be stored in advance or may be inquired via a network) to compare whether or not it is a general word. If it can be classified into any category, it is determined as a recognized character string (step S312; Yes → step S314), and the process ends.

また、カテゴライズ処理については、カテゴリに応じて認識文字列が正しいか否かを判定することとしても良い。例えば「http://」で始まる場合には、URLとして必要な長さを認識していない場合は、分類不可としたり、電話場号のカテゴリの場合には、電話番号の桁数の認識がされていない場合は分類不可としたりすることが可能である。   In addition, regarding the categorization process, it may be determined whether the recognized character string is correct according to the category. For example, in the case of starting with “http: //”, if the required length as a URL is not recognized, classification is not possible, and in the case of a telephone number category, the number of digits of the telephone number is recognized. If it is not done, it can be classified.

他方、文字列が認識されない場合(ステップS306;No)又はカテゴライズ処理で分類できない文字列の場合(ステップS312;No)、静止画群から異なる静止画を対象画像として指定する(ステップS316)。具体的には、現在のNo.Aから前後にn枚利用する。例えば、現在の指示入力画像(又は処理している画像)から1枚前、1枚後をそれぞれループして処理していくこととなる。   On the other hand, when the character string is not recognized (step S306; No) or when the character string cannot be classified by the categorization process (step S312; No), a different still image is designated as a target image from the still image group (step S316). Specifically, the current No. Use n cards before and after A. For example, the current instruction input image (or the image being processed) is processed in a loop one before and one after.

このとき、静止画群から選択される画像は、最初の画像(画像No.A)において設定された指定座標領域と同じ領域の文字列を認識することとなる(ステップS316→ステップS318;No→ステップS320)。   At this time, the image selected from the still image group recognizes a character string in the same area as the designated coordinate area set in the first image (image No. A) (step S316 → step S318; No → Step S320).

また、文字列を決定できずに静止画群に含まれている静止画総ての処理を終了してしまった場合には、文字列を決定(認識)できなかったとして、本処理は終了となる(ステップS318;Yes)。   If the character string cannot be determined and all the still images included in the still image group have been processed, it is determined that the character string could not be determined (recognized), and this processing is terminated. (Step S318; Yes).

[1.4.2 処理例]
具体的な処理の例について、図を用いて説明する。図7は、5枚の静止画から構成されている静止画群を模式的に示す図である。本図では、図7(c)が指示入力画像である。そして、図7(b)(d)が、前後1枚(フレーム)の静止画であり、図7(a)(e)が前後2枚の静止画である。
[1.4.2 Processing example]
A specific example of processing will be described with reference to the drawings. FIG. 7 is a diagram schematically illustrating a still image group including five still images. In this figure, FIG. 7C is an instruction input image. FIGS. 7B and 7D show one front and rear (frame) still image, and FIGS. 7A and 7E show two front and rear still images.

まず、図7(c)の静止画で画像文字変換処理(図6のステップS304)を実行すると、文字列が認識されない(ステップS306;No)。したがって、対象画像を、A−1(図7(b))、A+1(図7(d))について、同様に画像文字変換処理を実行する。   First, when the image character conversion process (step S304 in FIG. 6) is executed on the still image in FIG. 7C, the character string is not recognized (step S306; No). Therefore, the image character conversion process is similarly performed on the target images for A-1 (FIG. 7B) and A + 1 (FIG. 7D).

そうすると、図7(b)において、文字列「http://○△×.jp/」が認識される(ステップS306;Yes)。また、当該文字列は「URL」として認識され、認識された文字列はURLとして正しく文字列が表されている。したがって、「http://○△×.jp/」という文字列が情報素材として決定されることとなる(ステップS312;Yes→ステップS314)。   Then, the character string “http: //○Δ×.jp/” is recognized in FIG. 7B (step S306; Yes). The character string is recognized as “URL”, and the recognized character string correctly represents the character string as the URL. Therefore, the character string “http: //○Δ×.jp/” is determined as the information material (step S312; Yes → step S314).

次に、図8について説明する。図8も、図7と同様に5枚の静止画が含まれている静止画群を模式的に示した図である。   Next, FIG. 8 will be described. FIG. 8 is also a diagram schematically showing a still image group including five still images as in FIG.

まず、図8(c)において、文字列が認識されないため、図8(b)(d)を用いて認識を行う。図8(b)からは「http://○△」が認識される。また、図8(d)からは「△×.jp/」が認識される。ここで、文字抽出結果リストには、「http://○△」と「△×.jp/」とが記憶されている。   First, since a character string is not recognized in FIG. 8C, recognition is performed using FIGS. 8B and 8D. From FIG. 8B, “http: // ◯ △” is recognized. Further, “Δ × .jp /” is recognized from FIG. Here, “http: // ○ △” and “Δ × .jp /” are stored in the character extraction result list.

同様に、図8(a)(e)について、画像文字変換処理を実行すると、「http://○△」と「△×.jp/」とが認識される。ここで、文字抽出結果のリストに記憶されるが、5枚の静止画から共通する文字列を抽出すると「http://○△×.jp/」となる。したがって、「http://○△×.jp/」という文字列が情報素材として決定されることとなる。   Similarly, with respect to FIGS. 8A and 8E, when the image character conversion process is executed, “http: // ◯ △” and “Δ × .jp /” are recognized. Here, although stored in the list of character extraction results, when a common character string is extracted from five still images, “http: //◯△×.jp/” is obtained. Therefore, the character string “http: //○Δ×.jp/” is determined as the information material.

このように、静止画群を利用することにより、適切に文字列を認識することができる。特に、映像コンテンツの様な動画をキャプチャした静止画の場合、適切に文字列を認識できない場合もあるため、極めて有効である。   In this way, the character string can be appropriately recognized by using the still image group. In particular, a still image obtained by capturing a moving image such as video content is extremely effective because a character string may not be properly recognized.

[1.5 実施例]
続いて実施例について、図を用いて説明する。
[1.5 Examples]
Next, examples will be described with reference to the drawings.

[1.5.1 第1実施例]
まず第1実施例として、コンテンツにおいて表示されている文字を選択(タップ)することによって、関連する他のコンテンツ(例えばWEBの通信コンテンツ)を表示する実施例について説明する。
[1.5. 1 First Example]
First, as a first embodiment, an embodiment in which other related contents (for example, WEB communication contents) are displayed by selecting (tapping) a character displayed in the contents will be described.

図9(a)は、現在受信されているコンテンツから抽出される映像データをキャプチャしたときの動作を説明するための図である。すなわち、図3のキャプチャ処理が実行された結果、映像データの一部がキャプチャされた状態を示す図である。例えば、領域R100には、キャプチャがされたことをユーザに報知する文字表示が行われている。   FIG. 9A is a diagram for explaining the operation when video data extracted from the currently received content is captured. That is, FIG. 4 is a diagram illustrating a state in which a part of video data is captured as a result of executing the capture process of FIG. 3. For example, in the region R100, a character display for notifying the user that the capture has been performed is performed.

図9(b)は、画面上にキャプチャした映像データに対応する静止画(静止画群)が表示されている。ここで、ユーザは、領域R102に表示されている文字を選択するため、領域R102の一部分をタップしている。   In FIG. 9B, a still image (still image group) corresponding to the captured video data is displayed on the screen. Here, the user taps a part of the region R102 in order to select a character displayed in the region R102.

これにより、アクション種は「指定部」であり、指定部周辺に文字情報を含んでいるため文字情報処理が実行される。そして、認識結果として「http://○△×.jp」が情報素材として認識され、カテゴリとして「URL」が検出される。   As a result, the action type is “designation part”, and character information processing is executed because character information is included around the designation part. Then, “http: //○Δ×.jp” is recognized as an information material as a recognition result, and “URL” is detected as a category.

そして、当該情報素材及びカテゴリに基づいてレコメンド処理により表示されたのが図9(c)である。図9では、カテゴリが「URL」であるため、認識結果のWEBページを自動的に表示している。   FIG. 9C shows the recommendation process based on the information material and the category. In FIG. 9, since the category is “URL”, the recognition result WEB page is automatically displayed.

このように、ユーザが画面上に表示されている文字(列)をタップすることで、当該タップされた文字列を情報素材として認識し、当該情報素材に基づく適切な処理(レコメンド処理)が実行されることとなる。そして、ユーザが所望する他のコンテンツが表示されることとなる。   In this way, when the user taps a character (string) displayed on the screen, the tapped character string is recognized as an information material, and appropriate processing (recommendation processing) based on the information material is executed. Will be. Then, other content desired by the user is displayed.

[1.5.2 第2実施例]
つづいて、第2実施例について説明する。図10(a)は、現在受信されているコンテンツから抽出される映像データをキャプチャしたときの動作を説明するための図である。
[1.5. 2 Second Example]
Next, the second embodiment will be described. FIG. 10A is a diagram for explaining an operation when video data extracted from currently received content is captured.

ここで、図10(b)に示すように、ユーザから円を描くようにタップ(スライド操作)が入力される。これにより、アクション種が「領域指定」と認識され、当該領域指定に含まれる画像や、オブジェクトが検出され、情報素材として処理されることとなる。   Here, as shown in FIG. 10B, a tap (slide operation) is input by the user so as to draw a circle. As a result, the action type is recognized as “region designation”, and an image or an object included in the region designation is detected and processed as an information material.

例えば、図10(c)は、図10(a)において、キャプチャされた静止画群に対応するコンテンツの付随情報(例えば、番組情報)である。当該番組情報を参照すると、「A店」のコンテンツ(放送コンテンツ)が受信されて、キャプチャされたことが解る。   For example, FIG. 10C shows accompanying information (for example, program information) of the content corresponding to the captured still image group in FIG. Referring to the program information, it is understood that the content (broadcast content) of “Store A” has been received and captured.

したがって、コンテンツ情報処理(又は画像情報処理)において、「A店」が情報素材として抽出され、レコメンド処理として「A店」について検索され、検索結果が表示される。   Therefore, in the content information processing (or image information processing), “A store” is extracted as an information material, and “A store” is searched as a recommendation process, and the search result is displayed.

[2.第2実施形態]
続いて第2実施形態について説明する。第2実施形態は、コンテンツ表示装置と、コンテンツを受信するコンテンツ受信装置とが別装置で構成されており、接続されている場合について説明する。
[2. Second Embodiment]
Next, the second embodiment will be described. In the second embodiment, a case will be described in which a content display device and a content reception device that receives content are configured as separate devices and are connected.

[2.1 全体説明]
図11は、コンテンツ表示装置20と、コンテンツ受信装置30とが接続されている図である。コンテンツ受信装置30により、コンテンツが受信される。受信されたコンテンツは、有線又は無線で接続されるコンテンツ表示装置20に転送され、表示される。
[2.1 General description]
FIG. 11 is a diagram in which the content display device 20 and the content receiving device 30 are connected. The content is received by the content receiving device 30. The received content is transferred to the content display device 20 connected by wire or wirelessly and displayed.

[2.2 機能構成]
続いて、コンテンツ表示装置20及びコンテンツ受信装置30の機能構成について図12を用いて説明する。なお、第1実施形態における図2のコンテンツ表示装置10のうち、コンテンツを受信するのに利用する機能部がコンテンツ受信装置30に含まれており、他の機能部は同様である。ここで、コンテンツ表示装置10と、コンテンツ表示装置20と同一の機能部には同一の符号を付し、詳細な説明を省略する。
[2.2 Functional configuration]
Next, functional configurations of the content display device 20 and the content reception device 30 will be described with reference to FIG. In the content display device 10 of FIG. 2 in the first embodiment, the content receiving device 30 includes a functional unit used to receive content, and the other functional units are the same. Here, the same reference numerals are given to the same functional units as those of the content display device 10 and the content display device 20, and detailed description thereof is omitted.

コンテンツ表示装置20は、制御部100と、キャプチャ制御部120と、情報解析部130と、記憶部140と、トリガ入力部150と、ネットワーク通信部160と、出力制御部170と、音声出力部175と、表示部180と、操作部185と、機器通信部190とを備えて構成されている。   The content display device 20 includes a control unit 100, a capture control unit 120, an information analysis unit 130, a storage unit 140, a trigger input unit 150, a network communication unit 160, an output control unit 170, and an audio output unit 175. A display unit 180, an operation unit 185, and a device communication unit 190.

機器通信部190は、コンテンツ受信装置30と通信を行うための機能部である。コンテンツ受信装置30の機器通信部390と接続され、コンテンツが転送される。ここで、機器通信部190は、無線接続又は有線接続で、コンテンツ受信装置30と接続される。   The device communication unit 190 is a functional unit for communicating with the content receiving device 30. It is connected to the device communication unit 390 of the content receiving device 30 and the content is transferred. Here, the device communication unit 190 is connected to the content receiving device 30 by wireless connection or wired connection.

無線接続方式としては、例えば、赤外線方式(IrDA:Infrared Data Association)、Bluetooth(登録商標)、ZigBee(登録商標)、NFC(Near Field Communication)といった近距離無線通信、UWB(Ultra Wide Band)を利用した通信(ワイヤレスUSB、ワイヤレスIEEE1394等)、無線化されたHDMI等を利用可能である。また、有線接続方式としては、例えば、USB(Universal Serial Bus)、IEEE1394、HDMI(High-Definition Multimedia Interface)等を利用可能である。   As the wireless connection method, for example, near field communication such as infrared data method (IrDA: Infrared Data Association), Bluetooth (registered trademark), ZigBee (registered trademark), NFC (Near Field Communication), or UWB (Ultra Wide Band) is used. Communication (wireless USB, wireless IEEE 1394, etc.), wireless HDMI, or the like can be used. As a wired connection method, for example, USB (Universal Serial Bus), IEEE 1394, HDMI (High-Definition Multimedia Interface), or the like can be used.

また、ネットワーク通信部160を利用することにより、例えば、無線LAN等によって接続されることとしても良い。この場合、例えばIPネットワークであれば、お互いのIPアドレスが解ればよく、機器通信部190を有していなくても良い。   Further, by using the network communication unit 160, for example, it may be connected by a wireless LAN or the like. In this case, for example, in the case of an IP network, it is only necessary to know each other's IP address, and the device communication unit 190 may not be provided.

コンテンツ受信装置30は、制御部300と、コンテンツ受信部310と、逆多重化部315と、音声出力部375と、表示部380と、操作部385と、機器通信部390とを備えて構成されている。ここで、コンテンツ受信部310は図2のコンテンツ受信部110と、逆多重化部315は図2の逆多重化部115と、音声出力部375は図2の音声出力部175と、表示部380は図2の表示部180と、操作部385は図2の操作部185と略同一の機能部であり、その詳細な説明を省略する。   The content receiving apparatus 30 includes a control unit 300, a content receiving unit 310, a demultiplexing unit 315, an audio output unit 375, a display unit 380, an operation unit 385, and a device communication unit 390. ing. Here, the content receiving unit 310 is the content receiving unit 110 of FIG. 2, the demultiplexing unit 315 is the demultiplexing unit 115 of FIG. 2, the audio output unit 375 is the audio output unit 175 of FIG. 2, and the display unit 380. 2 and the operation unit 385 are substantially the same functional units as the operation unit 185 in FIG. 2, and detailed description thereof is omitted.

制御部300は、コンテンツ受信装置30の全体を制御するための機能部である。また、機器通信部390は、コンテンツ表示装置20と通信を行う機能部であり、機器通信部190と略同一である。なお、コンテンツ表示装置20において、ネットワーク通信部160を介してコンテンツ受信装置30と通信を行う場合、コンテンツ受信装置30は機器通信部390の代わりにネットワーク通信部160に対応するネットワーク通信部が必要となる。   The control unit 300 is a functional unit for controlling the entire content receiving device 30. The device communication unit 390 is a functional unit that communicates with the content display device 20 and is substantially the same as the device communication unit 190. When the content display device 20 communicates with the content reception device 30 via the network communication unit 160, the content reception device 30 needs a network communication unit corresponding to the network communication unit 160 instead of the device communication unit 390. Become.

[2.3 処理の流れ]
続いて、第2実施形態の流れについて説明する。第2実施形態においても、第1実施形態と基本的な処理は同じである。
[2.3 Process flow]
Subsequently, the flow of the second embodiment will be described. Also in the second embodiment, the basic processing is the same as in the first embodiment.

第2実施形態は、キャプチャ処理の流れが第1実施形態とは異なる。すなわち、通常コンテンツは、コンテンツ受信装置30において受信され、コンテンツ受信装置30で表示されている。   The second embodiment differs from the first embodiment in the flow of capture processing. That is, the normal content is received by the content receiving device 30 and displayed on the content receiving device 30.

その状態で、コンテンツ表示装置20において、トリガ入力を検知すると、コンテンツ表示装置20から、コンテンツ受信装置30へ、コンテンツを送信するように要求信号を送信する。   In this state, when a trigger input is detected in the content display device 20, a request signal is transmitted from the content display device 20 to the content reception device 30 so as to transmit the content.

コンテンツを送信する要求信号を受信したコンテンツ受信装置30は、コンテンツ表示装置20に対してコンテンツを送信(転送)する。コンテンツ表示装置20は、その後コンテンツ(少なくとも映像データを含み、また、必要に応じて付随情報を含む)を受信する(図3のステップS106)。すなわち、ステップS104において、コンテンツを取得する先がコンテンツ受信装置30である。   The content receiving device 30 that has received the request signal for transmitting the content transmits (transfers) the content to the content display device 20. The content display device 20 then receives the content (including at least video data and, if necessary, accompanying information) (step S106 in FIG. 3). That is, in step S104, the content receiving device 30 is the destination from which the content is acquired.

このように、第2実施形態に基づけば、コンテンツ受信装置30において受信しているコンテンツに基づいてキャプチャ処理、解析処理を実行する場合、例えば手元にある操作用のコンテンツ表示装置20を利用することにより、容易にキャプチャ処理を実行することができる。   As described above, according to the second embodiment, when the capture processing and the analysis processing are executed based on the content received by the content receiving device 30, for example, the content display device 20 for operation at hand is used. Thus, the capture process can be easily executed.

[2.4 実施例]
続いて、第2実施形態に関する実施例について説明する。先ず、図13は、コンテンツ受信装置30においてコンテンツから抽出された映像データが表示され(図13(a))、コンテンツ表示装置20においてトリガが検出された状態を示す図(図13(b))である。この場合、コンテンツ受信装置30にはコンテンツが表示され、コンテンツ表示装置20においては、キャプチャを開始したことを報知する画面が表示されている。
[2.4 Examples]
Next, examples relating to the second embodiment will be described. First, FIG. 13 is a diagram showing a state in which video data extracted from content is displayed in the content receiving device 30 (FIG. 13A) and a trigger is detected in the content display device 20 (FIG. 13B). It is. In this case, the content is displayed on the content receiving device 30, and the content display device 20 displays a screen for notifying that the capture has started.

図14は、キャプチャ処理が終わった状態を示す図である。この場合、図14(b)のコンテンツ表示装置20の領域R200には、キャプチャしたコンテンツに基づく静止画(群)が表示されている。そして、当該静止画(群)に表示されている人物の顔部分をタップした場合、当該人物を情報素材とし、情報素材に対応してレコメンド処理が実行される。なお、人物部分をタップすることにより、人物の情報を選択することになるが、例えば静止画を長タップすることにより、静止画全体を選択する指示を行うといった操作方法を取り入れても良い。   FIG. 14 is a diagram illustrating a state where the capture process is completed. In this case, a still image (group) based on the captured content is displayed in the region R200 of the content display device 20 in FIG. When the face portion of a person displayed in the still image (group) is tapped, the person is used as an information material, and recommendation processing is executed corresponding to the information material. Note that information on a person is selected by tapping the person portion. However, for example, an operation method in which an instruction to select the entire still image is given by long-tapping a still image may be incorporated.

続いて、タップされた領域から検出されるオブジェクトに基づいて、各種選択項目が表示されているのが、図15(b)である。この場合、図14(b)においてタップした周辺領域に含まれるオブジェクトの情報、画像認識から検出される内容、付随情報から検出される内容に基づいて、レコメンドリストが表示されている。ここで、例えばユーザにより「「本人○山△子」について」が選択された場合が図16(b)である。そして、図16(b)において、今度は「○山△子で検索」がタップ(選択)された状態が図17(b)である。   Next, FIG. 15B shows various selection items displayed based on the object detected from the tapped region. In this case, the recommendation list is displayed based on the information of the object included in the peripheral area tapped in FIG. 14B, the content detected from the image recognition, and the content detected from the accompanying information. Here, for example, FIG. 16B shows a case where “about“ person ○ mountain Δ child ”” is selected by the user. Then, in FIG. 16B, the state where “search with ○ mountain Δ child” is tapped (selected) is shown in FIG. 17B.

このように、ユーザが最初にタップした(選択した)部分から関連のある項目を適切に検索し、関連する情報をレコメンド処理(リスト)として決定し、表示することができる。また、本実施形態の場合、コンテンツ受信装置30は、コンテンツをそのまま表示し続けている(図14(a)、図15(a)、図16(a)、図17(a))。しかし、例えばコンテンツをコンテンツ表示装置20に送信している間は表示しないこととしても良い。   In this way, it is possible to appropriately search for a related item from the portion that the user first tapped (selected), determine the related information as a recommendation process (list), and display it. In the case of the present embodiment, the content receiving device 30 continues to display the content as it is (FIGS. 14A, 15A, 16A, and 17A). However, for example, the content may not be displayed while being transmitted to the content display device 20.

[3.第3実施形態]
続いて第3実施形態について説明する。第3実施形態は、更に外部機器が接続されている場合についての実施形態である。
[3. Third Embodiment]
Next, a third embodiment will be described. The third embodiment is an embodiment in which an external device is further connected.

ここで、コンテンツ表示装置は、第1実施形態又は第2実施形態と略同一の構成である。第1実施形態又は第2実施形態と異なる点は、コンテンツ表示装置と、外部装置との連携が可能な点である。   Here, the content display device has substantially the same configuration as the first embodiment or the second embodiment. The difference from the first embodiment or the second embodiment is that the content display device and the external device can be linked.

第3実施形態の機能構成について、図18に示す。なお、図18は、一例として第2実施形態のコンテンツ表示装置20に、外部装置40とが接続されている図を示している。ここで、本図ではコンテンツ表示装置20を示しているが、機器通信部190を備えれば第1実施形態のコンテンツ表示装置10でも同様なことが実現できる。また、外部装置40は、コンテンツ表示装置20と連携する種々の装置が想定されるが、以下、プリンタと冷蔵庫の場合を例にとって説明する。   The functional configuration of the third embodiment is shown in FIG. FIG. 18 shows a diagram in which an external device 40 is connected to the content display device 20 of the second embodiment as an example. Here, although the content display apparatus 20 is shown in this figure, if the apparatus communication part 190 is provided, the same thing can be implement | achieved also with the content display apparatus 10 of 1st Embodiment. The external device 40 is assumed to be a variety of devices that cooperate with the content display device 20, and will be described below using a printer and a refrigerator as an example.

[3.1 プリンタの場合]
例えば、上述の実施形態で説明したように、キャプチャ静止画全体をユーザが指示した場合、コンテンツ表示装置20の機器通信部190がプリンタへデータリクエストして、機器情報記憶部420にあるプリンタの状態(電源オン・オフ、紙量等)をデータ取得する。そして、印刷可能な場合は、レコメンド処理として「この画像を印刷する」を表示するといった連携が可能である。
[3.1 Printer]
For example, as described in the above-described embodiment, when the user instructs the entire captured still image, the device communication unit 190 of the content display device 20 requests a data to the printer, and the printer status in the device information storage unit 420 (Power on / off, paper amount, etc.) data is acquired. When printing is possible, cooperation such as displaying “print this image” as the recommendation processing is possible.

[3.2 冷蔵庫の場合]
タップ入力が検知された領域又は静止画全体で文字認識処理を行った場合、食材名やカップ数・重量等が記載されていれば、料理レシピの情報であると認識する。
[3.2 For refrigerators]
When the character recognition process is performed on the area where the tap input is detected or the entire still image, if the food name, the number of cups, the weight, and the like are described, the information is recognized as information on the recipe.

その場合に、コンテンツ表示装置20の機器通信部190が外部装置40(冷蔵庫)へデータリクエストして、機器情報記憶部420にある冷蔵庫の状態(在庫情報等)をデータ取得する。   In that case, the device communication unit 190 of the content display device 20 makes a data request to the external device 40 (refrigerator), and obtains data of the refrigerator state (stock information, etc.) in the device information storage unit 420.

そして、コンテンツ表示装置20側の情報解析部130で、画像内容と冷蔵庫在庫を比較する。不足な食材があった場合には、レコメンド処理として「冷蔵庫在庫の不足分表示」を提示し、選択するとレシピと不足分を表示する。更に、不足な食材に関しては、「その食材の価格情報を検索する」をレコメンド処理としたり、在庫だけでも作ることのできる「代替レシピを検索」をレコメンド処理としたりすることもできる。   Then, the information analysis unit 130 on the content display device 20 side compares the image content with the refrigerator inventory. When there are insufficient ingredients, “Refrigeration inventory shortage display” is presented as a recommendation process, and when selected, the recipe and the shortage are displayed. Furthermore, regarding a shortage of ingredients, “search for price information of the ingredients” can be used as a recommendation process, and “search for alternative recipes” that can be made only with inventory can be used as a recommendation process.

このように、外部装置と連携することにより、コンテンツに表示された内容をきっかけに様々な処理を実現できることとなる。   In this way, by cooperating with the external device, various processes can be realized with the content displayed in the content as a trigger.

[4.効果]
上述した各実施形態のコンテンツ表示装置を利用することにより、以下の様な効果が得られる。
[4. effect]
By using the content display device of each embodiment described above, the following effects can be obtained.

放送局側、配信側による、放送コンテンツへの詳細なメタデータ等を付与する手間やコストを削減しつつ、コンテンツ取得・情報活用等の多様なユーザニーズに対応できる。   It is possible to cope with various user needs such as content acquisition and information utilization while reducing the labor and cost of providing detailed metadata etc. to the broadcast content by the broadcasting station side and the distribution side.

また、キャプチャ処理をユーザニーズ発生のタイミングでのみ動作するため、無駄な処理や記録容量の削減ができる。   In addition, since the capture process is operated only when the user needs occur, useless processes and a reduction in recording capacity can be achieved.

また、ユーザは、静止画群に対して指示入力を行うため、慌てずに適切な領域指定等が可能である。また、連続静止画群の複数静止画に対して領域指定等を行うことで、コンテンツ内の対象物を指示するだけでなく、その動作やアクションも指定することができる。   Further, since the user inputs an instruction to the still image group, it is possible to specify an appropriate area without hurrying. In addition, by performing region designation or the like for a plurality of still images in a continuous still image group, it is possible to designate not only an object in the content but also its operation and action.

また、静止画に対するユーザ入力に対して、画像解析によるオブジェクト認識等を行う際、「連続する前後の静止画群の近傍画像領域情報」、「放送コンテンツに含まれるEPG情報、メタデータ、字幕等」「EPG情報やハッシュタグ等を経由したクラウド上の統計データ」等の情報を活用することができ、認識の精度や効率を向上することができ、より的確なユーザニーズへの対応が可能である。   In addition, when performing object recognition or the like by image analysis in response to user input for a still image, “Nearby Image Area Information of Continuous Still Image Group”, “EPG Information, Metadata, Subtitles, etc. Included in Broadcast Content” It is possible to utilize information such as “statistical data on the cloud via EPG information and hashtags,” etc., improving the accuracy and efficiency of recognition and responding to more precise user needs. is there.

受信側でコンテンツ解析とその結果活用やアクション誘導を行うため、受信時のユーザ周囲の環境情報も取得し活用することができる。例えば、近くにプリンタがあれば印刷出力へ誘導したり、コンテンツ内のレシピ情報とユーザの冷蔵庫内の在庫とを対比したり等が可能となる。   Since content analysis and result utilization and action guidance are performed on the receiving side, environment information around the user at the time of reception can also be acquired and utilized. For example, if there is a printer nearby, it is possible to guide to print output, or to compare the recipe information in the content with the inventory in the user's refrigerator.

[5.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
[5. Modified example]
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and the design and the like within the scope of the present invention are also within the scope of the claims. include.

また、第2実施形態におけるコンテンツ受信装置30が、コンテンツ表示装置の機能のうち、一部又は全部の機能を実行できるように構成しても良い。例えば、第1実施形態におけるコンテンツ表示装置10と同じ機能構成を第2実施形態のコンテンツ受信装置30に含めることとしても良い。   Moreover, you may comprise so that the content receiver 30 in 2nd Embodiment can perform a part or all function among the functions of a content display apparatus. For example, the same functional configuration as that of the content display device 10 in the first embodiment may be included in the content reception device 30 in the second embodiment.

また、上述した実施形態では、コンテンツ表示装置の一例として放送コンテンツを受信して表示する装置を例にとって説明した。しかし、当該装置以外について、コンテンツが表示できるような装置であれば適用可能なことは勿論である。   In the above-described embodiment, an example of an apparatus that receives and displays broadcast content has been described as an example of a content display apparatus. However, as a matter of course, the present invention can be applied to any device that can display content other than the device.

例えば、コンテンツとして、DVDやBlu−ray(登録商標) Discといったメディアに記録されているマルチメディアコンテンツを対象としても良いし、IPマルチキャスト放送等のようにネットワーク上で受信可能な通信コンテンツを対象としてもよい。これらの場合、コンテンツ受信部110を有していなくても、コンテンツデータ記憶領域142や、前記メディアに記録されているコンテンツに対して適用可能である。   For example, the content may be multimedia content recorded on a medium such as a DVD or Blu-ray (registered trademark) Disc, or communication content that can be received on a network such as IP multicast broadcasting. Also good. In these cases, even if the content receiving unit 110 is not provided, the present invention is applicable to the content data storage area 142 and the content recorded on the medium.

更に、上述した実施形態では液晶テレビを例にとって説明したが、例えばコンピュータ、HDDレコーダ、カーナビゲーション、携帯電話、スマートフォンといった、他のコンテンツ表示装置であれば適用可能なことは勿論である。   Furthermore, although the liquid crystal television has been described as an example in the above-described embodiment, it is needless to say that the present invention can be applied to other content display devices such as a computer, an HDD recorder, a car navigation system, a mobile phone, and a smartphone.

また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。   In addition, the program that operates in each device in the embodiment is a program (a program that causes a computer to function) that controls the CPU and the like so as to realize the functions of the above-described embodiments. Information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, then stored in various ROM or HDD storage devices, and read and corrected by the CPU as necessary. • Writing is performed.

ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO((Magneto Optical Disc)、MD(Mini Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等のいずれであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。   Here, as a recording medium for storing the program, a semiconductor medium (for example, ROM, a non-volatile memory card, etc.), an optical recording medium / a magneto-optical recording medium (for example, a DVD (Digital Versatile Disc), an MO ((Magnetoto (Optical Disc), MD (Mini Disc), CD (Compact Disc), BD, etc.), magnetic recording medium (eg, magnetic tape, flexible disk, etc.), etc. Also, the loaded program is executed. Thus, not only the functions of the above-described embodiment are realized, but also the functions of the present invention are realized by processing in cooperation with an operating system or other application programs based on the instructions of the programs. There is also.

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。   In addition, when distributing to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, of course, the storage device of the server computer is also included in the present invention.

また、上述した実施形態における各装置の一部又は全部を典型的には集積回路であるLSI(Large Scale Integration)として実現してもよい。各装置の各機能ブロックは個別にチップ化してもよいし、一部又は全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路又は汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能であることは勿論である。   In addition, a part or all of each device in the above-described embodiments may be realized as an LSI (Large Scale Integration) that is typically an integrated circuit. Each functional block of each device may be individually chipped, or a part or all of them may be integrated into a chip. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, it is of course possible to use an integrated circuit based on this technology.

10 コンテンツ表示装置
100 制御部
110 コンテンツ受信部
115 逆多重化部
120 キャプチャ制御部
130 情報解析部
140 記憶部
142 コンテンツ記憶領域
144 コンテンツ付加情報記憶領域
146 静止画群記憶領域
150 トリガ入力部
160 ネットワーク通信部
170 出力制御部
175 音声出力部
180 表示部
185 操作部
DESCRIPTION OF SYMBOLS 10 Content display apparatus 100 Control part 110 Content receiving part 115 Demultiplexing part 120 Capture control part 130 Information analysis part 140 Storage part 142 Content storage area 144 Content additional information storage area 146 Still image group storage area 150 Trigger input part 160 Network communication Unit 170 output control unit 175 audio output unit 180 display unit 185 operation unit

Claims (9)

映像データを含むコンテンツを表示可能なコンテンツ表示装置において、
入力されたトリガのタイミングの表示コンテンツに対応する静止画群を、コンテンツに含まれる映像データから生成又は抽出して表示する静止画群表示手段と、
表示された静止画群の表示位置を指定することが可能な表示位置指定手段と、
前記指定された表示位置から認識される情報素材に基づいてレコメンドを表示可能なレコメンド表示手段と、
を備えることを特徴とするコンテンツ表示装置。
In a content display device capable of displaying content including video data,
Still image group display means for generating or extracting a still image group corresponding to the display content of the input trigger timing from the video data included in the content and displaying it;
Display position designation means capable of designating the display position of the displayed still image group;
Recommendation display means capable of displaying a recommendation based on the information material recognized from the designated display position;
A content display device comprising:
前記レコメンド表示手段は、前記指定された表示位置に含まれる文字列を情報素材として認識することを特徴とする請求項1に記載のコンテンツ表示装置。   The content display apparatus according to claim 1, wherein the recommendation display unit recognizes a character string included in the designated display position as an information material. 前記レコメンド表示手段は、前記指定された表示位置に含まれる画像を情報素材として認識することを特徴とする請求項1に記載のコンテンツ表示装置。   The content display device according to claim 1, wherein the recommendation display unit recognizes an image included in the designated display position as an information material. 前記コンテンツには、付随情報が更に含まれており、
前記レコメンド表示手段は、前記付随情報を利用して情報素材を認識することを特徴とする請求項1から3の何れか一項に記載のコンテンツ表示装置。
The content further includes accompanying information,
The content display device according to claim 1, wherein the recommendation display unit recognizes an information material using the accompanying information.
請求項1から4の何れか一項に記載のコンテンツ表示装置が接続され、映像データを含むコンテンツを受信するコンテンツ受信装置において、
前記コンテンツ受信装置又は前記コンテンツ表示装置に入力されたトリガのタイミングのコンテンツを、前記コンテンツ表示装置へ送信するコンテンツ送信手段を備えることを特徴とするコンテンツ受信装置。
In the content receiving apparatus which the content display apparatus as described in any one of Claim 1 to 4 is connected, and receives the content containing video data,
A content receiving apparatus comprising content transmitting means for transmitting content at a trigger timing input to the content receiving apparatus or the content display apparatus to the content display apparatus.
映像データを含むコンテンツを受信するコンテンツ受信装置に接続され、前記コンテンツ受信装置から転送されるコンテンツを表示可能なコンテンツ表示装置において、
入力されたトリガのタイミングに基づいてコンテンツを前記コンテンツ受信装置から取得するコンテンツ取得手段と、
前記取得されたコンテンツに含まれる映像データから、入力されたトリガのタイミングの表示コンテンツに対応する静止画群を生成又は抽出して表示する静止画群表示手段と、
表示された静止画群の表示位置を指定することが可能な表示位置指定手段と、
前記指定された表示位置から認識される情報素材に基づいてレコメンドを表示可能なレコメンド表示手段と、
を備えることを特徴とするコンテンツ表示装置。
In a content display device connected to a content receiving device that receives content including video data and capable of displaying content transferred from the content receiving device,
Content acquisition means for acquiring content from the content reception device based on the input trigger timing;
Still image group display means for generating or extracting a still image group corresponding to the display content at the input trigger timing from the video data included in the acquired content, and displaying it.
Display position designation means capable of designating the display position of the displayed still image group;
Recommendation display means capable of displaying a recommendation based on the information material recognized from the designated display position;
A content display device comprising:
映像データを含むコンテンツを表示可能なコンピュータにおいて、
入力されたトリガのタイミングの表示コンテンツに対応する静止画群を、コンテンツに含まれる映像データから生成又は抽出して表示する静止画群表示機能と、
表示された静止画群の表示位置を指定することが可能な表示位置指定機能と、
前記指定された表示位置から認識される情報素材に基づいてレコメンドを表示可能なレコメンド表示機能と、
を実現させるためのプログラム。
In a computer capable of displaying content including video data,
A still image group display function for generating or extracting a still image group corresponding to the display content of the input trigger timing from video data included in the content, and displaying it;
A display position designation function capable of designating the display position of the displayed still image group,
A recommendation display function capable of displaying a recommendation based on the information material recognized from the designated display position;
A program to realize
映像データを含むコンテンツを再生可能なコンテンツ再生装置において、
入力されたトリガのタイミングのコンテンツに対応する静止画群を、コンテンツに含まれる映像データから生成又は抽出する静止画群生成手段と、
前記静止画群における指定位置の入力を受け付ける指定位置受付手段と、
前記静止画群における指定位置に基づいて、ユーザへのレコメンドを生成するための処理を、決定して実行するレコメンド実行手段と、
を備えることを特徴とするコンテンツ再生装置。
In a content playback apparatus capable of playing back content including video data,
Still image group generation means for generating or extracting a still image group corresponding to the input trigger timing content from the video data included in the content;
Designated position receiving means for receiving an input of a specified position in the still image group;
Recommendation execution means for determining and executing a process for generating a recommendation to the user based on a designated position in the still image group;
A content playback apparatus comprising:
前記レコメンド実行手段は、前記静止画群における指定位置に基づいてコンテンツから抽出した情報素材に基づいて決定されることを特徴とする請求項8に記載のコンテンツ再生装置。
9. The content reproduction apparatus according to claim 8, wherein the recommendation executing unit is determined based on information material extracted from the content based on a designated position in the still image group.
JP2012086086A 2012-04-05 2012-04-05 Content display device, content reception device, program, and content reproduction device Pending JP2013219447A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012086086A JP2013219447A (en) 2012-04-05 2012-04-05 Content display device, content reception device, program, and content reproduction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012086086A JP2013219447A (en) 2012-04-05 2012-04-05 Content display device, content reception device, program, and content reproduction device

Publications (1)

Publication Number Publication Date
JP2013219447A true JP2013219447A (en) 2013-10-24

Family

ID=49591122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012086086A Pending JP2013219447A (en) 2012-04-05 2012-04-05 Content display device, content reception device, program, and content reproduction device

Country Status (1)

Country Link
JP (1) JP2013219447A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6789417B1 (en) * 2019-08-23 2020-11-25 ジャパンエレベーターサービスホールディングス株式会社 Advertising display device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222196A (en) * 2001-01-29 2002-08-09 Sharp Corp Image processor
JP2003009023A (en) * 2001-06-25 2003-01-10 Casio Comput Co Ltd Program redisplay method and television web information service system
JP2003069914A (en) * 2001-08-29 2003-03-07 Matsushita Electric Ind Co Ltd Url information acquisition device
JP2008217660A (en) * 2007-03-07 2008-09-18 Matsushita Electric Ind Co Ltd Retrieval method and device
JP2008228135A (en) * 2007-03-15 2008-09-25 Sony Corp Imaging apparatus, image processor, image display control method and computer program
JP2009170960A (en) * 2008-01-10 2009-07-30 Sharp Corp Electronic apparatus, control program, recording medium, and control method
JP2010130445A (en) * 2008-11-28 2010-06-10 Sharp Corp Viewing system, display device, remote controller device, and viewing method
JP2010200170A (en) * 2009-02-26 2010-09-09 Nec Corp Image information providing system, image information providing method, and image information providing program
JP2011239075A (en) * 2010-05-07 2011-11-24 Sony Corp Display device, display method and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222196A (en) * 2001-01-29 2002-08-09 Sharp Corp Image processor
JP2003009023A (en) * 2001-06-25 2003-01-10 Casio Comput Co Ltd Program redisplay method and television web information service system
JP2003069914A (en) * 2001-08-29 2003-03-07 Matsushita Electric Ind Co Ltd Url information acquisition device
JP2008217660A (en) * 2007-03-07 2008-09-18 Matsushita Electric Ind Co Ltd Retrieval method and device
JP2008228135A (en) * 2007-03-15 2008-09-25 Sony Corp Imaging apparatus, image processor, image display control method and computer program
JP2009170960A (en) * 2008-01-10 2009-07-30 Sharp Corp Electronic apparatus, control program, recording medium, and control method
JP2010130445A (en) * 2008-11-28 2010-06-10 Sharp Corp Viewing system, display device, remote controller device, and viewing method
JP2010200170A (en) * 2009-02-26 2010-09-09 Nec Corp Image information providing system, image information providing method, and image information providing program
JP2011239075A (en) * 2010-05-07 2011-11-24 Sony Corp Display device, display method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6789417B1 (en) * 2019-08-23 2020-11-25 ジャパンエレベーターサービスホールディングス株式会社 Advertising display device

Similar Documents

Publication Publication Date Title
KR101899597B1 (en) Method for searching object information and dispaly apparatus thereof
KR101365614B1 (en) Multimedia device connected to external electronic device and method for controlling the same
CN102467234A (en) Method for providing display image in multimedia device and multimedia device thereof
CN104427376A (en) Information display apparatus, information display method, and computer program
JP2013175188A (en) Data sharing method and mobile terminal therefor
JP2013538522A (en) Techniques for object-based behavior
JP2012249156A (en) Information processing apparatus, information processing method, and program
KR20190045916A (en) Fingerprint layout for content culture
AU2013223017A1 (en) Method of providing capture data and mobile terminal thereof
US10448107B2 (en) Display device
KR20150011943A (en) Broadcasting providing apparatus, Broadcasting providing system, and Method for providing broadcasting thereof
US20170188087A1 (en) User terminal, method for controlling same, and multimedia system
CN104185086A (en) Method and device for providing video information
US11748059B2 (en) Selecting options by uttered speech
KR20140044663A (en) Information retrieval method by using broadcast receiving apparatus with display device and the apparatus thereof
US20150082249A1 (en) Image display apparatus, driving method thereof, and image display method
US20150026744A1 (en) Display system, display apparatus, display method, and program
US20170064396A1 (en) Broadcast receiving device, method for controlling the same and computer-readable recording medium
KR20180025754A (en) Display apparatus and control method thereof
KR20160117933A (en) Display apparatus for performing a search and Method for controlling display apparatus thereof
KR101714661B1 (en) Method for data input and image display device thereof
JP2013219447A (en) Content display device, content reception device, program, and content reproduction device
WO2015129023A1 (en) Image display device, external information terminal, and program to be executed by external information terminal
CN113542900B (en) Media information display method and display equipment
JP2014036232A (en) Content distribution system, content display device, content distribution method, content display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160830