JP2019074949A - Retrieval device and program - Google Patents

Retrieval device and program Download PDF

Info

Publication number
JP2019074949A
JP2019074949A JP2017200859A JP2017200859A JP2019074949A JP 2019074949 A JP2019074949 A JP 2019074949A JP 2017200859 A JP2017200859 A JP 2017200859A JP 2017200859 A JP2017200859 A JP 2017200859A JP 2019074949 A JP2019074949 A JP 2019074949A
Authority
JP
Japan
Prior art keywords
search
user
terminal device
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017200859A
Other languages
Japanese (ja)
Inventor
雅和 穐山
Masakazu Akiyama
雅和 穐山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2017200859A priority Critical patent/JP2019074949A/en
Publication of JP2019074949A publication Critical patent/JP2019074949A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide the ease for users to obtain information pertaining to a broadcast at which they are watching.SOLUTION: A terminal device 10 obtains speeches of a broadcast at which a user is watching on a television receiver 30. The terminal device 10 obtains a digital program list of a television broadcasting and extracts information pertaining to a program at which the user is watching from the obtained digital program list. The terminal device 10 extracts words by conducting speech recognition on the obtained speeches, determines keywords for retrieving on the basis of the extracted words and the information extracted from the digital program list, and transmits the determined keywords to a server device 20. The server device 20 retrieves information by using the keywords transmitted from the terminal device 10 and transmits the retrieval result to the terminal device 10. The terminal device 10 receives the retrieval result transmitted from the server device 20 and outputs the received retrieval result.SELECTED DRAWING: Figure 1

Description

本発明は、検索装置およびプログラムに関する。   The present invention relates to a search device and program.

特許文献1には、ユーザがテレビで視聴中の曲の特徴データを検索サーバに送信して検索サーバから曲情報を受信し、受信した曲情報の内容を表示するテレビが開示されている。このテレビによれば、視聴中に流れた曲の情報をユーザが容易に得ることができる。   Patent Document 1 discloses a television that transmits feature data of a song currently being watched by the user to a search server, receives song information from the search server, and displays the content of the received song information. According to this television, it is possible for the user to easily obtain the information of the song that has flowed during viewing.

特開2012−53722号公報JP 2012-53722 A

放送の視聴中においては、ナレーションや出演者の会話などの様々な音声が出力されることがあり、放送を視聴しているユーザは、放送の音声の内容に関係した情報を得たい場合がある。しかしながら、会話中の単語で検索を行った場合、雑多な情報が表示される場合が生じ得る。   While watching a broadcast, various voices such as narrations and talks of performers may be output, and a user watching a broadcast may want to obtain information related to the content of the broadcast voice. . However, when searching for words in a conversation, miscellaneous information may be displayed.

本発明は、視聴中の放送に関する情報をユーザが容易に得られるようにすることを目的とする。   An object of the present invention is to allow a user to easily obtain information on a broadcast being viewed.

本発明は、ユーザが視聴している放送の音声および/または映像を取得する第1取得部と、ユーザが視聴している放送に係る情報または自装置のユーザに係る情報を取得する第2取得部と、前記第1取得部が取得した音声および/または映像からキーワードを抽出する抽出部と、前記抽出部が抽出したキーワードおよび前記第2取得部が取得した情報に基づいて検索を行う検索部と、前記検索部の検索結果を出力する出力部とを備える検索装置を提供する。   The present invention provides a first acquisition unit for acquiring audio and / or video of a broadcast viewed by a user, and second acquisition for acquiring information related to the broadcast viewed by the user or information related to the user of the own apparatus Search unit for searching based on the unit, an extraction unit for extracting a keyword from the audio and / or video acquired by the first acquisition unit, the keyword extracted by the extraction unit and the information acquired by the second acquisition unit And an output unit for outputting the search result of the search unit.

本発明においては、前記放送に係る情報は、前記放送の電子番組表から抽出した情報である構成としてもよい。   In the present invention, the information related to the broadcast may be information extracted from an electronic program guide of the broadcast.

また、本発明においては、前記ユーザに係る情報は、ユーザの属性であり、前記検索部は、前記抽出部が抽出したキーワードおよび前記属性に基づいて検索を行う構成としてもよい。   Further, in the present invention, the information related to the user may be an attribute of the user, and the search unit may be configured to search based on the keyword extracted by the extraction unit and the attribute.

また、本発明においては、前記ユーザに係る情報は、前記ユーザによる放送の視聴履歴であり、前記検索部は、前記抽出部が抽出したキーワードおよび前記視聴履歴に基づいて検索を行う構成としてもよい。   Further, in the present invention, the information related to the user may be a viewing history of the broadcast by the user, and the searching unit may perform a search based on the keyword extracted by the extracting unit and the viewing history. .

また、本発明においては、前記出力部は、検索結果の出力先を、前記検索部が検索に用いた情報に応じた出力先とする構成としてもよい。   Further, in the present invention, the output unit may set an output destination of the search result as an output destination according to the information used for the search by the search unit.

また、本発明においては、前記出力部は、検索結果の出力先を、ユーザが視聴している放送の内容に応じた出力先とする構成としてもよい。   Further, in the present invention, the output unit may set the output destination of the search result as the output destination according to the content of the broadcast being viewed by the user.

また、本発明は、コンピュータを、ユーザが視聴している放送の音声および/または映像を取得する第1取得部と、ユーザが視聴している放送に係る情報または自装置のユーザに係る情報を取得する第2取得部と、前記第1取得部が取得した音声および/または映像からキーワードを抽出する抽出部と、前記抽出部が抽出したキーワードおよび前記第2取得部が取得した情報に基づいて検索を行う検索部と、前記検索部の検索結果を出力する出力部として機能させるためのプログラムを提供する。   Furthermore, the present invention provides a computer with a first acquisition unit for acquiring audio and / or video of a broadcast being viewed by a user, information concerning a broadcast being viewed by the user, or information concerning the user of the own apparatus. Based on a second acquisition unit to be acquired, an extraction unit to extract a keyword from the audio and / or video acquired by the first acquisition unit, a keyword extracted by the extraction unit and information acquired by the second acquisition unit A program for functioning as a search unit for searching and an output unit for outputting a search result of the search unit is provided.

本発明によれば、視聴中の放送に関する情報をユーザが容易に得ることができる。   According to the present invention, a user can easily obtain information on a broadcast being viewed.

本発明の一実施形態の検索システム1に係る装置を示した図。The figure which showed the apparatus which concerns on the search system 1 of one Embodiment of this invention. 端末装置10のハードウェア構成を示したブロック図。FIG. 2 is a block diagram showing a hardware configuration of a terminal device 10. 端末装置10において実現する機能の構成を示したブロック図。FIG. 2 is a block diagram showing the configuration of functions implemented in the terminal device 10; 端末装置10が行う処理の流れを示したフローチャート。The flowchart which showed the flow of the process which the terminal device 10 performs.

[実施形態]
(全体構成)
図1は、本発明の一実施形態である検索システム1に係る装置を示した図である。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。通信網2は、インターネット、固定電話網、移動体通信網などを含む。通信網2には、端末装置10が有線または無線によってアクセスする。また、通信網2には、有線でサーバ装置20がアクセスする。
[Embodiment]
(overall structure)
FIG. 1 is a diagram showing an apparatus according to a search system 1 which is an embodiment of the present invention. In the following description, the term "device" can be read as a circuit, a device, a unit, or the like. The communication network 2 includes the Internet, a fixed telephone network, a mobile communication network and the like. The terminal device 10 accesses the communication network 2 by wire or wirelessly. Also, the server device 20 accesses the communication network 2 by wire.

本実施形態に係る端末装置10は、マイクロフォンとスピーカを有する装置であり、所謂スマートスピーカと呼ばれる据置型のコンピュータ装置である。端末装置10は、通信網2を介して音声通信および/またはデータ通信を行う。端末装置10は、検索機能を備えており、マイクロフォンで収音した音声を認識し、認識した音声から抽出した単語に基づいて情報を検索し、検索結果をユーザへ出力する処理を行う。端末装置10は、本発明に係る検索装置の一例である。なお、端末装置10は、据置型のものに限定されず、スマートフォン、タブレット端末、フィーチャーフォンなどの携帯型の装置であってもよい。端末装置10は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。検索システム1に含まれる端末装置10の数は、図1に示した数に限定されるものではなく、図1に示した数以上であってもよい。   The terminal device 10 according to the present embodiment is a device having a microphone and a speaker, and is a stationary computer device called a so-called smart speaker. The terminal device 10 performs voice communication and / or data communication via the communication network 2. The terminal device 10 has a search function, recognizes a voice collected by a microphone, searches information based on a word extracted from the recognized voice, and performs a process of outputting a search result to the user. The terminal device 10 is an example of a search device according to the present invention. The terminal device 10 is not limited to a stationary type, and may be a portable type device such as a smartphone, a tablet terminal, or a feature phone. The terminal device 10 may be a subscriber station, a mobile unit, a subscriber unit, a wireless unit, a remote unit, a mobile device, a wireless device, a wireless communication device, a remote device, a mobile subscriber station, an access terminal, a mobile terminal, by a person skilled in the art. It may also be called a wireless terminal, a remote terminal, a handset, a user agent, a mobile client, a client, or some other suitable term. The number of terminal devices 10 included in the search system 1 is not limited to the number illustrated in FIG. 1, and may be equal to or more than the number illustrated in FIG. 1.

テレビ受像機30は、テレビジョン放送の電波を受信し、選局したチャンネルの映像と音声を出力する受信機であり、端末装置10が設置された部屋に設置されている。サーバ装置20は、所謂検索サーバである。サーバ装置20は、通信網2を介して端末装置10と通信を行う。サーバ装置20は、端末装置10からのアクセスに応じて情報の検索を行い、検索でヒットした情報を端末装置10へ情報を送信する。   The television receiver 30 is a receiver that receives radio waves of television broadcasting and outputs video and audio of a selected channel, and is installed in a room in which the terminal device 10 is installed. The server device 20 is a so-called search server. The server device 20 communicates with the terminal device 10 via the communication network 2. The server device 20 searches for information in response to access from the terminal device 10, and transmits information hit by the search to the terminal device 10.

(端末装置10の構成)
図2は、端末装置10のハードウェア構成の一例を示した図である。操作部103は、端末装置10を操作するための操作子を有する。端末装置10は、操作された操作子に応じて動作する。通信部105は、有線および/または無線でコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信部105は、通信網2を介して音声通信とデータ通信を行う。音声処理部107は、マイクロフォン107Aとスピーカ107Bを有している。音声処理部107は、音声を表す信号をスピーカ107Bへ出力する。スピーカ107Bは、供給された信号が表す音声を出力する。また、音声処理部107は、マイクロフォン107Aが収音した音声を表すデータ(以下、収音データと称する)を生成し、生成した収音データを制御部101へ供給する。
(Configuration of terminal device 10)
FIG. 2 is a diagram showing an example of the hardware configuration of the terminal device 10. As shown in FIG. The operation unit 103 includes an operation element for operating the terminal device 10. The terminal device 10 operates in accordance with the operated operator. The communication unit 105 is hardware (transmission / reception device) for performing communication between computers in a wired and / or wireless manner, and is also called, for example, a network device, a network controller, a network card, a communication module, or the like. The communication unit 105 performs voice communication and data communication via the communication network 2. The audio processing unit 107 has a microphone 107A and a speaker 107B. The audio processing unit 107 outputs a signal representing an audio to the speaker 107B. The speaker 107B outputs the sound represented by the supplied signal. Further, the voice processing unit 107 generates data (hereinafter, referred to as sound collection data) representing the sound collected by the microphone 107A, and supplies the generated sound collection data to the control unit 101.

記憶部102は、制御部101が実行するプログラムを記憶している。記憶部102は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。記憶部102は、補助記憶装置と呼ばれてもよい。   The storage unit 102 stores a program that the control unit 101 executes. The storage unit 102 is a computer-readable recording medium, and for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magnetooptical disk (for example, a compact disk, a digital versatile disk, Blu-ray disc) The disk may be configured of at least one of a ray (registered trademark) disk, a smart card, a flash memory (for example, a card, a stick, a key drive), a floppy (registered trademark) disk, a magnetic strip, and the like. The storage unit 102 may be called an auxiliary storage device.

制御部101は、CPU(Central Processing Unit)およびメモリを有している。端末装置10において実現する機能は、記憶部102に記憶されているプログラム(ソフトウェア)をCPU、メモリなどのハードウェア上に読み込ませることでCPUが演算を行い、記憶部102の制御、通信部105の制御、音声処理部107の制御、メモリおよび記憶部102におけるデータの読み出しおよび/または書き込みの制御を行うことで実現される。制御部101が行う後述の各種処理は、1つのCPUでの実行に限定されるものではなく、2以上のCPUにより同時または逐次に実行されてもよい。CPUは、1以上のチップで実装されてもよい。制御部101は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU)で構成されてもよい。また、制御部101は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部または全てが実現されてもよい。メモリは、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリは、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリは、本発明の一実施形態に係る処理を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。   The control unit 101 includes a CPU (Central Processing Unit) and a memory. The functions implemented in the terminal device 10 are calculated by loading a program (software) stored in the storage unit 102 onto hardware such as a CPU, a memory, etc., and the CPU performs an operation to control the storage unit 102, and the communication unit 105. Control of the audio processing unit 107, and control of reading and / or writing of data in the memory and storage unit 102. The various processes described later performed by the control unit 101 are not limited to execution by one CPU, and may be performed simultaneously or sequentially by two or more CPUs. The CPU may be implemented by one or more chips. The control unit 101 may be configured by a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic device, a register, and the like. Further, the control unit 101 includes hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). It may be configured, and part or all of each functional block may be realized by the hardware. The memory is a computer readable recording medium, and includes, for example, at least one of a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be The memory may be called a register, a cache, a main memory (main storage device), and the like. The memory can store a program (program code), a software module, etc. that can be executed to carry out the process according to an embodiment of the present invention.

図3は、記憶部102に記憶されているプログラムを制御部101が実行することにより実現する機能のうち、本発明に係る機能の構成を示した機能ブロック図である。これらの機能ブロック(構成部)は、ハードウェアおよび/またはソフトウェアの任意の組み合わせによって実現されてもよい。また、各機能ブロックの実現手段は特に限定されない。即ち、各機能ブロックは、物理的および/または論理的に結合した1つの装置により実現されてもよいし、物理的および/または論理的に分離した2つ以上の装置を直接的および/または間接的に(例えば、有線および/または無線)で接続し、これら複数の装置により実現されてもよい。   FIG. 3 is a functional block diagram showing the configuration of the function according to the present invention among the functions realized by the control unit 101 executing the program stored in the storage unit 102. These functional blocks (components) may be realized by any combination of hardware and / or software. Moreover, the implementation means of each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly two or more physically and / or logically separated devices. It connects (for example, wired and / or wirelessly), and may be realized by these multiple devices.

第1取得部1001は、ユーザが視聴している放送の音声および/または映像を取得する。第2取得部1002は、ユーザが視聴している放送に係る情報または自装置のユーザに係る情報を取得する。抽出部1003は、第1取得部1001が取得した音声および/または映像からキーワードを抽出する。検索部1004は、抽出部1003が抽出したキーワードおよび第2取得部1002が取得した情報に基づいて検索を行う。出力部1005は、検索部の検索結果を出力する。   The first acquisition unit 1001 acquires audio and / or video of a broadcast viewed by the user. The second acquisition unit 1002 acquires information related to a broadcast being viewed by the user or information related to the user of the own apparatus. The extraction unit 1003 extracts keywords from the audio and / or video acquired by the first acquisition unit 1001. The search unit 1004 performs a search based on the keyword extracted by the extraction unit 1003 and the information acquired by the second acquisition unit 1002. The output unit 1005 outputs the search result of the search unit.

(実施形態の動作例)
次に本実施形態の動作例について説明する。図4は、端末装置10が行う処理の流れの一例を示したフローチャートである。まず、端末装置10は、電子番組表を取得する(ステップSA1)。ここで端末装置10は、例えば電子番組表を提供する図示省略したサーバ装置から通信網2を介して電子番組表を取得する。なお、端末装置10は、テレビ受像機30と有線または無線で通信を行い、テレビ受像機30から電子番組表を取得してもよい。また、端末装置10は、テレビ放送の電波を受信し、受信した電波から電子番組表を取得してもよい。
(Operation Example of Embodiment)
Next, an operation example of the present embodiment will be described. FIG. 4 is a flowchart showing an example of the flow of processing performed by the terminal device 10. First, the terminal device 10 acquires an electronic program guide (step SA1). Here, the terminal device 10 acquires an electronic program guide via the communication network 2 from a server device (not shown) that provides an electronic program guide, for example. The terminal device 10 may communicate with the television receiver 30 in a wired or wireless manner to acquire the electronic program guide from the television receiver 30. Further, the terminal device 10 may receive radio waves of television broadcast and acquire an electronic program guide from the received radio waves.

電子番組表を取得した端末装置10は、テレビ受像機30で視聴されている放送のチャンネル番号を特定する(ステップSA2)。端末装置10は、視聴されているチャンネル番号の特定については、例えばユーザが操作部103で入力したチャンネル番号により特定する。なお、端末装置10は、テレビ受像機30と通信を行い、視聴されている放送のチャンネル番号をテレビ受像機30から取得することにより、視聴されている放送のチャンネル番号を特定してもよい。また、視聴している放送のチャンネル番号をユーザが音声で端末装置10へ入力し、端末装置10は、入力された音声を認識してチャンネル番号を特定してもよい。   The terminal device 10 having acquired the electronic program guide specifies the channel number of the broadcast being viewed on the television receiver 30 (step SA2). The terminal device 10 specifies the channel number being viewed, for example, by the channel number input by the user using the operation unit 103. The terminal device 10 may specify the channel number of the broadcast being viewed by communicating with the television receiver 30 and acquiring the channel number of the broadcast being viewed from the television receiver 30. Alternatively, the user may input the channel number of the broadcast being viewed to the terminal device 10 by voice, and the terminal device 10 may recognize the input voice to specify the channel number.

端末装置10は、テレビ受像機30で視聴されている放送のチャンネル番号を特定すると、取得した電子番組表を参照し、この時点の日時と特定したチャンネル番号とを用いてユーザが視聴中の番組を特定する(ステップSA3)。次に端末装置10(第2取得部1002)は、ステップSA3で特定したユーザが視聴中の番組の情報を、取得した電子番組表から抽出する(ステップSA4)。ここで端末装置10は、番組の情報として、例えば番組表に含まれている番組の説明文にある単語を抽出する。例えば、視聴している番組が音楽番組である場合には、番組表に含まれている番組の説明文から、番組の出演者名、番組で放送される楽曲名をなどの単語を、視聴中の番組の情報として抽出する。   When the terminal device 10 specifies the channel number of the broadcast being viewed on the television receiver 30, the terminal device 10 refers to the acquired electronic program guide, and uses the date and time at this time and the specified channel number to make the program being viewed by the user. Are identified (step SA3). Next, the terminal device 10 (second acquisition unit 1002) extracts information of the program being viewed by the user specified in step SA3 from the acquired electronic program guide (step SA4). Here, the terminal device 10 extracts, for example, a word in the description of the program included in the program guide as the information of the program. For example, when the program being viewed is a music program, words such as the name of a performer of the program, the name of a song to be broadcast in the program, etc. are being viewed from the description of the program included in the program guide Extracted as program information of

端末装置10は、図4に示した処理と並行して、音声認識処理を行う。具体的には、音声処理部107においては、マイクロフォン107Aがテレビ受像機30から出力された音声を収音する。音声処理部107は、マイクロフォン107Aが収音した音声に応じて収音データを生成する。制御部101(第1取得部1001)は、収音データを取得する。電子番組表から情報を抽出した端末装置10(抽出部1003)は、音声処理部107が生成した収音データに対して音声認識処理を行い、マイクロフォン107Aで収音された音声に含まれる単語を抽出する。ここで抽出される単語は、本発明に係るキーワードの一例である。   The terminal device 10 performs speech recognition processing in parallel with the processing shown in FIG. Specifically, in the audio processing unit 107, the microphone 107A picks up the audio output from the television receiver 30. The sound processing unit 107 generates sound collection data according to the sound collected by the microphone 107A. The control unit 101 (first acquisition unit 1001) acquires sound collection data. The terminal device 10 (extraction unit 1003) that has extracted the information from the electronic program guide performs speech recognition processing on the collected sound data generated by the speech processing unit 107, and uses the words included in the sound collected by the microphone 107A. Extract. The word extracted here is an example of the keyword according to the present invention.

テレビ放送の音声から単語を抽出した端末装置10(検索部1004)は、音声認識処理で抽出した単語と、ステップSA4で電子番組表から抽出した単語に基づいて検索を行う。例えば、ユーザが視聴している放送にて出演者名が音声で紹介されると、端末装置10は、紹介された出演者名を音声認識により抽出する。端末装置10は、音声認識により抽出した出演者名と同じ出演者名が、電子番組表から抽出した単語の中にあるか判断する(ステップSA5)。端末装置10は、音声認識により抽出した出演者名と同じ出演者名が、電子番組表から抽出した単語の中にある場合(ステップSA5でYES)、音声認識により抽出した出演者名の文字列(単語)をサーバ装置20へ送信する(ステップSA6)。即ち、端末装置10(検索部1004)は、サーバ装置20を利用して検索を行う)。   The terminal device 10 (search unit 1004) that has extracted words from the sound of television broadcast performs a search based on the words extracted in the speech recognition process and the words extracted from the electronic program guide in step SA4. For example, when a cast name is introduced by voice in a broadcast that a user is viewing and listening to, the terminal device 10 extracts the introduced cast name by voice recognition. The terminal device 10 determines whether the same performer name as the performer name extracted by speech recognition is present in the words extracted from the electronic program guide (step SA5). If there is the same cast name as the cast name extracted by speech recognition in the word extracted from the electronic program guide (YES in step SA5), the terminal device 10 is a character string of the cast name extracted by speech recognition The (word) is transmitted to the server device 20 (step SA6). That is, the terminal device 10 (search unit 1004) performs a search using the server device 20).

サーバ装置20は、端末装置10から送信される文字列を受信し、受信した文字列を検索のキーワードとして情報を検索する。上述したように、端末装置10から送信された文字列が出演者名である場合、サーバ装置20は、出演名を検索キーとして情報の検索を行う。サーバ装置20は、情報の検索が終了すると、検索でヒットした情報を端末装置10へ送信する。例えばサーバ装置20は、出演者名で情報の検索を行うと、出演者で特定される人物のプロフィールを取得し、取得したプロフィールを表すテキスト情報を端末装置10へ送信する。   The server device 20 receives the character string transmitted from the terminal device 10, and searches for information using the received character string as a search keyword. As described above, when the character string transmitted from the terminal device 10 is a cast name, the server device 20 searches for information using the cast name as a search key. When the search of information is completed, the server device 20 transmits the information hit by the search to the terminal device 10. For example, when the server device 20 searches for information by a performer name, the server device 20 acquires a profile of a person specified by the performer, and transmits text information representing the acquired profile to the terminal device 10.

端末装置10(検索部1004)は、サーバ装置20から送信される情報を受信する(ステップSA7)。端末装置10(出力部1005)は、検索部1004が受信したテキスト情報、即ち検索部1004がサーバ装置20を利用して行った検索の検索結果を例えば音声の信号に変換してスピーカ107Bから出力する(ステップSA8)。端末装置10は、例えば上述したプロフィールのテキスト情報を受信した場合、プロフィールのテキスト情報を音声の信号に変換してスピーカ107Bから出力する。ユーザは、端末装置10から出力される音声を聞くことにより、番組で紹介された出演者のプロフィールを知ることができる。   The terminal device 10 (search unit 1004) receives the information transmitted from the server device 20 (step SA7). The terminal device 10 (output unit 1005) converts the text information received by the search unit 1004, that is, the search result of the search performed by the search unit 1004 using the server device 20 into, for example, a voice signal and outputs it from the speaker 107B. (Step SA8). For example, when the terminal device 10 receives text information of the above-described profile, the terminal device 10 converts the text information of the profile into an audio signal and outputs the signal from the speaker 107B. The user can know the profile of the performer introduced in the program by listening to the sound output from the terminal device 10.

以上説明したように、本実施形態によれば、放送の視聴中にユーザが検索のキーワードと検索の実行を指定しなくても、ユーザは、視聴している放送に関する情報を容易に得ることができる。また、本実施形態によれば、情報の検索は、音声認識で抽出した単語と番組表から抽出した単語とのマッチングの結果に応じて行われるため、音声認識で抽出した単語を逐次検索する構成と比較すると、雑多な情報が検索されるのを抑えることができる。   As described above, according to the present embodiment, the user can easily obtain information on the broadcast being viewed even if the user does not designate the search keyword and the execution of the search while viewing the broadcast. it can. Further, according to the present embodiment, the information search is performed according to the result of the matching between the word extracted by speech recognition and the word extracted from the program guide. Compared with, it can be suppressed that miscellaneous information is retrieved.

[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態および以下の変形例は、各々を組み合わせてもよい。
[Modification]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be practiced in various other forms. For example, the above-described embodiment may be modified as follows to implement the present invention. The above-described embodiment and the following modifications may be combined with each other.

上述した実施形態においては、端末装置10はテレビ受像機30から出力される音声を認識し、音声を認識して得た単語を用いて情報の検索を行っているが、情報の検索を行う構成は実施形態の構成に限定されるものではない。例えば、端末装置10は、撮像素子を有し、撮像素子で得られた画像を認識して得た情報を用いて情報の検索を行う構成としてもよい。撮像素子を備える端末装置10は、撮像素子でテレビ受像機30の画面を撮影し、テレビ受像機30が映している映像の画像を生成する。端末装置10は、生成した画像に対して画像認識を行い、認識したオブジェクトを示すテキスト情報を生成する。端末装置10は、画像認識により得たテキスト情報と、電子番組表から抽出した単語に基づいて検索を行う。   In the embodiment described above, the terminal device 10 recognizes a voice output from the television receiver 30, and searches for information using a word obtained by recognizing the voice. Is not limited to the configuration of the embodiment. For example, the terminal device 10 may be configured to have an imaging element and to search for information using information obtained by recognizing an image obtained by the imaging element. The terminal device 10 provided with an imaging device captures an image of the screen of the television receiver 30 with the imaging device, and generates an image of a video captured by the television receiver 30. The terminal device 10 performs image recognition on the generated image, and generates text information indicating the recognized object. The terminal device 10 performs a search based on text information obtained by image recognition and a word extracted from the electronic program guide.

例えば、端末装置10は、テレビ受像機30に映っているバラエティ番組の出演者を撮像素子で撮影した場合、画像認識により出演者を認識して出演者名を特定する。次に端末装置10は、画像認識により得た出演者名と同じ出演者名が、電子番組表から抽出した単語の中にあるか判断する。端末装置10は、画像認識により得た出演者名と同じ出演者名が、電子番組表から抽出した単語の中にある場合、画像認識により得た出演者名の文字列をサーバ装置20へ送信して情報の検索を行う。本変形例によれば、番組の視聴中にユーザが検索のキーワードと検索の実行を指示しなくても、ユーザは、視聴している番組に関する情報を容易に得ることができる。また、本変形例によれば、情報の検索は、画像認識で得た単語と番組表から抽出した単語とのマッチングの結果に応じて行われるため、画像認識で得た単語を逐次検索する構成と比較すると、雑多な情報が検索されるのを抑えることができる。   For example, when the performer of the variety program shown on the television receiver 30 is photographed by the imaging device, the terminal device 10 recognizes the performer by image recognition and specifies the performer's name. Next, the terminal device 10 determines whether the same performer name as the performer name obtained by image recognition is in the words extracted from the electronic program guide. When the same cast name as the cast name obtained by image recognition is in the word extracted from the electronic program guide, the terminal device 10 transmits the character string of the cast name obtained by image recognition to the server device 20 Search for information. According to this modification, even if the user does not instruct the search keyword and the execution of the search while watching the program, the user can easily obtain the information on the program being watched. Further, according to the present modification, the information search is performed according to the result of the matching between the word obtained by image recognition and the word extracted from the program guide. Compared with, it can be suppressed that miscellaneous information is retrieved.

また、本発明においては、端末装置10が撮像素子を備える構成においては、端末装置10は、音声認識で得た単語、画像認識で得た単語および電子番組表から抽出した単語を用いて情報の検索を行う構成としてもよい。例えば、ユーザがテレビ受像機30でサッカーの試合を視聴している場合を想定する。この場合、端末装置10は、例えば電子番組表から対戦するチーム名を抽出する。また、端末装置10は、テレビ受像機30に映っている選手を撮像素子で撮影した場合、画像認識により選手を認識して選手名を特定する。また、複数の選手がテレビ受像機30で映し出されている場合、端末装置10は、映し出されている複数の選手の選手名を特定する。また、端末装置10は、実況により選手名の音声が流れると、音声認識により選手名を収音データから抽出する。端末装置10は、音声認識により得た選手名と一致する選手名が画像認識により得た選手名の中にある場合、音声認識により得た選手名の文字列と、電子番組表から抽出したチーム名の文字列とをサーバ装置20へ送信して情報の検索を行う。本変形例によれば、番組の視聴中にユーザが検索のキーワードと検索の実行を指示しなくても、ユーザは、視聴している放送に関する情報を容易に得ることができる。また、本変形例によれば、情報の検索は、画像認識で得た単語、音声認識で得た単語および番組表から抽出した単語を用いて行われるため、画像認識で得た単語を逐次検索する構成と比較すると、雑多な情報が検索されるのを抑えることができる。   Further, in the present invention, in the configuration in which the terminal device 10 includes the imaging device, the terminal device 10 uses the word obtained by speech recognition, the word obtained by image recognition, and the word extracted from the electronic program guide. It may be configured to perform a search. For example, it is assumed that the user is watching a soccer game on the television set 30. In this case, the terminal device 10 extracts, for example, the names of teams competing in the electronic program guide. In addition, when the player shown in the television receiver 30 is photographed by the imaging device, the terminal device 10 recognizes the player by image recognition and specifies the player name. In addition, when a plurality of players are displayed on the television receiver 30, the terminal device 10 identifies the player names of the plurality of players displayed. In addition, when the voice of the player name flows in the real state, the terminal device 10 extracts the player name from the sound collection data by voice recognition. If there is a player name corresponding to the player name obtained by speech recognition in the player name obtained by image recognition, the terminal device 10 has a character string of the player name obtained by speech recognition and the team extracted from the electronic program guide The character string of the name is sent to the server device 20 to search for information. According to this modification, even if the user does not instruct the search keyword and the execution of the search while watching the program, the user can easily obtain the information on the broadcast being watched. Further, according to the present modification, information search is performed using words obtained by image recognition, words obtained by speech recognition, and words extracted from a program guide, so that words obtained by image recognition are sequentially searched As compared with the configuration described above, it is possible to suppress retrieval of miscellaneous information.

上述した実施形態においては、端末装置10は、音声認識で特定した単語と電子番組表から得た単語を用いて情報の検索を行っているが、情報の検索を行う態様は、実施形態の態様に限定されるものではない。例えば、端末装置10は、端末装置10のユーザの属性を記憶し、記憶しているユーザの属性と、電子番組表から抽出した単語を用いて情報の検索を行ってもよい。ユーザの属性は、本発明におけるユーザに係る情報の一例である。端末装置10は、例えばユーザの属性として、ユーザの年齢、性別、住所、趣味、好きなスポーツチーム、好きな食べ物などを記憶する。   In the embodiment described above, the terminal device 10 searches for information using the word specified by voice recognition and the word obtained from the electronic program guide, but the aspect of searching for information is an aspect of the embodiment It is not limited to For example, the terminal device 10 may store an attribute of the user of the terminal device 10, and search for information using the stored user attribute and a word extracted from the electronic program guide. The attribute of the user is an example of information related to the user in the present invention. The terminal device 10 stores, for example, the user's age, gender, address, hobbies, favorite sports team, favorite food, and the like as attributes of the user.

例えば、ユーザがテレビ受像機30でサッカーの試合を視聴している場合を想定する。この場合、端末装置10は、実況によりチーム名がテレビ受像機30から流れると、音声認識によりチーム名を収音データから抽出する。端末装置10は、音声認識により得たチーム名と一致するチーム名が記憶しているユーザの属性の中にある場合、音声認識により得たチーム名の文字列をサーバ装置20へ送信して情報の検索を行う。本変形例によれば、放送の視聴中にユーザが検索のキーワードと検索の実行を指定しなくても、ユーザは、視聴している放送に関する情報をユーザが容易に得ることができる。また、本変形例によれば、情報の検索は、音声認識で抽出した単語および端末装置10に記憶されている属性を用いて行われるため、音声認識で抽出した単語を逐次検索する構成と比較すると、雑多な情報が検索されるのを抑えることができる。   For example, it is assumed that the user is watching a soccer game on the television set 30. In this case, when the team name flows from the television receiver 30 in the real situation, the terminal device 10 extracts the team name from the sound collection data by voice recognition. The terminal device 10 transmits the character string of the team name obtained by voice recognition to the server device 20 when the team name matching the team name obtained by voice recognition is in the stored user attribute. Do a search for According to this modification, even if the user does not designate the search keyword and the execution of the search while watching the broadcast, the user can easily obtain the information on the broadcast being watched. Further, according to the present modification, the information search is performed using the word extracted by speech recognition and the attribute stored in the terminal device 10, so that a comparison is made with a configuration in which the word extracted by speech recognition is searched sequentially Then, searching for miscellaneous information can be suppressed.

本発明においては、端末装置10は、ユーザが視聴した番組の情報を視聴履歴として記憶する構成としてもよい。また、ユーザが視聴した番組の情報を視聴履歴として記憶する場合、端末装置10は、記憶した視聴履歴を用いて情報の検索を行う構成としてもよい。例えば、ユーザがテレビ受像機30でサッカーの試合を視聴している場合を想定する。この場合、端末装置10は、実況によりチーム名がテレビ受像機30から流れると、音声認識によりチーム名を収音データから抽出する。端末装置10は、収音データから抽出したチーム名と同じチーム名が視聴履歴として記憶されており、記憶されているチーム名の数が予め定められた閾値以上である場合、音声認識により得たチーム名の文字列をサーバ装置20へ送信して情報の検索を行ってもよい。
本変形例によれば、放送の視聴中にユーザが検索のキーワードと検索の実行を指定しなくても、ユーザは、視聴している放送に関する情報を容易に得ることができる。また、本変形例によれば、情報の検索は、音声認識で得た単語および端末装置10に記憶されている視聴履歴を用いて行われるため、音声認識で得た単語を逐次検索する構成と比較すると、雑多な情報が検索されるのを抑えることができる。
In the present invention, the terminal device 10 may be configured to store information of a program viewed by the user as a viewing history. Further, in the case where information of a program viewed by the user is stored as a viewing history, the terminal device 10 may be configured to search for information using the stored viewing history. For example, it is assumed that the user is watching a soccer game on the television set 30. In this case, when the team name flows from the television receiver 30 in the real situation, the terminal device 10 extracts the team name from the sound collection data by voice recognition. The terminal device 10 is obtained by voice recognition when the same team name as the team name extracted from the sound collection data is stored as a viewing history and the number of stored team names is equal to or more than a predetermined threshold. The character string of the team name may be transmitted to the server device 20 to search for information.
According to this modification, even if the user does not designate the search keyword and the execution of the search while watching the broadcast, the user can easily obtain the information on the broadcast being watched. Further, according to the present modification, the information search is performed using the word obtained by speech recognition and the viewing history stored in the terminal device 10, so that a configuration for sequentially searching the word obtained by speech recognition By comparison, it is possible to suppress the retrieval of miscellaneous information.

上述した実施形態においては、端末装置10は、テレビ放送の音声から抽出した文字列とテレビ放送の電子番組表から抽出した文字列とを用いて情報の検索を行っているが、音声と番組表は、テレビ放送に係るものに限定されるものではない。例えば、所謂インターネット放送のように通信網2を介して行われる放送について、端末装置10は、放送の音声と電子番組表を取得し、取得した音声と電子番組表から単語を抽出し、抽出した単語に基づいて情報の検索を行ってもよい。本変形例によれば、放送の視聴中にユーザが検索のキーワードと検索の実行を指定しなくても、ユーザは、視聴している放送に関する情報を容易に得ることができる。また、本変形例によれば、情報の検索は、音声認識で抽出した単語および番組表から抽出した単語を用いて行われるため、音声認識で得た単語を逐次検索する構成と比較すると、雑多な情報が検索されるのを抑えることができる。   In the embodiment described above, the terminal device 10 searches for information using the character string extracted from the sound of television broadcast and the character string extracted from the electronic program guide for television broadcast. Is not limited to those related to television broadcasting. For example, for a broadcast performed via the communication network 2 as in the so-called Internet broadcast, the terminal device 10 acquires the audio of the broadcast and the electronic program guide, and extracts and extracts the words from the acquired audio and the electronic program guide Information may be searched based on words. According to this modification, even if the user does not designate the search keyword and the execution of the search while watching the broadcast, the user can easily obtain the information on the broadcast being watched. Further, according to this modification, information retrieval is performed using words extracted by speech recognition and words extracted from a program guide, so compared to a configuration in which words retrieved by speech recognition are sequentially searched, miscellaneous characters It is possible to suppress the retrieval of sensitive information.

本発明においては、通信網2を介する放送を端末装置10が受信し、受信した放送に係る音声および/または映像を端末装置10が出力する構成としてもよい。また、本発明においては、端末装置10は、通信網2を介する放送を受信し、ユーザが選択した放送に係る音声および/または映像をテレビ受像機30へ出力し、テレビ受像機30で映像および音声を視聴する構成としてもよい。また、本発明においては、端末装置10は、テレビ放送を受信するチューナの機能を備え、ユーザが選択したチャンネルの映像および音声をテレビ受像機30へ出力し、テレビ受像機30で映像および音声を視聴する構成としてもよい。   In the present invention, the terminal device 10 may receive the broadcast via the communication network 2 and the terminal device 10 may output the received audio and / or video related to the broadcast. Further, in the present invention, the terminal device 10 receives a broadcast via the communication network 2 and outputs audio and / or video related to the broadcast selected by the user to the television receiver 30, and the television receiver 30 outputs the video and It may be configured to view audio. Further, in the present invention, the terminal device 10 has a tuner function for receiving television broadcast, outputs video and audio of a channel selected by the user to the television receiver 30, and the television and receiver 30 outputs video and audio. It may be configured to view and listen.

本発明においては、端末装置10が放送を受信し、ユーザが選択した放送に係る映像および/または音声をテレビ受像機30へ出力し、テレビ受像機30で映像および音声を視聴する構成の場合、端末装置10は、検索処理によりサーバ装置20から取得した情報を、テレビ受像機30へ出力する映像に重畳し、検索により取得した情報が映像としてテレビ受像機30で表示されるようにしてもよい。また、本発明においては、端末装置10は、検索により取得した情報をユーザが所持するタブレット端末またはスマートフォンなどの携帯端末へ有線又は無線で送信し、携帯端末は、端末装置10から送信された情報を表示する構成としてもよい。本変形例によれば、検索により得た情報が画面に表示され、ユーザは、検索により得られた情報を容易に知ることができる。   In the present invention, the terminal device 10 receives a broadcast, outputs video and / or audio related to the broadcast selected by the user to the television receiver 30, and views the video and audio on the television receiver 30, The terminal device 10 may superimpose the information acquired from the server device 20 by the search process on the video to be output to the television receiver 30, and the information acquired by the search may be displayed on the television receiver 30 as a video. . Further, in the present invention, the terminal device 10 transmits the information acquired by the search to a portable terminal such as a tablet terminal or a smartphone possessed by the user by wire or wireless, and the portable terminal is information transmitted from the terminal device 10 May be displayed. According to this modification, the information obtained by the search is displayed on the screen, and the user can easily know the information obtained by the search.

上述した変形例のように、検索により得た情報を端末装置10が他の装置へ出力する構成においては、検索により得た情報の出力先を、予め定められたルールに従って決定する構成としてもよい。例えば、端末装置10は、上述した変形例のようにユーザの属性を検索に用いた場合には、検索により得た情報の出力先をユーザが所持する携帯端末とし、認識した音声から抽出した単語と電子番組表から抽出した単語により情報を検索した場合には、検索により得た情報をスピーカ107Bから出力してもよい。   In the configuration in which the terminal device 10 outputs the information obtained by the search to another device as in the modification described above, the output destination of the information obtained by the search may be determined according to a predetermined rule. . For example, when the terminal device 10 uses the attribute of the user for the search as in the modification described above, the output destination of the information obtained by the search is a portable terminal owned by the user, and the word extracted from the recognized voice When the information is searched by the words extracted from the electronic program guide, the information obtained by the search may be output from the speaker 107B.

また、本発明においては、上述したように、検索により得た情報をテレビ放送の映像に重畳させる構成の場合、端末装置10は、ユーザの属性を検索に用いた場合には、検索により得た情報の出力先をユーザが所持する携帯端末とし、認識した音声から抽出した単語と電子番組表から抽出した単語により情報を検索した場合には、検索により得た情報をテレビ受像機30へ出力する映像に重畳させる構成としてもよい。本変形例によれば、ユーザの属性を検索キーとした情報は、ユーザが所持する携帯端末に表示されるため、ユーザの個人の属性で検索された情報をユーザ以外の者に知られないようにすることができる。   Further, in the present invention, as described above, in the configuration in which the information obtained by the search is superimposed on the video of the television broadcast, the terminal device 10 is obtained by the search when the attribute of the user is used for the search. When the information output destination is a portable terminal owned by the user and information is searched based on the words extracted from the recognized speech and the words extracted from the electronic program guide, the information obtained by the search is output to the television receiver 30 It may be configured to be superimposed on the video. According to this modification, the information using the user's attribute as the search key is displayed on the portable terminal possessed by the user, so that the information retrieved by the user's personal attribute is not known to anyone other than the user Can be

また、本発明においては、検索により得た情報の出力先を、ユーザが視聴している放送の内容に応じて決定する構成としてもよい。例えば、端末装置10は、ユーザが視聴している放送の内容がスポーツ中継である場合には、検索により得た情報をテレビ受像機30またはテレビ受像機30と携帯端末の両方へ出力し、ユーザが視聴している番組の内容が競馬中継である場合には、検索により得た情報の出力先をユーザが所持する携帯端末としてもよい。本変形例によれば、例えば、スポーツ中継のように多人数で視聴を楽しむ放送の場合には、視聴している放送に関する情報がテレビ受像機30で表示されるため、視聴している者の各々が検索で得られた情報を知ることができ、また、視聴中の放送が個人で視聴を楽しむ番組の場合には、視聴している放送に関する情報が携帯端末で表示されるため、検索で得られた情報を、番組を楽しむ個人のみが得ることができる。   In the present invention, the output destination of the information obtained by the search may be determined according to the content of the broadcast being viewed by the user. For example, when the content of the broadcast being viewed by the user is sports relay, the terminal device 10 outputs the information obtained by the search to the television receiver 30 or both the television receiver 30 and the portable terminal, and the user When the content of the program being viewed by the player is a horse racing relay, a user may possess a portable terminal in which the user holds the output destination of the information obtained by the search. According to this modification, for example, in the case of a broadcast that enjoys viewing and listening by a large number of people, such as sports broadcasting, information on the broadcast being viewed is displayed on the television receiver 30, and Each can know the information obtained by the search, and if the broadcast being viewed is a program that enjoys viewing personally, the information regarding the broadcast being viewed is displayed on the portable terminal, so The information obtained can only be obtained by the individual enjoying the program.

本発明においては、ユーザの属性を端末装置10が記憶する場合、端末装置10は、複数のユーザの各々の属性を記憶してもよい。また、端末装置10は、複数のユーザの各々の属性を記憶する場合、情報の検索結果を、検索に用いた属性に対応したユーザの携帯端末へ送信する構成としてもよい。   In the present invention, when the terminal device 10 stores user attributes, the terminal device 10 may store each attribute of a plurality of users. In addition, when storing the attributes of each of a plurality of users, the terminal device 10 may be configured to transmit the search result of the information to the portable terminal of the user corresponding to the attribute used for the search.

例えば、端末装置10が、ユーザAの属性としてスポーツチームAのチーム名Aを記憶し、ユーザBの属性として、スポーツチームBのチーム名Bを記憶している場合を想定する。この場合、端末装置10は、スポーツ中継の実況によりチーム名Aがテレビ受像機30から流れると、音声認識によりチーム名Aを収音データから抽出する。端末装置10は、音声認識により得たチーム名Aと一致するチーム名Aが、記憶しているユーザAの属性に含まれているため、音声認識により得たチーム名Aの文字列をサーバ装置20へ送信して情報の検索を行う。この場合、端末装置10は、検索によりサーバ装置20から得られた情報を、ユーザAが所持する携帯端末へ送信する。また、端末装置10は、スポーツ中継の実況によりチーム名Bがテレビ受像機30から流れると、音声認識によりチーム名Bを収音データから抽出する。端末装置10は、音声認識により得たチーム名Bと一致するチーム名Bが、記憶しているユーザBの属性に含まれているため、音声認識により得たチーム名Bの文字列をサーバ装置20へ送信して情報の検索を行う。この場合、端末装置10は、検索によりサーバ装置20から得られた情報を、ユーザBが所持する携帯端末へ送信する。本変形例によれば、例えば、多人数で番組を視聴していても、ユーザの属性に基づいて検索された情報が対応するユーザへ提示されるため、ユーザは、自身に関連する情報のみを得ることができる。   For example, it is assumed that the terminal device 10 stores the team name A of the sports team A as the attribute of the user A, and stores the team name B of the sports team B as the attribute of the user B. In this case, when the team name A flows from the television receiver 30 in the real condition of sports relay, the terminal device 10 extracts the team name A from the sound collection data by voice recognition. Since the terminal device 10 includes the team name A matching the team name A obtained by speech recognition in the stored attribute of the user A, the character string of the team name A obtained by speech recognition is used as a server device Send to 20 to search for information. In this case, the terminal device 10 transmits the information obtained from the server device 20 by the search to the portable terminal possessed by the user A. In addition, when the team name B flows from the television receiver 30 in the real condition of sports relay, the terminal device 10 extracts the team name B from the sound collection data by voice recognition. Since the terminal device 10 includes the team name B matching the team name B obtained by voice recognition in the stored attribute of the user B, the character string of the team name B obtained by voice recognition is used as a server device Send to 20 to search for information. In this case, the terminal device 10 transmits the information obtained from the server device 20 by the search to the portable terminal possessed by the user B. According to this modification, for example, even when a program is watched by a large number of people, the information searched based on the attribute of the user is presented to the corresponding user, so that the user can select only the information related to himself. You can get it.

本発明においては、端末装置10は、ユーザが視聴している放送についてチャンネル番号が変わった場合、処理の流れをステップSA2へ移してもよい。例えば、ユーザが操作部103で新たなチャンネル番号を入力した場合、端末装置10は、ユーザが視聴している番組が変わったと判断する。また、端末装置10は、テレビ受像機30と通信を行い、視聴されている放送のチャンネル番号をテレビ受像機30から取得し、チャンネル番号の変化を判断することにより、ユーザが視聴している番組が変わったと判断してもよい。また、視聴している放送のチャンネル番号をユーザが音声で端末装置10へ入力し、端末装置10は、入力された音声を認識してチャンネル番号の変化を判断することにより、ユーザが視聴している番組が変わったと判断してもよい。また、端末装置10は、ユーザが視聴しているチャンネルが変わらないものの、視聴していた番組が終了して次の番組を視聴しており、視聴している番組が変わった場合、処理の流れをステップSA3へ移してもよい。   In the present invention, the terminal device 10 may move the process flow to step SA2 when the channel number of the broadcast being viewed by the user is changed. For example, when the user inputs a new channel number at the operation unit 103, the terminal device 10 determines that the program viewed by the user has changed. In addition, the terminal device 10 communicates with the television receiver 30, acquires the channel number of the broadcast being viewed from the television receiver 30, and determines the change of the channel number, thereby the program being viewed by the user. It may be determined that has changed. In addition, the user inputs the channel number of the broadcast being viewed to the terminal device 10 by voice, and the terminal device 10 recognizes the input voice and judges the change of the channel number to allow the user to view It may be determined that the current program has changed. In addition, although the channel that the user is watching does not change, the terminal device 10 views the next program after the program being watched is finished, and the process being watched changes. May be moved to step SA3.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステムおよび/またはこれらに基づいて拡張された次世代システムに適用されてもよい。   Each aspect / embodiment described in the present specification is LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA (Registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-Wide Band), The present invention may be applied to a system utilizing Bluetooth (registered trademark), other appropriate systems and / or an advanced next-generation system based on these.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。   As long as there is no contradiction, the processing procedure, sequence, flow chart, etc. of each aspect / embodiment described in this specification may be reversed. For example, for the methods described herein, elements of the various steps are presented in an exemplary order and are not limited to the particular order presented.

本発明においては、情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。   In the present invention, information etc. may be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input and output may be performed via a plurality of network nodes.

本発明においては、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。   In the present invention, input / output information may be stored in a specific place (for example, a memory) or may be managed by a management table. Information to be input or output may be overwritten, updated or added. The output information etc. may be deleted. The input information or the like may be transmitted to another device.

本発明においては、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。   In the present invention, the determination may be performed by a value (0 or 1) represented by one bit, or may be performed by a true / false value (Boolean: true or false), or a comparison of numerical values. (For example, comparison with a predetermined value) may be performed.

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。   Each aspect / embodiment described in this specification may be used alone, may be used in combination, and may be switched and used along with execution. In addition, notification of predetermined information (for example, notification of "it is X") is not limited to what is explicitly performed, but is performed by implicit (for example, not notifying of the predetermined information) It is also good.

本開示においては、プログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。   For the purposes of this disclosure, programs are referred to as instructions, instruction sets, codes, code segments, program codes, subprograms, whether they are called software, firmware, middleware, microcode, hardware description language, or by other names. Should be interpreted broadly to mean software modules, applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, etc.

また、プログラム、命令などは、伝送媒体を介して送受信されてもよい。例えば、プログラムが、同軸ケーブル、光ファイバケーブル、ツイストペアおよびデジタル加入者回線(DSL)などの有線技術および/または赤外線、無線およびマイクロ波などの無線技術を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、これらの有線技術および/または無線技術は、伝送媒体の定義内に含まれる。   Also, programs, instructions, etc. may be transmitted and received via a transmission medium. For example, the program may use a wireline technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or a website, server, or other using wireless technology such as infrared, wireless and microwave When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、またはこれらの任意の組み合わせによって表されてもよい。   The information, signals, etc. described herein may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips etc that may be mentioned throughout the above description may be voltage, current, electromagnetic waves, magnetic fields or particles, light fields or photons, or any of these May be represented by a combination of

本明細書で説明した用語および/または本明細書の理解に必要な用語については、同一のまたは類似する意味を有する用語と置き換えてもよい。例えば、チャネルおよび/またはシンボルは信号(シグナル)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC)は、キャリア周波数、セルなどと呼ばれてもよい。   The terms described herein and / or the terms necessary for the understanding of the present specification may be replaced with terms having the same or similar meanings. For example, the channels and / or symbols may be signals. Also, the signal may be a message. Also, the component carrier (CC) may be called a carrier frequency, a cell or the like.

本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。   The terms "system" and "network" as used herein are used interchangeably.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。   In addition, the information, parameters, and the like described in the present specification may be represented by absolute values, may be represented by relative values from predetermined values, or may be represented by corresponding other information. . For example, radio resources may be indexed.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。   The terms "determining", "determining" as used herein may encompass a wide variety of operations. "Judgment", "decision" are, for example, judging, calculating, calculating, processing, processing, deriving, investigating, looking up (for example, a table) (Searching in a database or another data structure), ascertaining may be regarded as “decision”, “decision”, etc. Also, "determination" and "determination" are receiving (e.g. receiving information), transmitting (e.g. transmitting information), input (input), output (output), access (Accessing) (for example, accessing data in a memory) may be regarded as “judged” or “decided”. Also, "judgement" and "decision" are to be considered as "judgement" and "decision" that they have resolved (resolving), selecting (selecting), choosing (choosing), establishing (establishing), etc. May be included. That is, "judgment" "decision" may include considering that some action is "judged" "decision".

本開示において「接続された(connected)」、「結合された(coupled)」という用語、またはこれらのあらゆる変形は、2またはそれ以上の要素間の直接的または間接的なあらゆる接続または結合を意味し、互いに「接続」または「結合」された2つの要素間に1またはそれ以上の中間要素が存在することを含むことができる。要素間の結合または接続は、物理的なものであっても、論理的なものであっても、あるいはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1またはそれ以上の電線、ケーブルおよび/またはプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域および光(可視および不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」または「結合」されると考えることができる。   The terms "connected", "coupled" or any variation thereof in the present disclosure means any direct or indirect connection or coupling between two or more elements. It may include the presence of one or more intermediate elements between two elements which are "connected" or "coupled" with one another. The coupling or connection between elements may be physical, logical or a combination thereof. As used herein, the two elements are by using one or more electrical wires, cables and / or printed electrical connections, and radio frequency as some non-limiting and non-inclusive examples. It can be considered "connected" or "coupled" to one another by using electromagnetic energy such as electromagnetic energy having wavelengths in the region, microwave region and light (both visible and invisible) regions.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。   As used herein, the phrase "based on" does not mean "based only on," unless expressly stated otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

「含む(including)」、「含んでいる(comprising)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。   As long as “including”, “comprising”, and variations thereof are used in the present specification or claims, these terms as well as the term “comprising” are inclusive. Intended to be Further, it is intended that the term "or" as used in the present specification or in the claims is not an exclusive OR.

本開示の全体において、例えば、英語でのa、an、およびtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。   Throughout the disclosure, for example, when articles are added by translation, such as a, an, and the in English, these articles are not clearly indicated by the context, unless the article clearly indicates otherwise. It shall contain several things.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。   Although the present invention has been described above in detail, it is apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modifications and changes without departing from the spirit and scope of the present invention defined by the description of the claims. Accordingly, the description in the present specification is for the purpose of illustration and does not have any limiting meaning on the present invention.

1…検索システム、10…端末装置、20…サーバ装置、101…制御部、102…記憶部、103…操作部、105…通信部、107…音声処理部、107A…マイクロフォン、107B…スピーカ、1001…第1取得部、1002…第2取得部、1003…抽出部、1004…検索部、1005…出力部。 DESCRIPTION OF SYMBOLS 1 ... Search system, 10 ... Terminal device, 20 ... Server apparatus, 101 ... Control part, 102 ... Storage part, 103 ... Operation part, 105 ... Communications part, 107 ... Speech processing part, 107A ... Microphone, 107B ... Speaker, 1001 ... first acquisition unit, 1002 ... second acquisition unit, 1003 ... extraction unit, 1004 ... search unit, 1005 ... output unit.

Claims (7)

ユーザが視聴している放送の音声および/または映像を取得する第1取得部と、
ユーザが視聴している放送に係る情報または自装置のユーザに係る情報を取得する第2取得部と、
前記第1取得部が取得した音声および/または映像からキーワードを抽出する抽出部と、
前記抽出部が抽出したキーワードおよび前記第2取得部が取得した情報に基づいて検索を行う検索部と、
前記検索部の検索結果を出力する出力部と
を備える検索装置。
A first acquisition unit for acquiring audio and / or video of a broadcast being viewed by a user;
A second acquisition unit that acquires information related to a broadcast viewed by a user or information related to a user of the own apparatus;
An extraction unit that extracts a keyword from the audio and / or video acquired by the first acquisition unit;
A search unit for performing a search based on the keyword extracted by the extraction unit and the information acquired by the second acquisition unit;
A search unit that outputs a search result of the search unit.
前記放送に係る情報は、前記放送の電子番組表から抽出した情報である
請求項1に記載の検索装置。
The search apparatus according to claim 1, wherein the information related to the broadcast is information extracted from an electronic program guide of the broadcast.
前記ユーザに係る情報は、ユーザの属性であり、
前記検索部は、前記抽出部が抽出したキーワードおよび前記属性に基づいて検索を行う
請求項1に記載の検索装置。
The information related to the user is an attribute of the user,
The search device according to claim 1, wherein the search unit performs a search based on the keyword extracted by the extraction unit and the attribute.
前記ユーザに係る情報は、前記ユーザによる放送の視聴履歴であり、
前記検索部は、前記抽出部が抽出したキーワードおよび前記視聴履歴に基づいて検索を行う
請求項1に記載の検索装置。
The information related to the user is a viewing history of the broadcast by the user,
The search device according to claim 1, wherein the search unit performs a search based on the keyword extracted by the extraction unit and the viewing history.
前記出力部は、検索結果の出力先を、前記検索部が検索に用いた情報に応じた出力先とする
請求項1から請求項4のいずれか一項に記載の検索装置。
The search device according to any one of claims 1 to 4, wherein the output unit sets an output destination of the search result as an output destination according to the information used for the search by the search unit.
前記出力部は、検索結果の出力先を、ユーザが視聴している放送の内容に応じた出力先とする
請求項1または請求項2に記載の検索装置。
The search apparatus according to claim 1, wherein the output unit sets an output destination of the search result as an output destination according to the content of the broadcast being viewed by the user.
コンピュータを、
ユーザが視聴している放送の音声および/または映像を取得する第1取得部と、
ユーザが視聴している放送に係る情報または自装置のユーザに係る情報を取得する第2取得部と、
前記第1取得部が取得した音声および/または映像からキーワードを抽出する抽出部と、
前記抽出部が抽出したキーワードおよび前記第2取得部が取得した情報に基づいて検索を行う検索部と、
前記検索部の検索結果を出力する出力部
として機能させるためのプログラム。
Computer,
A first acquisition unit for acquiring audio and / or video of a broadcast being viewed by a user;
A second acquisition unit that acquires information related to a broadcast viewed by a user or information related to a user of the own apparatus;
An extraction unit that extracts a keyword from the audio and / or video acquired by the first acquisition unit;
A search unit for performing a search based on the keyword extracted by the extraction unit and the information acquired by the second acquisition unit;
A program for functioning as an output unit which outputs a search result of the search unit.
JP2017200859A 2017-10-17 2017-10-17 Retrieval device and program Pending JP2019074949A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017200859A JP2019074949A (en) 2017-10-17 2017-10-17 Retrieval device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200859A JP2019074949A (en) 2017-10-17 2017-10-17 Retrieval device and program

Publications (1)

Publication Number Publication Date
JP2019074949A true JP2019074949A (en) 2019-05-16

Family

ID=66545148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200859A Pending JP2019074949A (en) 2017-10-17 2017-10-17 Retrieval device and program

Country Status (1)

Country Link
JP (1) JP2019074949A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210094280A (en) * 2020-01-21 2021-07-29 주식회사 엘지유플러스 Apparatus for broadcast contents process and control method thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006186426A (en) * 2004-12-24 2006-07-13 Toshiba Corp Information retrieval display apparatus, information retrieval display method, and information retrieval display program
JP2010154415A (en) * 2008-12-26 2010-07-08 Kddi Corp Video related information presenting apparatus, video related information presenting system, and control program for video related information presenting apparatus
JP2012523607A (en) * 2009-04-10 2012-10-04 サムスン エレクトロニクス カンパニー リミテッド Broadcast program related information providing apparatus and method
JP2013164770A (en) * 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> Related information providing method, related information providing device and related information providing program
US20150189347A1 (en) * 2013-12-31 2015-07-02 Google Inc. Methods, systems, and media for presenting supplemental information corresponding to on-demand media content
JP2016059028A (en) * 2015-03-31 2016-04-21 株式会社電通 Television program related content provision method
JP2016066971A (en) * 2014-09-26 2016-04-28 株式会社東芝 Electronic apparatus and content distribution control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006186426A (en) * 2004-12-24 2006-07-13 Toshiba Corp Information retrieval display apparatus, information retrieval display method, and information retrieval display program
JP2010154415A (en) * 2008-12-26 2010-07-08 Kddi Corp Video related information presenting apparatus, video related information presenting system, and control program for video related information presenting apparatus
JP2012523607A (en) * 2009-04-10 2012-10-04 サムスン エレクトロニクス カンパニー リミテッド Broadcast program related information providing apparatus and method
JP2013164770A (en) * 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> Related information providing method, related information providing device and related information providing program
US20150189347A1 (en) * 2013-12-31 2015-07-02 Google Inc. Methods, systems, and media for presenting supplemental information corresponding to on-demand media content
JP2016066971A (en) * 2014-09-26 2016-04-28 株式会社東芝 Electronic apparatus and content distribution control method
JP2016059028A (en) * 2015-03-31 2016-04-21 株式会社電通 Television program related content provision method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210094280A (en) * 2020-01-21 2021-07-29 주식회사 엘지유플러스 Apparatus for broadcast contents process and control method thereof
KR102301076B1 (en) * 2020-01-21 2021-09-14 주식회사 엘지유플러스 Apparatus for broadcast contents process and control method thereof

Similar Documents

Publication Publication Date Title
CN110164415B (en) Recommendation method, device and medium based on voice recognition
US9621950B2 (en) TV program identification method, apparatus, terminal, server and system
US11409817B2 (en) Display apparatus and method of controlling the same
US20140122075A1 (en) Voice recognition apparatus and voice recognition method thereof
KR20160001965A (en) Providing Method For Voice Command and Electronic Device supporting the same
CN104933170A (en) Information exhibition method and device
CN105187630A (en) Mobile terminal music saving method and system based on emotion recognition
CN108073606B (en) News recommendation method and device for news recommendation
WO2015062224A1 (en) Tv program identification method, apparatus, terminal, server and system
CN105677392A (en) Method and apparatus for recommending applications
CN109325184A (en) Searching method and device
US20150347597A1 (en) Apparatus and method for providing information
CN105516944A (en) Short message canceling method and device
EP3054698A1 (en) Display apparatus and information providing method thereof
CN105447109A (en) Key word searching method and apparatus
CN107948093A (en) Adjust the method and device that network speed is applied in terminal device
WO2019101099A1 (en) Video program identification method and device, terminal, system, and storage medium
CN104391877A (en) Method, device, terminal and server for searching subjects
CN106471493B (en) Method and apparatus for managing data
JP2018055525A (en) Text extraction device
CN105095253A (en) Webpage display method and webpage display device
CN105302335B (en) Vocabulary recommends method and apparatus and computer readable storage medium
US10460698B2 (en) Method for rendering an electronic content on a rendering device
US10832669B2 (en) Electronic device and method for updating channel map thereof
JP2014199490A (en) Content acquisition device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220208