JP2014013494A - Display control device, display system, display device, terminal device, display control method and program - Google Patents

Display control device, display system, display device, terminal device, display control method and program Download PDF

Info

Publication number
JP2014013494A
JP2014013494A JP2012150556A JP2012150556A JP2014013494A JP 2014013494 A JP2014013494 A JP 2014013494A JP 2012150556 A JP2012150556 A JP 2012150556A JP 2012150556 A JP2012150556 A JP 2012150556A JP 2014013494 A JP2014013494 A JP 2014013494A
Authority
JP
Japan
Prior art keywords
information
search
unit
speaker
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012150556A
Other languages
Japanese (ja)
Inventor
Kenzo Chiaki
謙三 千秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012150556A priority Critical patent/JP2014013494A/en
Publication of JP2014013494A publication Critical patent/JP2014013494A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide information for smoothly facilitating a conference to a speech-speaking person.SOLUTION: A display control device comprises: an information generation part that generates information to be associated with a voice uttered by the speech-speaking person from the voice uttered by the speech-speaking person; and a result output process part that outputs first search information in accordance with a first search result searched on the basis of first information to be associated with the voice uttered by a plurality of the speech-speaking persons and outputs second search information in accordance with a second search result searched on the basis of second information to be associated with the voice uttered by at least any of the plurality of the speech-speaking persons.

Description

本発明は、表示制御装置、表示システム、表示装置、端末装置、表示制御方法及びプログラムに関する。   The present invention relates to a display control device, a display system, a display device, a terminal device, a display control method, and a program.

近年、複数の発話者(参加者)が参加する会議において、この会議の話題とされている情報を複数の発話者が共有できるように、設けられた表示装置に当該情報を表示させて会議が行われる場合がある。上記のようにして行われる会議においては、複数の発話者のうちの何れかの発話者が、会議の進行に応じて変化する会議の話題に合うように、表示装置に表示させる情報を順次切り替えて表示させている。このように、共有するための情報を順次切り替えて表示装置に単に表示させただけでは、各発話者は、表示されている情報が切り替えられたことをそれぞれ認識できたとしても、表示されている情報を発話者が切り替えた編集の意図まで共有することは困難であった。
ところで、情報を編集する編集作業において、情報を切り替えた編集作業の履歴情報を記録する作業状況管理装置がある(例えば、特許文献1を参照)。
In recent years, in a conference where a plurality of speakers (participants) participate, a conference is held by displaying the information on a provided display device so that a plurality of speakers can share information that is the topic of the conference. It may be done. In a conference held as described above, the information displayed on the display device is sequentially switched so that one of a plurality of speakers matches the topic of the conference that changes according to the progress of the conference. Is displayed. Thus, if the information to be shared is sequentially switched and simply displayed on the display device, each speaker is displayed even though each speaker can recognize that the displayed information has been switched. It was difficult to share the information up to the editing intent that the speaker switched.
By the way, there is a work status management device that records history information of an editing work in which information is switched in an editing work for editing information (see, for example, Patent Document 1).

特開平7−098734号公報Japanese Patent Laid-Open No. 7-098734

しかしながら、特許文献1による作業状況管理装置は、情報を切り替える編集作業を行った編集の意図を伝える手段を有するものではない。たとえ、上記の作業状況管理装置を会議に適用しても、順次切り替えて表示する情報を切り替えた編集の意図まで共有できず、会議を円滑に進行させるための情報を発話者に提供することができないという問題があった。   However, the work status management apparatus according to Patent Document 1 does not have a means for notifying the intention of editing in which editing work for switching information is performed. Even if the work status management device described above is applied to a conference, it is not possible to share the intention of editing by switching the information to be displayed sequentially, and information for smoothly proceeding with the conference can be provided to the speaker. There was a problem that I could not.

本発明は、上記問題を解決すべくなされたもので、その目的は、会議を円滑に進行させるための情報を発話者に提供することができる表示制御装置、表示システム、表示装置、端末装置、表示制御方法及びプログラムを提供することにある。   The present invention has been made to solve the above-described problem, and its purpose is to provide a display control device, a display system, a display device, a terminal device, and the like, which can provide information for making a conference proceed smoothly to a speaker. It is to provide a display control method and program.

本発明の一実施形態は、発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成する情報生成部と、複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を出力するとともに、少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報を出力する結果出力処理部とを備えることを特徴とする表示制御装置である。   According to an embodiment of the present invention, an information generation unit that generates information associated with the voice uttered by the speaker from the voice uttered by the speaker, and the first information associated with the voice uttered by the plurality of the speakers First search information corresponding to the first search result searched based on one information is output, and at least second information associated with a voice uttered by any one of the plurality of speakers And a result output processing unit that outputs second search information corresponding to the second search result searched based on the display control device.

また、本発明の一実施形態は、上記発明に記載の表示制御装置を備え、前記表示制御装置は、前記第1検索情報を表示部に表示させ、前記第2検索情報を外部装置に表示させることを特徴とする表示システムである。   In addition, an embodiment of the present invention includes the display control device according to the above invention, wherein the display control device displays the first search information on a display unit and displays the second search information on an external device. This is a display system characterized by that.

また、本発明の一実施形態は、上記発明に記載の表示制御装置と、前記表示制御装置から出力される前記第1検索情報を表示する表示部とを備えることを特徴とする表示装置である。   Moreover, one embodiment of the present invention is a display device comprising the display control device according to the above-described invention and a display unit that displays the first search information output from the display control device. .

また、本発明の一実施形態は、上記発明に記載の表示制御装置と、前記第1検索情報を表示する端末表示部と、を備え、前記結果出力処理部は、前記第1検索情報を前記端末表示部に表示させることを特徴とする端末装置である。   Moreover, one embodiment of the present invention includes the display control device according to the above invention and a terminal display unit that displays the first search information, and the result output processing unit stores the first search information in the first search information. The terminal device is characterized by being displayed on a terminal display unit.

また、本発明の一実施形態は、発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成する過程と、複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を出力する過程と、少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報を出力する過程と、を含むことを特徴とする表示制御方法である。   Further, according to an embodiment of the present invention, a process of generating information associated with the voice uttered by the speaker from the voice uttered by the speaker, and a process associated with the voice uttered by the plurality of speakers. A process of outputting first search information corresponding to a first search result searched based on one information, and a second associated with a voice uttered by at least one of the plurality of speakers And a process of outputting second search information corresponding to the second search result searched based on the information.

また、本発明の一実施形態は、表示制御装置が備えるコンピュータに、発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成するステップと、複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を出力するステップと、少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報をさらに出力するステップを実行させるためのプログラムである。   In one embodiment of the present invention, a computer provided in the display control device generates information associated with the voice uttered by the speaker from the voice uttered by the speaker, and a plurality of the speakers Outputting the first search information according to the first search result searched based on the first information associated with the uttered voice; and at least one of the plurality of speakers This is a program for executing a step of further outputting the second search information corresponding to the second search result searched based on the second information associated with the voice.

また、本発明の一実施形態は、表示制御装置と、前記表示制御装置が出力した情報を表示する表示部とを備える表示装置が備えるコンピュータに、発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成するステップと、複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を出力するステップと、少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報をさらに出力するステップと、前記第1検索情報及び前記第2検索情報の何れかを前記表示部に表示させるステップと、を実行させるためのプログラムである。   According to an embodiment of the present invention, a speaker included in a computer provided in a display device that includes a display control device and a display unit that displays information output from the display control device is obtained from a voice uttered by a speaker. Generating information associated with the uttered voice, and outputting first search information corresponding to the first search result retrieved based on the first information associated with the voice uttered by the plurality of speakers And further outputting second search information corresponding to the second search result searched based on the second information associated with the voice uttered by at least one of the plurality of speakers And a step of displaying any one of the first search information and the second search information on the display unit.

また、本発明の一実施形態は、端末表示部を備えている端末装置が備えるコンピュータに、発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成するステップと、複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を前記端末表示部に表示させるステップと、少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報を出力するステップと、を実行させるためのプログラムである。   Further, according to one embodiment of the present invention, a step of generating information associated with a voice uttered by a speaker from a voice uttered by a speaker in a computer included in a terminal device including a terminal display unit; Displaying the first search information corresponding to the first search result searched based on the first information associated with the voices uttered by the plurality of speakers on the terminal display unit, and at least the plurality of utterances Outputting the second search information corresponding to the second search result searched based on the second information associated with the voice uttered by any one of the speakers. It is.

この発明によれば、会議を円滑に進行させるための情報を発話者に提供することができる。   According to the present invention, information for smoothly proceeding with the conference can be provided to the speaker.

本発明の第1の実施形態に係る表示制御装置を備える表示システムの概要を示す構成図である。It is a lineblock diagram showing an outline of a display system provided with a display control device concerning a 1st embodiment of the present invention. 本実施形態における表示システムの利用形態の一例を示す構成図である。It is a block diagram which shows an example of the utilization form of the display system in this embodiment. 本実施形態における表示部200とディスプレイ300とにおける表示の一例を示す図である。It is a figure which shows an example of the display in the display part 200 and the display 300 in this embodiment. 本実施形態の表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system of this embodiment. 第2の実施形態における2つのディスプレイにおける表示の一例を示す図である。It is a figure which shows an example of the display in two displays in 2nd Embodiment. 第7の実施形態における特定の発話者が発言した発言内容に応じた情報を表示する場合を示す図である。It is a figure which shows the case where the information according to the utterance content which the specific speaker in 7th Embodiment uttered is displayed. 第7の実施形態における表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system in 7th Embodiment. 第8の実施形態における表示制御装置を備える表示システムの概要を示す図である。It is a figure which shows the outline | summary of a display system provided with the display control apparatus in 8th Embodiment. 第8の実施形態における表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system in 8th Embodiment. 第9の実施形態における表示部を設けた表示システムの概要を示す図である。It is a figure which shows the outline | summary of the display system which provided the display part in 9th Embodiment. 本発明の第10の実施形態に係る検索結果出力装置を備える会議システムの構成の一例を示す構成図である。It is a block diagram which shows an example of a structure of a conference system provided with the search result output device which concerns on the 10th Embodiment of this invention. 本実施形態における会議システムの利用形態の一例を示す構成図である。It is a block diagram which shows an example of the utilization form of the conference system in this embodiment. 本実施形態における会議システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the conference system in this embodiment. 本実施形態における検索手段制御装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the search means control apparatus in this embodiment. 本実施形態における選択部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the selection part in this embodiment. 本発明の第11の実施形態に係る検索結果出力装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the search result output device which concerns on the 11th Embodiment of this invention. 本実施形態における半球状に構成されたディスプレイに出力する会議システムの一例を示す構成図である。SSIt is a block diagram which shows an example of the conference system output to the display comprised in the hemisphere in this embodiment. SS 第12の実施形態による検索装置の構成の一例を示す第1の図である。It is a 1st figure which shows an example of a structure of the search device by 12th Embodiment. 本実施形態における検索装置のブロック図である。It is a block diagram of the search device in this embodiment. 本実施形態における話題提供モードの処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of the topic provision mode in this embodiment. 本実施形態における会話追跡モードの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of conversation tracking mode in this embodiment. 本実施形態における話題提供モードの第1の変形例を示すフローチャートである。It is a flowchart which shows the 1st modification of the topic provision mode in this embodiment. 本実施形態における話題提供モードの第2の変形例を示すフローチャートである。It is a flowchart which shows the 2nd modification of the topic provision mode in this embodiment. 第13の実施形態における検索装置のブロック図である。It is a block diagram of the search device in 13th Embodiment. 本実施形態における会話追跡モードの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of conversation tracking mode in this embodiment. 本実施形態による検索装置の構成の一例を示す第2の図である。It is a 2nd figure which shows an example of a structure of the search device by this embodiment. 第14の実施形態における検索装置のブロック図である。It is a block diagram of the search device in 14th Embodiment. 本実施形態における会話追跡モードの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of conversation tracking mode in this embodiment. 第15の実施形態における会話追跡モードの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of conversation tracking mode in 15th Embodiment. 第16の実施形態における検索装置のブロック図である。RRIt is a block diagram of the search device in a 16th embodiment. RR 第17の実施形態である画像表示装置の概念構成図である。It is a conceptual block diagram of the image display apparatus which is 17th Embodiment. モード操作制御部による操作モード判定の説明図である。It is explanatory drawing of the operation mode determination by a mode operation control part. 表示部への操作モードの表示の説明図である。It is explanatory drawing of the display of the operation mode on a display part. 第18の実施形態における画像表示装置の概念構成図である。It is a conceptual block diagram of the image display apparatus in 18th Embodiment. 第19の実施形態における画像表示装置の概念構成図である。It is a conceptual block diagram of the image display apparatus in 19th Embodiment. 第20の実施形態における画像表示装置の概念構成図である。It is a conceptual block diagram of the image display apparatus in 20th Embodiment. 第21の実施形態における画像表示装置の概念構成図である。It is a conceptual block diagram of the image display apparatus in 21st Embodiment.

[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態を説明する。
図1は、本実施形態における表示制御装置を備える表示システムの概要を示す構成図である。
この図1に示される表示システム1000は、表示制御装置1100を備えている。
表示制御装置1100には、収音部101、表示部200及びディスプレイ300(端末装置)が接続されている。また、表示制御装置1100は、収音部101及び表示部200とともに、例えば、机3に設けられている。なお、表示制御装置1100(端末制御部)と表示部200(端末表示部)を一体化して、端末装置1100Sとしてもよい。
[First embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram illustrating an overview of a display system including a display control device according to the present embodiment.
The display system 1000 shown in FIG. 1 includes a display control device 1100.
The display control device 1100 is connected to a sound collection unit 101, a display unit 200, and a display 300 (terminal device). In addition, the display control device 1100 is provided on the desk 3, for example, together with the sound collection unit 101 and the display unit 200. The display control device 1100 (terminal control unit) and the display unit 200 (terminal display unit) may be integrated to form the terminal device 1100S.

表示部200は、入力された画像情報に応じた画像を表示する。本実施形態の表示部200は、表示されている画像が机3の周囲にいる人(発話者2)から視認されるように、例えば、机3の天板面に設けられている。
ディスプレイ300は、入力された画像情報に応じた画像を表示する。本実施形態のディスプレイ300は、表示されている画像が机3の周囲にいる人(発話者2)から視認されるように、例えば、机3の近傍に設けられている。また、ディスプレイ300は、略水平方向に法線が向けられた表示面を備えており、例えば、該表示面の法線が机3の方向に向けられている。
The display unit 200 displays an image corresponding to the input image information. The display unit 200 of the present embodiment is provided, for example, on the top plate surface of the desk 3 so that the displayed image can be viewed by a person (speaker 2) around the desk 3.
The display 300 displays an image corresponding to the input image information. The display 300 of the present embodiment is provided, for example, in the vicinity of the desk 3 so that the displayed image can be viewed by a person (speaker 2) around the desk 3. The display 300 includes a display surface having a normal line oriented in a substantially horizontal direction. For example, the normal line of the display surface is directed toward the desk 3.

収音部101は、例えば、音声を収音するマイクロフォンを備えており、複数の発話者2によって発せられた音声を収音する。本実施形態の収音部101には、例えば、収音部101A、収音部101B、収音部101C、収音部101Dの4つの収音部101が含まれており、それぞれ、発話者2によって発せられた音声を収音する。ここで、収音部101Aは、例えば、方向DR1に発せられた音声を収音する。同様に、収音部101Bは、例えば、方向DR2に発せられた音声を、収音部101Cは、例えば、方向DR3に発せられた音声を、収音部101Dは、例えば、方向DR4に発せられた音声を、それぞれ収音する。例えば、図2に示すように、収音部101は、机3の所定の位置、例えば、収音部101A、101B、101C、101Dに対応する位置に着席している発話者2A、2B、2C、2Dの4人の発話者2によって発せられた音声を収音するような感度特性(指向性)を有している。   The sound collection unit 101 includes, for example, a microphone that collects sound, and collects sound emitted by a plurality of speakers 2. The sound collection unit 101 of the present embodiment includes, for example, four sound collection units 101, a sound collection unit 101A, a sound collection unit 101B, a sound collection unit 101C, and a sound collection unit 101D. The sound emitted by is picked up. Here, the sound collection unit 101A collects sound emitted in the direction DR1, for example. Similarly, the sound collection unit 101B emits, for example, a sound emitted in the direction DR2, the sound collection unit 101C, for example, a sound emitted in the direction DR3, and the sound collection unit 101D, for example, emits a sound in the direction DR4. Pick up each voice. For example, as shown in FIG. 2, the sound collection unit 101 is a speaker 2A, 2B, 2C seated at a predetermined position of the desk 3, for example, a position corresponding to the sound collection units 101A, 101B, 101C, 101D. It has a sensitivity characteristic (directivity) that collects voices uttered by two 2D speakers 2.

また、表示制御装置1100は、ネットワーク15を介して検索手段11に接続されている。
検索手段11は、入力された文字情報に関連する情報を検索する。本実施形態の検索手段11は、例えば、インターネットやLANなどのネットワーク15を介して入力された文字情報に関連する情報を検索する検索エンジンである。また、検索手段11は、入力された文字情報に関連する情報を検索した結果を検索結果としてネットワーク15を介して表示制御装置1100に出力する。
The display control apparatus 1100 is connected to the search unit 11 via the network 15.
The search means 11 searches for information related to the input character information. The search means 11 of this embodiment is a search engine that searches for information related to character information input via a network 15 such as the Internet or a LAN. In addition, the search unit 11 outputs a search result of information related to the input character information to the display control apparatus 1100 via the network 15 as a search result.

図2は、表示システムの利用形態の一例を示す構成図である。
この図2において、机3は、発話者2A、2B、2C、2Dによって囲まれるように設けられる。机3に設けられている収音部101Aは、主に発話者2Aによって発せられた音声を収音する。同様に、収音部101Bは、主に発話者2Bによって、収音部101Cは、主に発話者2Cによって、収音部101Dは、主に発話者2Dによって、それぞれ発せられた音声を収音する。ここで、例えば、表示システム1000は、収音部101A、101B、101C、101Dのうちの、いずれの収音部101に音声が収音されたかを検出することによって、いずれの発話者2によって音声が発せられたのかを判定することができる。
また、この場合において、表示部200は、表示した画像が発話者2A、2B、2C、2Dから視認されるように、発話者2A、2B、2C、2Dに対して画像を表示している。
FIG. 2 is a configuration diagram illustrating an example of a usage form of the display system.
In FIG. 2, the desk 3 is provided so as to be surrounded by the speakers 2A, 2B, 2C, and 2D. The sound collection unit 101A provided on the desk 3 collects the sound mainly emitted by the speaker 2A. Similarly, the sound collecting unit 101B collects the sounds emitted mainly by the speaker 2B, the sound collecting unit 101C mainly by the speaker 2C, and the sound collecting unit 101D mainly collects the sounds emitted by the speaker 2D. To do. Here, for example, the display system 1000 detects which speaker 2 has collected the sound by detecting which sound collecting unit 101 out of the sound collecting units 101A, 101B, 101C, and 101D. Can be determined.
In this case, the display unit 200 displays an image for the speakers 2A, 2B, 2C, and 2D so that the displayed image is visually recognized by the speakers 2A, 2B, 2C, and 2D.

次に、図3を参照して、表示部200とディスプレイ300の表示を示す。
図3は、表示部200とディスプレイ300とにおける表示の一例を示す図である。この図3においては、表示部200が設けられた机3の天板面を平面視した状態を示す。
この図3に示すように、2つのディスプレイのうち一方の表示部200には、例えば、発話者2(複数の発話者)がそれぞれ発言した発言内容に応じた情報がそれぞれ表示されている。表示部200の表示面において上記情報がそれぞれ表示されている領域は、各々の発話者2に近い位置に設けられている。
例えば、表示部200の表示面において、表示面の一部の領域を示す領域ZA、ZB、ZC、ZDが、発話者2A、2B、2C、2Dに近い位置にそれぞれ設けられている。この領域ZAには、発話者2Aの発言内容(発話内容)に応じた情報「A」が表示されている。他の発話者についても発話者2Aと同様に、領域ZBには、発話者2Bの発言内容(発話内容)に応じた情報「B」が表示され、領域ZCには、発話者2Cの発言内容(発話内容)に応じた情報「C」が表示され、領域ZDには、発話者2Dの発言内容(発話内容)に応じた情報「D」が表示されている。
Next, display on the display unit 200 and the display 300 will be shown with reference to FIG.
FIG. 3 is a diagram illustrating an example of display on the display unit 200 and the display 300. In this FIG. 3, the state which planarly viewed the top plate surface of the desk 3 provided with the display part 200 is shown.
As shown in FIG. 3, on one display unit 200 of the two displays, for example, information corresponding to the utterance contents uttered by the speaker 2 (a plurality of speakers) is displayed. The area where the above information is displayed on the display surface of the display unit 200 is provided at a position close to each speaker 2.
For example, on the display surface of the display unit 200, regions ZA, ZB, ZC, and ZD indicating partial regions of the display surface are provided at positions close to the speakers 2A, 2B, 2C, and 2D, respectively. In this area ZA, information “A” corresponding to the utterance content (utterance content) of the speaker 2A is displayed. Similarly to the speaker 2A, information “B” corresponding to the utterance content (utterance content) of the utterer 2B is displayed in the region ZB, and the utterance content of the speaker 2C is displayed in the region ZC. Information “C” corresponding to (utterance content) is displayed, and information “D” corresponding to the speech content (utterance content) of the speaker 2D is displayed in the area ZD.

このように、結果出力処理部1120(図4)が、表示部200にそれぞれの情報を表示することにより、例えば、発話者2は、各々発言した発言内容が、情報生成部1110(図4)によって正しく検出され、検出された発言内容に応じた情報が正しく表示されているか否かを各々確認することができる。
また、2つのディスプレイのうち他方のディスプレイ300には、結果出力処理部1120によって、全ての発話者2のうち複数の発話者2の発話内容に応じた情報の論理積(AND条件)から得られる情報「E」が表示されている。なお、この情報「E」は、全ての発話者2の発話内容に応じた情報の論理積(AND条件)から得られる情報であってもよい。
As described above, the result output processing unit 1120 (FIG. 4) displays the respective information on the display unit 200, so that, for example, the content of the utterances of the speaker 2 is expressed by the information generation unit 1110 (FIG. 4). It is possible to confirm whether or not the information according to the detected content of the message is correctly displayed.
In the other display 300 of the two displays, the result output processing unit 1120 obtains the logical product (AND condition) of information corresponding to the utterance contents of a plurality of speakers 2 among all the speakers 2. Information “E” is displayed. The information “E” may be information obtained from the logical product (AND condition) of information corresponding to the utterance contents of all the speakers 2.

なお、この図3に示すように、全ての発話者2に応じた情報を表示する場合に限らず、一部の発話者2に応じた情報を表示するようにしてもよい。
なお、表示部200に「A」から「D」として表示される情報は、発話者2がそれぞれ発した音声から発話者2がそれぞれ発言した発言内容として抽出された情報、発話者2がそれぞれ発した音声に対応付けられる情報(第1情報)、発話者2がそれぞれ発した音声に対応付けられる情報(第1情報)に基づいて検索された検索結果(第1の検索結果)、同検索結果(第1の検索結果)に応じた画像情報(第1検索情報)などのうちから選択された情報としてもよい。
As shown in FIG. 3, not only information corresponding to all the speakers 2 is displayed, but information corresponding to some of the speakers 2 may be displayed.
Note that the information displayed as “A” to “D” on the display unit 200 is the information extracted from the speech uttered by the utterer 2 as the utterance content of the utterer 2 and the utterer 2 uttered respectively. Search result (first search result) searched based on information (first information) associated with the voice (first information), information associated with the voice uttered by the speaker 2 (first information), and the search result Information selected from image information (first search information) according to (first search result) may be used.

図4を参照し、表示システム1000の構成の詳細について説明する。
図4は、本実施形態の表示システムの構成を示すブロック図である。
この図4には、表示システム1000に係る表示制御装置1100、収音部101、表示部200、ディスプレイ300、検索手段11が示されている。
収音部101(収音部101A、収音部101B、収音部101C、収音部101D)は、上述したように、複数の発話者2によって発せられた音声を収音する。
表示制御装置1100は、収音部101によって集音された発話者2が発した音声から、発話者2の発言内容に基づいた情報を得て、表示部200とディスプレイ300に表示させる。
Details of the configuration of the display system 1000 will be described with reference to FIG.
FIG. 4 is a block diagram showing the configuration of the display system of this embodiment.
4 shows a display control device 1100, a sound collection unit 101, a display unit 200, a display 300, and a search unit 11 according to the display system 1000.
As described above, the sound collection unit 101 (the sound collection unit 101A, the sound collection unit 101B, the sound collection unit 101C, and the sound collection unit 101D) collects sounds emitted by the plurality of speakers 2.
The display control apparatus 1100 obtains information based on the utterance content of the speaker 2 from the voice uttered by the speaker 2 collected by the sound collection unit 101 and displays the information on the display unit 200 and the display 300.

表示制御装置1100は、情報生成部1110と、結果出力処理部1120とを備えている。
情報生成部1110は、発話者2が発した音声から、発話者2が発した音声に対応付けられる情報を生成する。
例えば、発話者2が発した音声から生成される情報であって、発話者2が発した音声に対応付けられる情報には、以下に記す情報のうち何れかの情報を含む。上記情報の一例として、発話者2が発した音声の一部を抽出した音片情報、発話者2が発した音声に含まれる周波数スペクトル情報、発話者2が発した音声から抽出したテキスト情報、発話者2が発した音声から抽出した単語情報、発話者2が発言した発言内容として抽出された情報、及び、上記の情報に対応づけられる情報などがあげられる。発話者2が発した音声から上記の情報を生成する処理には、既知の音声信号処理、或は、複数の既知の音声信号処理を組み合わせた処理を適用できる。
例えば、情報生成部1110は、複数の発話者2が発した音声から抽出した発話者2の発言内容に基づいた第1情報を生成するとともに、少なくとも複数の発話者2のうちの何れかの発話者2が発した音声から抽出した何れかの発話者2の発言内容に基づいた第2情報を生成する。本実施形態の以下の説明においては、発話者2が発した音声から抽出した発話者2の発言内容に基づいた情報に基づいた処理を中心に説明する。
The display control device 1100 includes an information generation unit 1110 and a result output processing unit 1120.
The information generation unit 1110 generates information associated with the voice uttered by the speaker 2 from the voice uttered by the speaker 2.
For example, the information generated from the voice uttered by the speaker 2 and associated with the voice uttered by the speaker 2 includes any of the following information. As an example of the above information, sound piece information obtained by extracting a part of the voice uttered by the speaker 2, frequency spectrum information included in the voice uttered by the speaker 2, text information extracted from the voice uttered by the speaker 2, The word information extracted from the voice uttered by the speaker 2, the information extracted as the utterance content uttered by the speaker 2, the information associated with the above information, and the like. For the process of generating the above information from the voice uttered by the speaker 2, a known voice signal process or a process combining a plurality of known voice signal processes can be applied.
For example, the information generation unit 1110 generates the first information based on the utterance content of the utterer 2 extracted from the speech uttered by the plurality of utterers 2, and at least any utterance of the plurality of utterers 2. Second information is generated based on the utterance content of any speaker 2 extracted from the voice uttered by the person 2. In the following description of the present embodiment, processing based on information based on the utterance content of the speaker 2 extracted from the speech uttered by the speaker 2 will be mainly described.

また、情報生成部1110は、発話者2の状態を検出し、状態が検出された発話者2が発した音声に対応付けられる第2情報を生成する。
例えば、情報生成部1110が検出する発話者2の状態には、発話者2の姿勢、顔が向けられている方向、顔の表情、発言頻度、声の大きさ(音声の信号強度)、声の質、声の調子、発話者2の位置などが上げられる。情報生成部1110は、上記の発話者2の状態を判定した判定結果に基づいて、処理の対象とされる特定の発話者2を、複数の発話者2のうちから特定する。
Moreover, the information generation part 1110 detects the state of the speaker 2, and produces | generates the 2nd information matched with the audio | voice which the speaker 2 from whom the state was detected.
For example, the state of the speaker 2 detected by the information generation unit 1110 includes the posture of the speaker 2, the direction in which the face is directed, the facial expression, the frequency of speech, the volume of the voice (speech signal strength), the voice Quality, tone of voice, position of speaker 2, etc. The information generation unit 1110 identifies a specific speaker 2 to be processed from among the plurality of speakers 2 based on the determination result of determining the state of the speaker 2.

本実施形態の以下の説明においては、例えば、情報生成部1110は、発話者2の位置を検出することにより発話者2を識別し、識別された発話者2が発した音声に対応付けられる第2情報を生成するものとする。
上記の処理における発話者2の位置を検出する処理は、複数の収音部101によって集音された音声の信号強度、位相差に基づいて検出する既知の音声信号処理を適用することができる。
In the following description of the present embodiment, for example, the information generation unit 1110 identifies the speaker 2 by detecting the position of the speaker 2, and is associated with the voice uttered by the identified speaker 2. 2 Information shall be generated.
For the process of detecting the position of the speaker 2 in the above process, known voice signal processing that is detected based on the signal intensity and phase difference of the voice collected by the plurality of sound collection units 101 can be applied.

また、さらに、情報生成部1110は、第2画面を見ている発話者2を識別し、識別された発話者2が発した音声に対応付けられる第2情報を生成してもよい。   Further, the information generation unit 1110 may identify the speaker 2 who is looking at the second screen, and generate second information associated with the voice uttered by the identified speaker 2.

また、さらに、情報生成部1110は、第2画面を見ていると識別された発話者2が発した音声の音声情報から、発話者2が発言した発言内容と識別された情報(例えば、テキスト情報)から抽出された第2情報(例えば、単語情報)を生成する。   In addition, the information generation unit 1110 further includes information (for example, text) identified from the speech content of the utterer 2 from the voice information of the speech uttered by the utterer 2 identified as viewing the second screen. Second information (for example, word information) extracted from (information) is generated.

また、情報生成部1110は、発話者2の状態に応じて第2情報を生成する。例えば、情報生成部1110は、発話者2の状態を、検出された発話者2の姿勢により識別してもよい。或は、情報生成部1110は、発話者2の状態を、検出された発話者2の発言頻度(積極性)により識別してもよい。   Further, the information generation unit 1110 generates second information according to the state of the speaker 2. For example, the information generation unit 1110 may identify the state of the speaker 2 based on the detected posture of the speaker 2. Alternatively, the information generation unit 1110 may identify the state of the speaker 2 by the detected speech frequency (aggressiveness) of the speaker 2.

さらに、情報生成部1110は、第1検索情報を検索する検索条件になる第1情報と、第2検索情報を検索する検索条件になる第2情報とが互いに異なるように、第1情報と第2情報とを生成する。
このような情報生成部1110は、生成した第1情報と第2情報とを検索手段11に送り、第1情報と第2情報とに基づいて検索手段11における検索を実行させる。
Furthermore, the information generation unit 1110 includes the first information and the first information so that the first information serving as a search condition for searching for the first search information is different from the second information serving as a search condition for searching for the second search information. 2 information is generated.
Such an information generation unit 1110 sends the generated first information and second information to the search means 11 and causes the search means 11 to execute a search based on the first information and the second information.

結果出力処理部1120は、第1情報に基づいて検索された第1の検索結果を検索手段11から得る。
また、結果出力処理部1120は、第2情報に基づいて検索された第2の検索結果を検索手段11から得る。なお、結果出力処理部1120は、第1情報に基づいて検索された第1の検索結果のうちから、第2情報に基づいて選択して第2の検索結果を得てもよい。
The result output processing unit 1120 obtains the first search result searched based on the first information from the search unit 11.
Further, the result output processing unit 1120 obtains the second search result searched based on the second information from the search unit 11. Note that the result output processing unit 1120 may obtain the second search result by selecting the first search result searched based on the first information based on the second information.

このような結果出力処理部1120は、複数の発話者2が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を出力する。また、結果出力処理部1120は、上記のように第1検索情報を出力するとともに、少なくとも複数の発話者2のうちの何れかの発話者2が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報を出力する。ここで、例えば、第1検索情報は、表示部200に表示させる情報であり、第2検索情報は、ディスプレイ300に表示させる情報である。第1検索情報と第2検索情報のそれぞれは、表示部200とディスプレイ300とに表示させる画像情報に含まれる情報として結果出力処理部1120から出力される。第1検索情報と第2検索情報のそれぞれは、テキスト情報、図形情報、画像情報、及び、それぞれを組み合わせ情報の何れでもよい。   The result output processing unit 1120 outputs the first search information corresponding to the first search result searched based on the first information associated with the voices uttered by the plurality of speakers 2. In addition, the result output processing unit 1120 outputs the first search information as described above, and based on the second information associated with the voice uttered by any one of the plurality of speakers 2. The second search information corresponding to the second search result searched is output. Here, for example, the first search information is information to be displayed on the display unit 200, and the second search information is information to be displayed on the display 300. Each of the first search information and the second search information is output from the result output processing unit 1120 as information included in image information to be displayed on the display unit 200 and the display 300. Each of the first search information and the second search information may be any of text information, graphic information, image information, and combination information thereof.

また、結果出力処理部1120は、複数の画面に表示させる情報として、第1画面に表示させる第1検索情報及び第2画面に表示させる第2検索情報を出力する。例えば、第1検索情報は、表示部200に表示させる第1画面に含まれる情報である。より具体的には。第1検索情報は、例えば、以下に記す情報のうち何れかの情報から検索された検索結果に基づいた情報である。第1検索情報を得る検索を行うための情報の一例として、発話者2が発した音声の一部を抽出した音片情報、発話者2が発した音声に含まれる周波数スペクトル情報、発話者2が発した音声から抽出したテキスト情報、発話者2が発した音声から抽出した単語情報、発話者2が発言した発言内容として抽出された情報、及び、上記の情報に対応づけられる情報などがあげられる。また、例えば、第2検索情報は、ディスプレイ300に表示させる第2画面に含まれる情報である。   Further, the result output processing unit 1120 outputs first search information to be displayed on the first screen and second search information to be displayed on the second screen as information to be displayed on the plurality of screens. For example, the first search information is information included in the first screen displayed on the display unit 200. More specifically: The first search information is, for example, information based on a search result searched from any of the information described below. As an example of information for performing the search for obtaining the first search information, sound piece information obtained by extracting a part of the voice uttered by the speaker 2, frequency spectrum information included in the voice uttered by the speaker 2, the speaker 2 Text information extracted from the speech uttered by the speaker, word information extracted from the speech uttered by the speaker 2, information extracted as the content of the speech uttered by the speaker 2, and information associated with the above information It is done. For example, the second search information is information included in the second screen displayed on the display 300.

また、結果出力処理部1120は、情報生成部1110が発話者2の状態を検出し、状態が検出された発話者2が発した音声に対応付けられる第2情報を生成した場合に、状態が検出された発話者2が発した音声に対応付けられる第2情報に基づいた第2検索情報を得る。或は、結果出力処理部1120は、情報生成部1110が発話者2の位置を検出することにより発話者2を識別し、識別された発話者2が発した音声に対応付けられる第2情報を生成した場合に、識別された発話者2が発した音声に対応付けられる第2情報に基づいた第2検索情報を得る。
また、結果出力処理部1120は、情報生成部1110が第2画面を見ている発話者2を識別し、識別された発話者2が発した音声に対応付けられる第2情報を生成した場合に、識別された発話者2が発した音声に対応付けられる第2情報に基づいた第2検索情報を得る。
The result output processing unit 1120 also detects the state when the information generation unit 1110 detects the state of the speaker 2 and generates second information associated with the voice uttered by the speaker 2 whose state is detected. Second search information based on the second information associated with the voice uttered by the detected speaker 2 is obtained. Alternatively, the result output processing unit 1120 identifies the speaker 2 by the information generating unit 1110 detecting the position of the speaker 2 and outputs the second information associated with the voice uttered by the identified speaker 2. When generated, second search information based on the second information associated with the voice uttered by the identified speaker 2 is obtained.
In addition, when the information generation unit 1110 identifies the speaker 2 who is looking at the second screen, and the result output processing unit 1120 generates the second information associated with the voice uttered by the identified speaker 2 The second search information is obtained based on the second information associated with the voice uttered by the identified speaker 2.

また、結果出力処理部1120は、第2の検索結果のうちから選択する第2検索情報を、発話者2の状態に応じて選択する。また、結果出力処理部1120は、第1検索情報を得られた順に出力し、第2検索情報を出力する優先度に応じた順に出力する。   Further, the result output processing unit 1120 selects the second search information to be selected from the second search results according to the state of the speaker 2. In addition, the result output processing unit 1120 outputs the first search information in the order in which it is obtained, and outputs the second search information in the order according to the priority of output.

次に、表示制御装置1100における処理の一実施態様について説明する。   Next, an embodiment of processing in the display control apparatus 1100 will be described.

(手順1)情報生成部1110は、複数の発話者2が発した音声を検出し、検出した音声に対応付けられる情報を生成する。 (Procedure 1) The information generation part 1110 detects the voice which the some speaker 2 uttered, and produces | generates the information matched with the detected voice.

(手順2)情報生成部1110は、上記手順1において生成された情報、すなわち複数の前記発話者が発した音声に対応付けられる第1情報に基づいて、検索手段11に検索させる。例えば、情報生成部1110は、発話者2が発言した発言内容として抽出された情報(キーワード)を第1情報とする。 (Procedure 2) The information generation part 1110 makes the search means 11 search based on the information produced | generated in the said procedure 1, ie, the 1st information matched with the audio | voice which the said several speaker uttered. For example, the information generation unit 1110 uses, as the first information, information (keywords) extracted as the utterance content uttered by the speaker 2.

(手順3)結果出力処理部1120は、複数の前記発話者が発した音声に対応付けられる第1情報に基づいて、検索手段11によって検索された第1の検索結果を得る。例えば、結果出力処理部1120は、発話者2が発言した発言内容に含まれる情報(キーワード)に基づいた検索により、第1の検索結果を得る。 (Procedure 3) The result output processing unit 1120 obtains the first search result searched by the search unit 11 based on the first information associated with the voices uttered by the plurality of speakers. For example, the result output processing unit 1120 obtains the first search result by a search based on information (keywords) included in the utterance content uttered by the speaker 2.

(手順4)結果出力処理部1120は、第1の検索結果に応じた第1検索情報を生成し、生成した第1検索情報を表示部200に出力する。例えば、結果出力処理部1120は、第1の検索結果として得た情報を示す画像情報(第1検索情報)を生成し、生成した画像情報を表示部200に出力する。 (Procedure 4) The result output processing unit 1120 generates first search information corresponding to the first search result, and outputs the generated first search information to the display unit 200. For example, the result output processing unit 1120 generates image information (first search information) indicating information obtained as the first search result, and outputs the generated image information to the display unit 200.

(手順5)結果出力処理部1120は、少なくとも複数の発話者2のうちの何れかの発話者2が発した音声に対応付けられる第2情報に基づいて、検索手段11によって検索された第2の検索結果を得る。例えば、例えば、情報生成部1110は、少なくとも複数の発話者2のうちの何れかの発話者2(特定の発話者2)が発言した発言内容として抽出された情報(キーワード)を第2情報とする。結果出力処理部1120は、特定の発話者2が発言した発言内容に含まれる情報(キーワード)に基づいて検索された第2の検索結果を得る。 (Procedure 5) The result output processing unit 1120 uses the second information retrieved by the retrieval unit 11 based on the second information associated with the voice uttered by any one of the plurality of speakers 2. Get search results for. For example, for example, the information generation unit 1110 uses, as the second information, information (keywords) extracted as the utterance content uttered by any speaker 2 (specific speaker 2) of at least a plurality of speakers 2. To do. The result output processing unit 1120 obtains a second search result searched based on information (keyword) included in the utterance content uttered by the specific speaker 2.

(手順6)結果出力処理部1120は、第2の検索結果に応じた第2検索情報を生成し、生成した第2検索情報をディスプレイ300に出力する。例えば、結果出力処理部1120は、特定の発話者2が一人の場合、第2の検索結果として得た情報を示す画像情報(第2検索情報)を生成し、生成した画像情報をディスプレイ300に出力する。或は、結果出力処理部1120は、特定の発話者2が複数の場合、第2の検索結果として得た複数の情報に基づいた論理演算処理を行う。そして、結果出力処理部1120は、演算処理の検索結果に基づいた画像情報(第2検索情報)を生成し、生成した画像情報をディスプレイ300に出力する。
例えば、上記の演算処理において、結果出力処理部1120は、複数の検索結果に基づいた論理積(AND)、又は、論理和(OR)による論理演算処理、若しくは、発話者2の重要度に応じた重み付け演算により得られた優先度処理を行う。
(Procedure 6) The result output processing unit 1120 generates second search information corresponding to the second search result, and outputs the generated second search information to the display 300. For example, when the specific speaker 2 is one person, the result output processing unit 1120 generates image information (second search information) indicating information obtained as the second search result, and the generated image information is displayed on the display 300. Output. Alternatively, the result output processing unit 1120 performs a logical operation process based on a plurality of pieces of information obtained as the second search result when there are a plurality of specific speakers 2. Then, the result output processing unit 1120 generates image information (second search information) based on the search result of the arithmetic processing, and outputs the generated image information to the display 300.
For example, in the above arithmetic processing, the result output processing unit 1120 performs logical operation processing based on a logical product (AND) or logical sum (OR) based on a plurality of search results, or according to the importance level of the speaker 2 The priority processing obtained by the weighting calculation is performed.

上記の手順に従って、表示制御処理を行うことにより、表示制御装置1100は、前述の図3に示すように、得られた結果を表示部200とディスプレイ300に表示させることができる。   By performing the display control process according to the above procedure, the display control apparatus 1100 can display the obtained result on the display unit 200 and the display 300 as shown in FIG.

[第2の実施形態]
次に、図5を参照して、表示部200とディスプレイ300の表示を示す。
図5は、2つのディスプレイにおける表示の一例を示す図である。この図5においては、表示部200が設けられた机3の天板面を平面視した状態を示す。
この図5に示す表示部200の表示面において、図3に示した領域ZA、ZB、ZC、ZDに加え、表示部200の表示面の一部の領域を示す領域ZEがさらに設けられている。領域ZEは、机3の天板面を平面視した場合における表示部200の表示面の中央部分に配置される。この領域ZEには、ディスプレイ300に表示した情報「E」が、領域ZEの広さに応じて縮小されて表示されている。
このように、結果出力処理部1120(図4)は、表示部200の表示面に領域ZEが設けられており、表示部200の表示面における領域ZEにも情報「E」を表示させている。これにより、各発話者2は、ディスプレイ300の方向を向かなくても、表示されている情報「E」を確認できるようになる。要するに、仮に図3のように表示した場合、机3に対してディスプレイ300側に位置する発話者2において、発話者2の正面側に机3があり、背面側にディスプレイ300がある。このような、発話者2は、振り向かなければディスプレイ300の表示を確認することができないが、図5のように表示することにより振り向くことなく情報「E」を確認することができるようになる。
[Second Embodiment]
Next, with reference to FIG. 5, the display of the display part 200 and the display 300 is shown.
FIG. 5 is a diagram illustrating an example of display on two displays. In this FIG. 5, the state which planarly viewed the top plate | board surface of the desk 3 with which the display part 200 was provided is shown.
In addition to the areas ZA, ZB, ZC, and ZD shown in FIG. 3, the display surface of the display section 200 shown in FIG. . The region ZE is arranged at the center of the display surface of the display unit 200 when the top surface of the desk 3 is viewed in plan. In this area ZE, the information “E” displayed on the display 300 is reduced and displayed according to the size of the area ZE.
As described above, the result output processing unit 1120 (FIG. 4) is provided with the region ZE on the display surface of the display unit 200 and displays the information “E” also on the region ZE on the display surface of the display unit 200. . Accordingly, each speaker 2 can check the displayed information “E” without facing the direction of the display 300. In short, if the display is as shown in FIG. 3, the speaker 2 located on the display 300 side with respect to the desk 3 has the desk 3 on the front side of the speaker 2 and the display 300 on the back side. Such a speaker 2 cannot confirm the display on the display 300 without turning around, but the information “E” can be confirmed without turning around by displaying as shown in FIG. 5.

[第3の実施形態]
次に、図1から図4を参照して、特定の発話者2が発言した発言内容に応じた情報をディスプレイ300に表示する場合について説明する。
[Third Embodiment]
Next, with reference to FIG. 1 to FIG. 4, a description will be given of a case where information corresponding to the content of a statement made by a specific speaker 2 is displayed on the display 300.

本実施形態においては、前述の(手順1)に代え、(手順1−1)を実施して、(手順2)から(手順6)を実施する。
(手順1−1)情報生成部1110は、複数の発話者2が発した音声を検出し、検出した音声と各発話者との対応付けを行い、検出した音声の信号レベルが大きい発話者2を特定する。情報生成部1110は、検出した音声の信号レベルが大きい発話者2の音声として検出した音声に対応付けられる情報を生成する。
In this embodiment, (procedure 1-1) is performed instead of (procedure 1) described above, and (procedure 2) to (procedure 6) are performed.
(Procedure 1-1) The information generation unit 1110 detects voices uttered by a plurality of speakers 2, associates the detected speech with each speaker, and the speaker 2 having a high signal level of the detected speech. Is identified. The information generation unit 1110 generates information associated with the detected voice as the voice of the speaker 2 having a high signal level of the detected voice.

なお、上記(手順1−1)における音声の信号レベルが大きい発話者2を特定する構成の詳細な説明は後述とする。
なお、情報生成部1110は、上記(手順1−1)における発話者2の特定を発話者2の状態に応じて行うこととしてもよい。発話者2の特定を発話者2の状態に応じて行う場合、発話者2が発した音声の大きさ(信号レベル)に代え、発話者2の姿勢、顔が向けられている方向、声の質、声の調子、発話者2の位置などに基づいて実施してもよい。収音部101の集音特性に指向性があることにより、情報生成部1110は、上記発話者2の状態に応じて行う発話者2の特定を、検出した発話者2が発した音声の大きさ(信号レベル)に基づいて実施することができる。
A detailed description of the configuration for identifying the speaker 2 having a high voice signal level in the above (procedure 1-1) will be described later.
In addition, the information generation part 1110 is good also as specifying the speaker 2 in said (procedure 1-1) according to the state of the speaker 2. FIG. When the speaker 2 is specified according to the state of the speaker 2, the posture of the speaker 2, the direction in which the face is directed, the voice You may implement based on quality, the tone of a voice, the position of the speaker 2, etc. Due to the directivity of the sound collection characteristic of the sound collection unit 101, the information generation unit 1110 determines the speaker 2 specified according to the state of the speaker 2, and the loudness of the sound produced by the detected speaker 2 This can be implemented based on the signal level.

[第4の実施形態]
次に、図1から図4を参照して、特定の発話者2が発言した発言内容に応じた情報をディスプレイ300に表示する場合について説明する。
[Fourth Embodiment]
Next, with reference to FIG. 1 to FIG. 4, a description will be given of a case where information corresponding to the content of a statement made by a specific speaker 2 is displayed on the display 300.

本実施形態においては、前述の(手順1)に代え、(手順1−2)を実施して、(手順2)から(手順6)を実施する。
(手順1−2)情報生成部1110は、複数の発話者2が発した音声を検出し、検出した音声から各発話者の位置を検出する。情報生成部1110は、検出した音声と各発話者との対応付けを行うとともに、検出した各発話者の位置に応じて、発話者2を特定する。情報生成部1110は、特定した発話者2の音声に対応付けられる情報を生成する。
ここで、情報生成部1110は、例えば、ディスプレイ300に近い位置において発言している発話者2を特定する。これにより、情報生成部1110は、ディスプレイ300に表示されている情報を参照して、発言している発話者2として特定することができる。
なお、上記(手順1−2)における音声から各発話者の位置を特定する構成の詳細な説明は後述とする。
In this embodiment, (procedure 1-2) is performed instead of (procedure 1) described above, and (procedure 2) to (procedure 6) are performed.
(Procedure 1-2) The information generation part 1110 detects the voice which the some speaker 2 uttered, and detects the position of each speaker from the detected voice. The information generation unit 1110 associates the detected voice with each speaker and identifies the speaker 2 according to the detected position of each speaker. The information generation unit 1110 generates information associated with the voice of the specified speaker 2.
Here, the information generation unit 1110 identifies the speaker 2 who is speaking at a position close to the display 300, for example. Thereby, the information generation part 1110 can identify the speaker 2 who is speaking with reference to the information displayed on the display 300.
A detailed description of the configuration for identifying the position of each speaker from the voice in (Procedure 1-2) will be described later.

[第5の実施形態]
次に、図1から図4を参照して、特定の発話者2が発言した発言内容に応じた情報をディスプレイ300に表示する場合について説明する。
[Fifth Embodiment]
Next, with reference to FIG. 1 to FIG. 4, a description will be given of a case where information corresponding to the content of a statement made by a specific speaker 2 is displayed on the display 300.

本実施形態においては、前述の(手順1)に代え、(手順1−3)を実施して、(手順2)から(手順6)を実施する。
(手順1−3)情報生成部1110は、複数の発話者2が発した音声を検出し、検出した音声から各発話者2の発言頻度を検出し、検出した発言頻度情報を記憶領域に記憶させる。情報生成部1110は、検出した音声と各発話者との対応付けを行うとともに、検出した各発話者2の発言頻度情報に応じて、発言頻度の多い発話者2を特定する。情報生成部1110は、特定した発話者2の音声に対応付けられる情報を生成する。
ここで、情報生成部1110は、例えば、発言頻度情報に応じて発話者2の発言量を検出することにより、積極的に発言している発話者2を特定することができる。
なお、上記(手順1−3)における音声から、発言頻度の多い発話者を特定する構成の詳細な説明は後述とする。
In this embodiment, (procedure 1-3) is performed instead of (procedure 1) described above, and (procedure 2) to (procedure 6) are performed.
(Procedure 1-3) The information generation unit 1110 detects voices uttered by a plurality of speakers 2, detects the speech frequency of each speaker 2 from the detected speech, and stores the detected speech frequency information in a storage area. Let me. The information generation unit 1110 associates the detected speech with each speaker, and identifies the speaker 2 having a high speech frequency according to the speech frequency information of each detected speaker 2. The information generation unit 1110 generates information associated with the voice of the specified speaker 2.
Here, the information generation part 1110 can identify the speaker 2 who is actively speaking, for example, by detecting the amount of speech of the speaker 2 according to the speech frequency information.
A detailed description of the configuration for identifying a speaker with a high speech frequency from the voice in (Procedure 1-3) will be described later.

[第6の実施形態]
次に、図1から図4を参照して、特定の発話者2が発言した発言内容に応じた情報をディスプレイ300に表示する場合について説明する。
[Sixth Embodiment]
Next, with reference to FIG. 1 to FIG. 4, a description will be given of a case where information corresponding to the content of a statement made by a specific speaker 2 is displayed on the display 300.

本実施形態においては、前述の(手順1)から(手順5)に続き、次に示す(手順6−1)を実施する。
(手順6−1)結果出力処理部1120は、第2の検索結果に応じた第2検索情報を生成し、生成した第2検索情報をディスプレイ300に出力する。例えば、結果出力処理部1120は、一人の発言中の発話者2(特定の発話者2)を特定できた場合、第2の検索結果として得た情報を示す画像情報(第2検索情報)を生成し、生成した画像情報をディスプレイ300に出力する。或は、結果出力処理部1120は、複数の発言中の発話者2(特定の発話者2)を特定した場合、第2の検索結果として得た複数の情報に基づいた論理演算処理を行う。そして、結果出力処理部1120は、演算処理の検索結果に基づいた画像情報(第2検索情報)を生成し、生成した画像情報をディスプレイ300に出力する。
例えば、上記の演算処理において、結果出力処理部1120は、複数の検索結果に基づいた論理積(AND)、又は、論理和(OR)による論理演算処理、若しくは、発話者2の重要度に応じた重み付け演算により得られた優先度処理を行う。
In the present embodiment, following (Procedure 1) to (Procedure 5), the following (Procedure 6-1) is performed.
(Procedure 6-1) The result output processing unit 1120 generates second search information corresponding to the second search result, and outputs the generated second search information to the display 300. For example, when the speaker 2 (specific speaker 2) in one utterance can be specified, the result output processing unit 1120 uses image information (second search information) indicating information obtained as the second search result. The generated image information is output to the display 300. Alternatively, the result output processing unit 1120 performs a logical operation process based on a plurality of pieces of information obtained as the second search result when a plurality of speaking speakers 2 (specific speakers 2) are specified. Then, the result output processing unit 1120 generates image information (second search information) based on the search result of the arithmetic processing, and outputs the generated image information to the display 300.
For example, in the above arithmetic processing, the result output processing unit 1120 performs logical operation processing based on a logical product (AND) or logical sum (OR) based on a plurality of search results, or according to the importance level of the speaker 2 The priority processing obtained by the weighting calculation is performed.

上記の手順に従って、表示制御処理を行うことにより、表示制御装置1100は、前述の図3に示すように、得られた結果を表示部200とディスプレイ300に表示させることができる。
また、本実施形態において、結果出力処理部1120は、複数の検索結果に基づいた論理積(AND)による論理演算処理を行うことにより、複数の発話者2のうち、同じ発言内容を発言している発話者2が存在していることを検出できる。これにより、検索結果が所望の結果が得られていると判定することができる。
さらに、結果出力処理部1120は、異なる検索結果が得られた場合、同じ発言内容を発言していると判定できる人数を検出することにより、その人数が多いほど同じ発言内容の話題を話していると推定した確度が高いと判定することができる。このような場合、結果出力処理部1120は、同じ発言内容を発言していると判定した人数が多い発言内容に応じた検索結果に応じて第2検索情報を生成する。これにより、結果出力処理部1120は、同じ発言内容を発言していると判定した人数が多い発言内容をディスプレイ300に表示させることができる。
By performing the display control process according to the above procedure, the display control apparatus 1100 can display the obtained result on the display unit 200 and the display 300 as shown in FIG.
Moreover, in this embodiment, the result output process part 1120 utters the same statement content among the some speaker 2 by performing the logical operation process by the AND (AND) based on several search results. It can be detected that a certain speaker 2 is present. Thereby, it can be determined that a desired result is obtained as a search result.
Furthermore, when different search results are obtained, the result output processing unit 1120 detects the number of people who can determine that the same statement content is being spoken, so that the larger the number, the more the topic of the same statement content is spoken. It can be determined that the estimated accuracy is high. In such a case, the result output processing unit 1120 generates the second search information according to the search result corresponding to the utterance content with a large number of persons who are determined to utter the same utterance content. As a result, the result output processing unit 1120 can cause the display 300 to display the message content with a large number of people who have determined that the same message content is being spoken.

なお、上記(手順6−1)における、特定の発話者2が発言した発言内容を特定する構成の詳細な説明は後述とする。   In addition, the detailed description of the structure which specifies the content of the speech which the specific speaker 2 said in the said (procedure 6-1) is mentioned later.

[第7の実施形態]
次に、図6を参照して、本発明の第7の実施形態を説明する。
図6は、本実施形態における表示制御装置を備える表示システムの概要を示す図である。
この図6に示される表示システム1000Bは、表示制御装置1100B(不図示)を備えている。特に明示しない場合は、上記説明における表示システム1000を表示システム1000Bに、表示制御装置1100を表示制御装置1100Bに読み替える。
表示システム1000Bは、撮像部150を備える。撮像部150は、表示システム1000Bの表示部200に設けられている。この図に示される撮像部150は、一人の発話者2用に設けられている部分のみを示している。
撮像部150は、撮像素子を含む撮像装置を複数備えており、発話者2の状態を検出するための画像をそれぞれ出力する。本実施形態の撮像部150には、例えば、撮像部150A、撮像部150B、撮像部150C、撮像部150Dの4つの撮像部150が含まれており、それぞれ、撮像方向が各発話者2の方向に向けて設けられている。ここで、撮像部150Aは、例えば、方向DR1(図1)の逆方向を撮像する。同様に、撮像部150Bは、例えば、方向DR2(図1)の逆方向を撮像し、撮像部150Cは、例えば、方向DR3(図1)の逆方向を撮像し、撮像部150Dは、例えば、方向DR4(図1)の逆方向を撮像する。
[Seventh Embodiment]
Next, a seventh embodiment of the present invention will be described with reference to FIG.
FIG. 6 is a diagram illustrating an overview of a display system including the display control device according to the present embodiment.
The display system 1000B shown in FIG. 6 includes a display control device 1100B (not shown). Unless otherwise specified, the display system 1000 in the above description is replaced with the display system 1000B, and the display control device 1100 is replaced with the display control device 1100B.
The display system 1000B includes an imaging unit 150. The imaging unit 150 is provided in the display unit 200 of the display system 1000B. The imaging unit 150 shown in this figure shows only a portion provided for one speaker 2.
The imaging unit 150 includes a plurality of imaging devices including an imaging element, and outputs images for detecting the state of the speaker 2. The imaging unit 150 of the present embodiment includes four imaging units 150, for example, an imaging unit 150A, an imaging unit 150B, an imaging unit 150C, and an imaging unit 150D, and the imaging direction is the direction of each speaker 2, respectively. It is provided for. Here, the imaging unit 150A images, for example, the direction opposite to the direction DR1 (FIG. 1). Similarly, the imaging unit 150B images, for example, the reverse direction of the direction DR2 (FIG. 1), the imaging unit 150C images, for example, the reverse direction of the direction DR3 (FIG. 1), and the imaging unit 150D, for example, The reverse direction of the direction DR4 (FIG. 1) is imaged.

図7を参照し、表示システム1000Bの構成の詳細について説明する。
図7は、本実施形態における表示システムの構成を示すブロック図である。
この図7には、表示システム1000Bに係る表示制御装置1100B、収音部101、撮像部150、表示部200、ディスプレイ300、検索手段11が示されている。
撮像部150(撮像部150A、撮像部150B、撮像部150C、撮像部150D)は、上述したように、発話者2の状況を撮像する。
表示制御装置1100Bは、撮像部150によって撮像された結果に基づいて、収音部101によって集音された発話者2が発した音声から、発話者2の発言内容に基づいた情報を得て、表示部200とディスプレイ300に表示させる。
Details of the configuration of the display system 1000B will be described with reference to FIG.
FIG. 7 is a block diagram showing the configuration of the display system in the present embodiment.
7 shows a display control apparatus 1100B, a sound collection unit 101, an imaging unit 150, a display unit 200, a display 300, and a search unit 11 according to the display system 1000B.
The imaging unit 150 (imaging unit 150A, imaging unit 150B, imaging unit 150C, imaging unit 150D) images the situation of the speaker 2 as described above.
The display control device 1100B obtains information based on the utterance content of the speaker 2 from the voice uttered by the speaker 2 collected by the sound collection unit 101 based on the result captured by the imaging unit 150. Displayed on the display unit 200 and the display 300.

表示制御装置1100Bは、情報生成部1110Bと、結果出力処理部1120とを備えている。
情報生成部1110Bは、撮像部150から出力される発話者2の状態を検出するための画像に基づいて、発話者2の状態を検出する。情報生成部1110Bによる発話者2の状態は、既知の画像処理方法、又は、既知の画像処理方法の組み合わせにより検出できる。情報生成部1110Bは、撮像部150によって得られた画像に基づいて、発話者2の特定を発話者2の状態に応じて行うこととしてもよい。情報生成部1110Bは、発話者2の特定を発話者2の状態に応じて行う場合、発話者2が発した音声の大きさ(信号レベル)に代え、発話者2の姿勢、顔が向けられている方向、発話者2の位置などに基づいて実施してもよい。撮像部150によって撮像された画像により、情報生成部1110Bは、上記発話者2の状態に応じて発話者2を特定する。
例えば、情報生成部1110Bは、撮像部150によって得られた画像に基づいて、発話者2の姿勢や、発話者2が顔を向けている方向をそれぞれ検出することによって、発話者2が診ている画面を検出する。情報生成部1110Bは、発話者2がうつむき加減で撮像部150の方向を見ている状態であれば、表示部200に表示されている画像を見ていると判定する。また、情報生成部1110Bは、発話者2が撮像部150の方向から視線をそらし、ディスプレイ300に向かう方向に顔を向けている状態であれば、ディスプレイ300に表示されている画像を見ていると判定する。
このように、情報生成部1110Bは、第2画面を見ている発話者2を識別し、識別された発話者2が発した音声に対応付けられる第2情報を生成してもよい。
The display control apparatus 1100B includes an information generation unit 1110B and a result output processing unit 1120.
The information generation unit 1110B detects the state of the speaker 2 based on the image for detecting the state of the speaker 2 output from the imaging unit 150. The state of the speaker 2 by the information generation unit 1110B can be detected by a known image processing method or a combination of known image processing methods. The information generation unit 1110 </ b> B may identify the speaker 2 based on the state of the speaker 2 based on the image obtained by the imaging unit 150. When the information generation unit 1110B specifies the speaker 2 according to the state of the speaker 2, the posture and face of the speaker 2 are directed instead of the loudness (signal level) of the speaker 2 It may be carried out based on the direction of the speaker, the position of the speaker 2, and the like. Based on the image captured by the imaging unit 150, the information generation unit 1110B identifies the speaker 2 according to the state of the speaker 2.
For example, the information generation unit 1110 </ b> B detects the speaker 2 by detecting the posture of the speaker 2 and the direction in which the speaker 2 faces the face based on the image obtained by the imaging unit 150. Detect the screen that is. The information generation unit 1110B determines that the speaker 2 is looking at the image displayed on the display unit 200 if the speaker 2 is looking down and looking at the direction of the imaging unit 150. In addition, the information generation unit 1110B looks at the image displayed on the display 300 if the speaker 2 turns away from the direction of the imaging unit 150 and faces in the direction toward the display 300. Is determined.
As described above, the information generation unit 1110B may identify the speaker 2 who is looking at the second screen, and generate the second information associated with the voice uttered by the identified speaker 2.

また、さらに、情報生成部1110Bは、第2画面を見ていると識別された発話者2が発した音声の音声情報から、発話者2が発言した発言内容と識別された情報(例えば、テキスト情報)から抽出された第2情報(例えば、単語情報)を生成する。   In addition, the information generation unit 1110B further detects information (for example, text) from the voice information of the voice uttered by the speaker 2 identified as viewing the second screen. Second information (for example, word information) extracted from (information) is generated.

また、情報生成部1110Bは、発話者2の状態に応じて第2情報を生成する。例えば、情報生成部1110Bは、発話者2の状態を、検出された発話者2の姿勢により識別してもよい。   In addition, the information generation unit 1110B generates second information according to the state of the speaker 2. For example, the information generation unit 1110B may identify the state of the speaker 2 based on the detected posture of the speaker 2.

本実施形態においては、前述の(手順1)に代え、(手順1−4)を実施して、(手順2)から(手順6)を実施する。
(手順1−4)情報生成部1110Bは、複数の発話者2が発した音声を検出し、検出した音声と各発話者との対応付けを行う。また、情報生成部1110Bは、複数の発話者2の状態(姿勢)を検出し、検出した発話者2の状態(姿勢)に応じて発話者2を特定する。例えば、情報生成部1110Bは、検出した発話者2の状態(姿勢)から、ディスプレイ300を見ている発話者2を特定し、特定した発話者2の音声として検出した音声に対応付けられる情報を生成する。
In the present embodiment, (procedure 1-4) is performed instead of (procedure 1) described above, and (procedure 2) to (procedure 6) are performed.
(Procedure 1-4) The information generation unit 1110B detects voices uttered by a plurality of speakers 2, and associates the detected voices with the respective speakers. In addition, the information generation unit 1110B detects the states (postures) of a plurality of speakers 2, and identifies the speaker 2 according to the detected states (postures) of the speakers 2. For example, the information generation unit 1110B specifies the speaker 2 who is looking at the display 300 from the detected state (posture) of the speaker 2, and stores information associated with the detected speech as the voice of the specified speaker 2. Generate.

このように、情報生成部1110Bは、上記(手順1−4)のように発話者2の特定を発話者2の状態に応じて行うことにより、発話者2が発した音声の大きさ(信号レベル)に代え、発話者2の姿勢、顔が向けられている方向、発話者2の位置などに基づいて特定する。   As described above, the information generation unit 1110B specifies the speaker 2 according to the state of the speaker 2 as described above (procedure 1-4), and thereby the size (signal) of the speaker 2 uttered. Instead of the level), it is specified based on the posture of the speaker 2, the direction in which the face is directed, the position of the speaker 2, and the like.

[第8の実施形態]
次に、図8を参照して、本発明の第8の実施形態を説明する。
図8は、本実施形態における表示制御装置を備える表示システムの概要を示す図である。
この図8に示される表示システム1000Cは、表示制御装置1100Cを備えている。特に明示しない場合は、上記説明における表示システム1000を表示システム1000Cに、表示制御装置1100を表示制御装置1100Cに読み替える。
表示システム1000Cは、複数の表示部200を設けた構成とする。
表示制御装置1100Cには、収音部101、複数の表示部200及びディスプレイ300が接続されている。表示制御装置1100Cは、何れかの表示部200に表示させた表示内容をディスプレイ300に表示させる。表示制御装置1100Cは、複数の表示部200のそれぞれに、最寄の発話者2の発言に応じた情報を表示させる。それぞれの表示部200に表示させる表示内容は、表示部200の表示面において、最寄の発話者2に近い方の領域に表示させる情報と、当該発話者2から離れた方の領域に表示させる情報を異なるものとしてもよい。
例えば、表示制御装置1100Cは、複数の表示部200のそれぞれに、最寄の発話者2の発言に応じた情報を表示させる。それぞれの表示部200に表示する表示内容は、表示部200の表示面において、最寄の発話者2に近い方の領域に表示する。
図9は、本実施形態における複数の表示部を設けた表示システムの概要を示す図である。
この図9に示される表示システム1000Cは、複数の表示部200に情報を表示する表示制御装置1100を備えている。複数の表示部200に表示する情報は、前述の表示部200に表示する情報と同様である。
[Eighth Embodiment]
Next, an eighth embodiment of the present invention will be described with reference to FIG.
FIG. 8 is a diagram illustrating an overview of a display system including the display control device according to the present embodiment.
The display system 1000C shown in FIG. 8 includes a display control device 1100C. Unless otherwise specified, the display system 1000 in the above description is replaced with the display system 1000C, and the display control device 1100 is replaced with the display control device 1100C.
The display system 1000C is configured to include a plurality of display units 200.
A sound collection unit 101, a plurality of display units 200, and a display 300 are connected to the display control device 1100C. The display control device 1100C causes the display 300 to display the display content displayed on any of the display units 200. The display control device 1100C displays information corresponding to the utterance of the nearest speaker 2 on each of the plurality of display units 200. The display contents to be displayed on each display unit 200 are displayed on the display surface of the display unit 200 in information displayed in an area closer to the nearest speaker 2 and in an area away from the speaker 2. The information may be different.
For example, the display control apparatus 1100C displays information corresponding to the utterance of the nearest speaker 2 on each of the plurality of display units 200. The display content displayed on each display unit 200 is displayed in a region closer to the nearest speaker 2 on the display surface of the display unit 200.
FIG. 9 is a diagram showing an overview of a display system provided with a plurality of display units in the present embodiment.
The display system 1000 </ b> C illustrated in FIG. 9 includes a display control device 1100 that displays information on a plurality of display units 200. The information displayed on the plurality of display units 200 is the same as the information displayed on the display unit 200 described above.

[第9の実施形態]
次に、図10を参照して、表示部200と異なる形状の表示部200Aについて示す。
図10は、本実施形態における表示部を設けた表示システムの概要を示す図である。
この図10に示される表示システム1000Dは、表示制御装置1100を備えている。
表示システム1000Dは、表示部200Aを設けた構成とする。特に明示しない場合は、上記説明における表示部200を表示部200Aに読み替える。
表示制御装置1100Dには、収音部101、表示部200A及びディスプレイ300が接続されている。
表示部200Aは、平面の表示面を有している。例えば、表示部200Aには、LCDなどのフラットパネル型の表示装置を適用できる。
[Ninth Embodiment]
Next, a display unit 200A having a shape different from that of the display unit 200 will be described with reference to FIG.
FIG. 10 is a diagram showing an overview of a display system provided with a display unit in the present embodiment.
The display system 1000D shown in FIG. 10 includes a display control device 1100.
The display system 1000D is configured to include a display unit 200A. Unless otherwise specified, the display unit 200 in the above description is replaced with the display unit 200A.
The sound collection unit 101, the display unit 200A, and the display 300 are connected to the display control device 1100D.
The display unit 200A has a flat display surface. For example, a flat panel display device such as an LCD can be applied to the display unit 200A.

次に、第10の実施形態から第11の実施形態までにおいて、本発明の一実施形態である情報表示システム(会議システム)について説明する。以下の説明において、発話者を特定する処理の詳細を説明する。   Next, in the tenth embodiment to the eleventh embodiment, an information display system (conference system) which is an embodiment of the present invention will be described. In the following description, details of the process for identifying the speaker will be described.

[第10の実施形態]
以下、図面を参照して、本発明の一実施態様として適用する音声信号処理について、会議システムに適用した場合を例示して説明する。
図11は、本実施形態における検索手段制御装置1101を備える会議システム1の概要を示す図である。
会議システム1は、検索手段制御装置1101を備えている。
検索手段制御装置1101は、収音部101を備えている。また、検索手段制御装置1101は、収音部101及び表示部200Aとともに、例えば、机3に備えられている。また、検索手段制御装置1101は、ネットワーク15を介して検索手段11に接続されている。
検索手段11は、入力された文字情報に関連する情報を検索する。本実施形態の検索手段11は、例えば、インターネットやLANなどのネットワーク15を介して入力された文字情報に関連する情報を検索する検索エンジンである。また、検索手段11は、入力された文字情報に関連する情報を検索した結果を検索結果としてネットワーク15を介して検索手段制御装置1101に出力する。
[Tenth embodiment]
Hereinafter, with reference to the drawings, audio signal processing applied as one embodiment of the present invention will be described by exemplifying a case where it is applied to a conference system.
FIG. 11 is a diagram illustrating an outline of the conference system 1 including the search unit control device 1101 according to the present embodiment.
The conference system 1 includes a search means control device 1101.
The search means control device 1101 includes a sound collection unit 101. Further, the search means control device 1101 is provided on the desk 3, for example, together with the sound collection unit 101 and the display unit 200A. The search means control device 1101 is connected to the search means 11 via the network 15.
The search means 11 searches for information related to the input character information. The search means 11 of this embodiment is a search engine that searches for information related to character information input via a network 15 such as the Internet or a LAN. Further, the search means 11 outputs the search result of information related to the input character information to the search means control device 1101 via the network 15 as a search result.

表示部200Aは、入力された画像情報に応じた画像を表示する。本実施形態の表示部200Aは、表示されている画像が机3の周囲にいる人(発話者)から視認されるように、例えば、机3の天板面に埋め込まれている。
収音部101は、例えば、音声を収音するマイクロフォンを備えており、複数の発話者2によって発せられた音声を収音する。本実施形態の収音部101には、例えば、収音部101A、収音部101B、収音部101C、収音部101Dの4つの収音部101が含まれており、それぞれ、発話者2によって発せられた音声を収音する。ここで、収音部101Aは、例えば、方向DR1に発せられた音声を収音する。同様に、収音部101Bは、例えば、方向DR2に発せられた音声を、収音部101Cは、例えば、方向DR3に発せられた音声を、収音部101Dは、例えば、方向DR4に発せられた音声を、それぞれ収音する。例えば、図12に示すように、収音部101は、机3の所定の位置、例えば、収音部101A、101B、101C、101Dに対応する位置に着席している発話者2A、2B、2C、2Dの4人の発話者2によって発せられた音声を収音する。
The display unit 200A displays an image corresponding to the input image information. The display unit 200 </ b> A of the present embodiment is embedded in, for example, the top plate surface of the desk 3 so that the displayed image can be viewed by a person (speaker) around the desk 3.
The sound collection unit 101 includes, for example, a microphone that collects sound, and collects sound emitted by a plurality of speakers 2. The sound collection unit 101 of the present embodiment includes, for example, four sound collection units 101, a sound collection unit 101A, a sound collection unit 101B, a sound collection unit 101C, and a sound collection unit 101D. The sound emitted by is picked up. Here, the sound collection unit 101A collects sound emitted in the direction DR1, for example. Similarly, the sound collection unit 101B emits, for example, a sound emitted in the direction DR2, the sound collection unit 101C, for example, a sound emitted in the direction DR3, and the sound collection unit 101D, for example, emits a sound in the direction DR4. Pick up each voice. For example, as shown in FIG. 12, the sound collection unit 101 is a speaker 2A, 2B, 2C seated at a predetermined position of the desk 3, for example, a position corresponding to the sound collection units 101A, 101B, 101C, 101D. The voice uttered by four 2D speakers 2 is collected.

図12は、発話者2に利用されている会議システム1の構成を示す構成図である。
この場合において、収音部101Aは、主に発話者2Aによって発せられた音声を収音する。同様に、収音部101Bは、主に発話者2Bによって、収音部101Cは、主に発話者2Cによって、収音部101Dは、主に発話者2Dによって、それぞれ発せられた音声を収音する。ここで、例えば、会議システム1は、収音部101A、101B、101C、101Dのうちの、いずれの収音部101に音声が収音されたかを検出することによって、いずれの発話者2によって音声が発せられたのかを判定することができる。
また、この場合において、表示部200Aは、発話者2A、2B、2C、2Dに表示した画像が視認されるように、発話者2A、2B、2C、2Dに対して画像を表示している。
FIG. 12 is a configuration diagram showing the configuration of the conference system 1 used by the speaker 2.
In this case, the sound collection unit 101A collects the sound mainly emitted by the speaker 2A. Similarly, the sound collecting unit 101B collects the sounds emitted mainly by the speaker 2B, the sound collecting unit 101C mainly by the speaker 2C, and the sound collecting unit 101D mainly collects the sounds emitted by the speaker 2D. To do. Here, for example, the conference system 1 detects which speaker 2 has collected the sound by detecting which sound collecting unit 101 out of the sound collecting units 101A, 101B, 101C, and 101D. Can be determined.
In this case, the display unit 200A displays images to the speakers 2A, 2B, 2C, and 2D so that the images displayed on the speakers 2A, 2B, 2C, and 2D are visually recognized.

次に、図13を参照して、会議システム1の構成の詳細について説明する。
図13は、本実施形態の会議システム1の構成を示すブロック図である。
本実施形態の検索手段制御装置1101は、収音部101と、生成部102と、変換部103と、識別部104と、記憶部105と、選択部106と、出力部107と、結果選択部108と、設定部109と、結果出力部110とを備えている。
Next, the details of the configuration of the conference system 1 will be described with reference to FIG.
FIG. 13 is a block diagram showing a configuration of the conference system 1 of the present embodiment.
The search means control device 1101 of this embodiment includes a sound collection unit 101, a generation unit 102, a conversion unit 103, an identification unit 104, a storage unit 105, a selection unit 106, an output unit 107, and a result selection unit. 108, a setting unit 109, and a result output unit 110.

収音部101(収音部101A、収音部101B、収音部101C、収音部101D)は、上述したように、複数の発話者2によって発せられた音声を収音する。   As described above, the sound collection unit 101 (the sound collection unit 101A, the sound collection unit 101B, the sound collection unit 101C, and the sound collection unit 101D) collects sounds emitted by the plurality of speakers 2.

生成部102は、音声情報に基づいて音声が発せられた方向の情報を生成する。ここで、音声が発生られた方向とは、例えば、上述したように、図11の方向DR1〜DR4によって示される方向である。本実施形態の生成部102は、例えば、複数の収音部101のうち、いずれの収音部101によって収音された音声であるかを、音声情報に基づいて判定して、音声が発せられた方向の情報を生成する。つまり、生成部102は、収音部101ごとに収音された音声の音量を示す情報に基づいて、音声が発せられた方向の情報を生成する。   The production | generation part 102 produces | generates the information of the direction in which the audio | voice was emitted based on audio | voice information. Here, the direction in which the sound is generated is, for example, the direction indicated by the directions DR1 to DR4 in FIG. 11 as described above. For example, the generation unit 102 according to the present embodiment determines, based on the audio information, which sound collection unit 101 out of the plurality of sound collection units 101, and the sound is emitted. Generate direction information. That is, the generation unit 102 generates information on the direction in which the sound is emitted based on information indicating the volume of the sound collected for each sound collection unit 101.

変換部103は、発話者2によって発せられた音声情報を文字情報に変換する。本実施形態の変換部103は、例えば、入力された音声情報を、既知の音声認識手段によって音声認識して、音声情報を文字情報に変換する。   The conversion unit 103 converts voice information uttered by the speaker 2 into character information. For example, the conversion unit 103 of the present embodiment recognizes the input voice information by a known voice recognition unit, and converts the voice information into character information.

識別部104は、音声情報に基づいて、複数の発話者2のうちから当該音声情報の音声を発した発話者2を識別するとともに、識別した発話者2と当該音声情報を変換した文字情報とを関連付けて出力する。本実施形態の識別部104は、例えば、入力された音声情報を、既知の音声認識手段によって音声認識して、発話者2の音声の特徴を抽出する。そして、識別部104は、抽出した発話者2の音声の特徴ごとに音声情報を識別して、発話者2の人数を判定し、音声情報と関連付けるための情報(例えば、発話者2を識別する固有の識別ID)を、判定した発話者2ごとに付与する。例えば、識別部104は、発話者2Aについて識別IDとして2Aを付与し、発話者2Bについて識別IDとして2Bを付与する。識別部104は、発話者2C、発話者2Dについても同様に識別IDを付与する。そして、識別部104は、発話者2ごとに付与した識別IDを、入力された音声情報ごとに付与する。そして、識別部104は、入力された音声情報に付与した識別IDを、変換部103によって、当該音声情報が変換された文字情報に対して付与する。   Based on the voice information, the identification unit 104 identifies the speaker 2 that uttered the voice of the voice information from among the plurality of speakers 2, and character information obtained by converting the identified speaker 2 and the voice information; Are output in association. For example, the identification unit 104 of the present embodiment recognizes the input voice information by a known voice recognition unit, and extracts the voice characteristics of the speaker 2. The identifying unit 104 identifies voice information for each extracted voice feature of the speaker 2, determines the number of the speaker 2, and identifies information (for example, the speaker 2) to associate with the voice information. A unique identification ID) is assigned to each determined speaker 2. For example, the identification unit 104 assigns 2A as the identification ID for the speaker 2A, and assigns 2B as the identification ID for the speaker 2B. The identification unit 104 similarly assigns identification IDs to the speaker 2C and the speaker 2D. And the identification part 104 assign | provides identification ID provided for every speaker 2 for every input audio | voice information. Then, the identification unit 104 assigns the identification ID assigned to the input voice information to the character information obtained by converting the voice information by the conversion unit 103.

例えば、発話者2Aによって「ライオン」という音声が発せられた場合に、識別部104は、入力された「ライオン」の音声情報が、発話者2Aの音声情報の特徴と一致していると判定した場合には、音声情報としての「ライオン」に発話者2Aの識別IDとしての“2A”を付与する。そして、識別部104は、音声情報としての「ライオン」が、変換部103によって変換された文字情報としての「ライオン」に、識別ID“2A”を付与する。つまり、識別部104は、発話者2Aと、文字情報としての「ライオン」とを関連付けて、当該文字情報を出力する。
このようにして、識別部104は、識別した発話者2と当該音声情報を変換した文字情報とを関連付けて出力する。
For example, when the voice of “Lion” is uttered by the speaker 2A, the identification unit 104 determines that the input voice information of “Lion” matches the characteristics of the voice information of the speaker 2A. In this case, “2A” as the identification ID of the speaker 2A is assigned to “Lion” as voice information. Then, the identification unit 104 gives the identification ID “2A” to “lion” as character information converted by the conversion unit 103 from “lion” as voice information. That is, the identification unit 104 associates the speaker 2A with “lion” as character information, and outputs the character information.
In this way, the identification unit 104 outputs the identified speaker 2 and the character information obtained by converting the voice information in association with each other.

また、識別部104は、識別部104が識別した発話者2ごとに、発話者2が音声を発した頻度を示す頻度情報を生成し、生成した頻度情報と、発話者2とを関連付けて記憶部105に記憶させる。この場合において、記憶部105には、識別部104が識別した発話者2ごとに、頻度と発話者2とが関連付けられて記憶されている。   Further, the identification unit 104 generates frequency information indicating the frequency at which the speaker 2 utters voice for each speaker 2 identified by the identification unit 104, and stores the generated frequency information and the speaker 2 in association with each other. Store in the unit 105. In this case, the storage unit 105 stores the frequency and the speaker 2 in association with each speaker 2 identified by the identification unit 104.

選択部106は、発話者の重要度に基づいて、文字情報から特定の文字情報を選択する。この発話者の重要度は、様々に設定されることができる。
例えば、発話者の重要度には、音声情報の重要度が含まれており、本実施形態の選択部106は、例えば、変換部103によって変換された文字情報のうちから、音声情報の重要度に基づいて、特定の文字情報を選択する。
The selection unit 106 selects specific character information from the character information based on the importance level of the speaker. The importance level of the speaker can be set variously.
For example, the importance level of the speech information includes the importance level of the voice information, and the selection unit 106 of the present embodiment, for example, selects the importance level of the voice information from the character information converted by the conversion unit 103. Based on, select specific character information.

具体的には、音声情報の重要度は、発話者2によって発せられた音声の音量に基づいて定められ、音声情報には、音量の情報が含まれており、選択部106は、音声情報に含まれている音量の情報に基づいて、文字情報のうちから特定の文字情報を選択する。例えば、この場合において選択部106は、音声情報のうちから、より大きな音量によって発せられた音声情報を選択し、選択した音声情報が変換された文字情報を、特定の文字情報として選択する。   Specifically, the importance of the voice information is determined based on the volume of the voice uttered by the speaker 2, and the voice information includes volume information. Based on the contained volume information, specific character information is selected from the character information. For example, in this case, the selection unit 106 selects voice information emitted at a higher volume from the voice information, and selects character information obtained by converting the selected voice information as specific character information.

また、具体的には、音声情報の重要度は、音声が発せられた方向に基づいて定められ、選択部106は、生成部102によって生成された、音声が発せられた方向の情報に基づいて、文字情報のうちから特定の文字情報を選択する。例えば、選択部106は、机3の方向(例えば、方向DR1〜DR4)のうちの、所定の方向に向かって着席している発話者2によって発せられた音声情報を選択し、選択した音声情報が変換された文字情報を、特定の文字情報として選択する。ここで、所定の方向とは、例えば、発話者2のうちの会議を主導する発話者2によって音声が発せられる方向である。なお、所定の方向は、一方向に限られず、複数の方向であってもよい。また、所定の方向には、単一の発話者2によって音声が発生された方向に限られず、複数の発話者2によって音声が発せられた方向を含んでいてもよい。   Specifically, the importance of the voice information is determined based on the direction in which the voice is emitted, and the selection unit 106 is based on the information on the direction in which the voice is generated, which is generated by the generation unit 102. The specific character information is selected from the character information. For example, the selection unit 106 selects voice information uttered by the speaker 2 seated in a predetermined direction among the directions of the desk 3 (for example, directions DR1 to DR4), and the selected voice information The character information converted from is selected as specific character information. Here, the predetermined direction is, for example, a direction in which voice is emitted by the speaker 2 who leads the conference among the speakers 2. The predetermined direction is not limited to one direction and may be a plurality of directions. Further, the predetermined direction is not limited to the direction in which the voice is generated by the single speaker 2, and may include the direction in which the voice is generated by the plurality of speakers 2.

また、具体的には、音声情報の重要度は、音声が発せられた位置に基づいて定められ、音声情報には、位置の情報が含まれており、選択部106は、音声情報に含まれている位置の情報に基づいて、文字情報のうちから特定の文字情報を選択する。例えば、選択部106は、机3の座席の位置(例えば、収音部101A〜101Dに対応する座席の位置)のうちの、特定の位置に着席している発話者2によって発せられた音声情報を選択し、選択した音声情報が変換された文字情報を、特定の文字情報として選択する。   Specifically, the importance of the voice information is determined based on the position where the voice is emitted, the voice information includes position information, and the selection unit 106 is included in the voice information. Based on the position information, specific character information is selected from the character information. For example, the selection unit 106 includes voice information uttered by the speaker 2 seated at a specific position among the seat positions of the desk 3 (for example, the seat positions corresponding to the sound collection units 101A to 101D). And the character information obtained by converting the selected voice information is selected as the specific character information.

また、例えば、発話者の重要度には、発話者2の重要度が含まれており、本実施形態の選択部106は、例えば、発話者2の重要度に基づいて、発話者2のうちから特定の発話者2を選択するとともに、選択した特定の発話者2に関連付けられている文字情報から特定の文字情報を選択する。つまり、選択部106は、変換部103によって変換された文字情報のうちから、特定の発話者2によって発せられた音声情報が変換された文字情報を、特定の文字情報として選択する。   In addition, for example, the importance level of the speaker includes the importance level of the speaker 2, and the selection unit 106 of the present embodiment, for example, based on the importance level of the speaker 2, The specific speaker 2 is selected, and the specific character information is selected from the character information associated with the selected specific speaker 2. That is, the selection unit 106 selects, as the specific character information, the character information obtained by converting the voice information uttered by the specific speaker 2 from the character information converted by the conversion unit 103.

具体的には、発話者2の重要度は、発話者2が音声を発した頻度に基づいて定められており、選択部106は、記憶部105に記憶されている頻度に基づいて、特定の発話者2を選択する。上述したように、記憶部105には、識別部104が識別した発話者2ごとに、頻度と発話者2とが関連付けられて記憶されている。例えば、本実施形態の選択部106は、記憶部105に発話者2ごと記憶されている発話の頻度に基づいて、発話の頻度が高い発話者2を特定の発話者2として選択し、選択した特定の発話者2に関連付けられている文字情報から特定の文字情報を選択する。   Specifically, the importance level of the speaker 2 is determined based on the frequency at which the speaker 2 uttered voice, and the selection unit 106 selects a specific level based on the frequency stored in the storage unit 105. Speaker 2 is selected. As described above, the storage unit 105 stores the frequency and the speaker 2 in association with each speaker 2 identified by the identification unit 104. For example, the selection unit 106 of the present embodiment selects and selects the speaker 2 having a high utterance frequency as the specific speaker 2 based on the utterance frequency stored for each speaker 2 in the storage unit 105. Specific character information is selected from character information associated with a specific speaker 2.

出力部107は、入力された文字情報に関連する情報を検索する検索手段11に、選択部106によって選択された特定の文字情報を出力する。本実施形態の出力部107は、例えば、ネットワーク15を介して接続されている検索手段11との通信が可能であり、検索手段11に対して、選択部106によって選択された特定の文字情報を送信する。
また、出力部107は、文字情報に、所定の語句が含まれているか否かに基づいて、文字情報を検索手段11に出力するか否かを判定する。ここで、所定の語句は、例えば、「そうだね」や「へー」などの感動詞や、「いつ」や「どこで」などの疑問詞などである。例えば、出力部107は、文字情報に、所定の語句としての「そうだね」が含まれている場合には、文字情報を検索手段11に出力しないと判定する。また、出力部107は、文字情報に、所定の語句が含まれていない場合には、文字情報を検索手段11に出力すると判定する。
The output unit 107 outputs the specific character information selected by the selection unit 106 to the search unit 11 that searches for information related to the input character information. For example, the output unit 107 of the present embodiment can communicate with the search unit 11 connected via the network 15, and the specific character information selected by the selection unit 106 is sent to the search unit 11. Send.
The output unit 107 determines whether or not to output the character information to the search unit 11 based on whether or not the character information includes a predetermined word / phrase. Here, the predetermined phrase is, for example, a moving verb such as “That's right” or “He”, or a questioning word such as “when” or “where”. For example, the output unit 107 determines that the character information is not output to the search unit 11 when the character information includes “sane” as a predetermined word / phrase. Further, the output unit 107 determines to output the character information to the search unit 11 when the character information does not include a predetermined word / phrase.

設定部109は、音声情報に基づいて、特徴量を設定する。本実施形態の設定部109は、例えば、収音部101によって収音された音声情報を取得し、取得した音声情報に含まれる特徴量を示す情報(例えば、声紋)を識別して、発話者2の性別や年齢などの属性を推定する。そして、設定部109は、推定した属性を、結果選択部108が選択に用いる特徴量として設定する。   The setting unit 109 sets a feature amount based on the audio information. The setting unit 109 according to the present embodiment acquires, for example, voice information collected by the sound collection unit 101, identifies information (for example, a voiceprint) indicating a feature amount included in the acquired voice information, and speaks. 2 attributes such as gender and age are estimated. Then, the setting unit 109 sets the estimated attribute as a feature amount used by the result selection unit 108 for selection.

結果選択部108は、特定の発話者2の声の特徴を示す特徴量に基づいて、検索手段11が出力する検索結果を示す情報を選択する。ここで、特定の発話者2の声の特徴を示す特徴量は、例えば、発話者2の性別や年齢などの発話者2の属性を示す特徴量である。また、検索手段11が出力する検索結果を示す情報は、検索手段11に出力された文字情報が、上述したように例えば「ライオン」であれば、動物としてのライオンの写真の画像情報であったり、ライオンを飼育している動物園の名称を示す文字情報であったり、ライオンの生息地域を示す地図の画像情報などである。本実施形態の結果選択部108は、例えば、設定部109によって設定される特徴量(例えば、発話者2の性別や年齢などの属性)に応じて、検索手段11が出力する検索結果を示す情報から、発話者2の属性に合致する情報を選択する。例えば、検索手段11に出力された文字情報が、例えば「ライオン」である場合に、結果選択部108は、推定した発話者2の属性が「子ども」であれば、検索結果を示す情報のうちから、例えば、子ども向けに描かれた「ライオン」のイラストの画像情報を選択する。   The result selection unit 108 selects information indicating the search result output by the search unit 11 based on the feature amount indicating the feature of the voice of the specific speaker 2. Here, the feature amount indicating the voice feature of the specific speaker 2 is, for example, a feature amount indicating attributes of the speaker 2 such as the gender and age of the speaker 2. Further, the information indicating the search result output by the search unit 11 may be image information of a picture of a lion as an animal if the character information output to the search unit 11 is, for example, “lion” as described above. It is text information indicating the name of the zoo that keeps the lion, image information of a map indicating the lion's habitat, and the like. The result selection unit 108 according to the present embodiment is, for example, information indicating the search result output by the search unit 11 according to the feature amount set by the setting unit 109 (for example, attributes such as the gender and age of the speaker 2). From this, information that matches the attribute of the speaker 2 is selected. For example, when the character information output to the search means 11 is “Lion”, for example, the result selection unit 108 determines that the attribute of the estimated speaker 2 is “Child”, among the information indicating the search result. From, for example, image information of an illustration of “lion” drawn for children is selected.

結果出力部110は、結果選択部108によって選択された画像情報を、表示部200Aに出力する。このようにして、会議システム1の検索手段制御装置1101は、検索手段11を制御する。   The result output unit 110 outputs the image information selected by the result selection unit 108 to the display unit 200A. In this way, the search means control device 1101 of the conference system 1 controls the search means 11.

次に、図14を参照して、会議システム1が備える検索手段制御装置1101の動作について説明する。
図14は、本実施形態の会議システム1が備える検索手段制御装置1101の動作を示すフローチャートである。
まず、検索手段制御装置1101の収音部101は、発話者2によって発せられた音声情報を取得(収音)する(ステップS10)。本実施形態の収音部101は、例えば、発話者2Aによって発せられた音声情報を収音部101Aによって収音する。この場合、発話者2Aによって音声が発せられた方向は、図11に示す方向DR1の方向である。つまり、収音部101Aは、発話者2Aによって方向DR1の方向に発せられた音声を収音する。
Next, with reference to FIG. 14, the operation of the search means control device 1101 provided in the conference system 1 will be described.
FIG. 14 is a flowchart showing the operation of the search means control device 1101 provided in the conference system 1 of the present embodiment.
First, the sound collection unit 101 of the search means control device 1101 acquires (sound collection) voice information uttered by the speaker 2 (step S10). The sound collection unit 101 of the present embodiment collects, for example, sound information emitted by the speaker 2A by the sound collection unit 101A. In this case, the direction in which the voice is emitted by the speaker 2A is the direction DR1 shown in FIG. That is, the sound collection unit 101A collects the sound uttered in the direction DR1 by the speaker 2A.

次に、検索手段制御装置1101の変換部103は、発話者2によって発せられた音声情報を文字情報に変換する(ステップS20)。本実施形態の変換部103は、例えば、音声認識によって音声情報を文字情報に変換する。   Next, the conversion part 103 of the search means control apparatus 1101 converts the voice information uttered by the speaker 2 into character information (step S20). The conversion unit 103 of the present embodiment converts voice information into character information by voice recognition, for example.

次に、検索手段制御装置1101の識別部104は、音声情報に基づいて、複数の発話者2のうちから当該音声情報の音声を発した発話者2を識別するとともに、識別した発話者2と当該音声情報を変換した文字情報とを関連付けて出力する(ステップS30)。つまり、識別部104は、発話者2の識別を行う。具体的には、ステップS10において取得された音声情報を、既知の音声認識手段によって音声認識して、発話者2の音声の特徴を抽出する。ここで、音声の特徴には、声紋の特徴などが含まれる。そして、識別部104は、抽出した発話者2の音声の特徴ごとに音声情報を識別して、発話者2の人数を判定し、音声情報と関連付けるための情報(例えば、発話者2を識別する固有の識別ID)を、判定した発話者2ごとに付与する。そして、識別部104は、発話者2ごとに付与した識別IDを、入力された音声情報ごとに付与する。そして、識別部104は、入力された音声情報に付与した識別IDを、変換部103によって、当該音声情報が変換された文字情報に対して付与する。   Next, the identification unit 104 of the search means control device 1101 identifies the speaker 2 that uttered the voice information of the plurality of speakers 2 based on the voice information, and identifies the identified speaker 2 and The character information obtained by converting the voice information is output in association with the character information (step S30). That is, the identification unit 104 identifies the speaker 2. Specifically, the voice information acquired in step S10 is voice-recognized by a known voice recognition means, and the voice characteristics of the speaker 2 are extracted. Here, the voice features include voiceprint features and the like. The identifying unit 104 identifies voice information for each extracted voice feature of the speaker 2, determines the number of the speaker 2, and identifies information (for example, the speaker 2) to associate with the voice information. A unique identification ID) is assigned to each determined speaker 2. And the identification part 104 assign | provides identification ID provided for every speaker 2 for every input audio | voice information. Then, the identification unit 104 assigns the identification ID assigned to the input voice information to the character information obtained by converting the voice information by the conversion unit 103.

次に、検索手段制御装置1101の識別部104は、識別した発話者2ごとに、発話の頻度を発話者2と関連付けて記憶部105に記憶させる(ステップS40)。例えば、識別部104は、発話者2ごとに発話回数を計数し、計数した発話回数を発話者2と関連付けて記憶部105に記憶させる。   Next, the identification unit 104 of the search means control device 1101 stores the frequency of utterance in the storage unit 105 in association with the speaker 2 for each identified speaker 2 (step S40). For example, the identification unit 104 counts the number of utterances for each speaker 2 and stores the counted number of utterances in the storage unit 105 in association with the speaker 2.

次に、検索手段制御装置1101の生成部102は、音声情報に基づいて音声が発せられた方向の情報を生成する(ステップS50)。本実施形態の生成部102は、例えば、収音部101Aが収音した音声情報に基づいて、音声が発せられた方向としての方向DR1を示す情報を生成する。   Next, the generation unit 102 of the search means control device 1101 generates information on the direction in which the voice is emitted based on the voice information (step S50). For example, the generation unit 102 of the present embodiment generates information indicating the direction DR1 as the direction in which sound is emitted, based on the sound information collected by the sound collection unit 101A.

次に、検索手段制御装置1101の選択部106は、発話者の重要度に基づいて、文字情報から特定の文字情報を選択する(ステップS60)。本実施形態の選択部106は、ステップS60において、例えば、図15に示す手順によって特定の文字情報を選択する。
図15は、本実施形態の選択部106の動作の一例を示すフローチャートである。
まず、選択部106は、発話の頻度が所定のしきい値を超えているか否かを判定する(ステップS601)。本実施形態の選択部106は、例えば、記憶部105に記憶されている発話者2が音声を発した頻度の情報(例えば、発話回数)を、発話者2ごとに読み出す。そして、選択部106は、読み出した頻度の情報が所定のしきい値(例えば、1分間あたり5回)を超えているか否かを、発話者2ごとに判定する。そして、選択部106は、少なくとも一人の発話者2について、読み出した頻度の情報が所定のしきい値を超えていると判定した場合(ステップS601:YES)には、処理をステップS602に進める。
そして、選択部106は、所定のしきい値を超えている頻度の情報に関連付けられている発話者2(つまり、発話頻度の高い発話者2)によって発せられた音声が変換されている文字情報を、特定の文字情報として選択して、ステップS60の処理を終了する(ステップS602)。
一方、選択部106は、それぞれの発話者2について、読み出した頻度の情報が所定のしきい値を超えていないと判定した場合(ステップS601:NO)には、処理をステップS611に進める。
Next, the selection unit 106 of the search means control device 1101 selects specific character information from the character information based on the importance level of the speaker (step S60). In step S60, the selection unit 106 of the present embodiment selects specific character information, for example, according to the procedure shown in FIG.
FIG. 15 is a flowchart illustrating an example of the operation of the selection unit 106 according to the present embodiment.
First, the selection unit 106 determines whether the utterance frequency exceeds a predetermined threshold (step S601). For example, the selection unit 106 of the present embodiment reads information on the frequency (for example, the number of utterances) of the frequency of the utterer 2 uttering voice stored in the storage unit 105 for each utterer 2. Then, the selection unit 106 determines for each speaker 2 whether or not the read frequency information exceeds a predetermined threshold value (for example, 5 times per minute). If the selection unit 106 determines that the read frequency information has exceeded a predetermined threshold for at least one speaker 2 (step S601: YES), the selection unit 106 advances the process to step S602.
And the selection part 106 is the character information by which the voice uttered by the speaker 2 (namely, the speaker 2 with high utterance frequency) linked | related with the information of the frequency exceeding the predetermined threshold value is converted. Is selected as specific character information, and the process of step S60 is terminated (step S602).
On the other hand, if the selection unit 106 determines that the read frequency information does not exceed the predetermined threshold value for each speaker 2 (step S601: NO), the selection unit 106 proceeds to step S611.

次に、選択部106は、発話者2によって発せられた音声の音量が所定のしきい値を超えているか否かを判定する(ステップS611)。本実施形態の選択部106は、例えば、音声情報に含まれている音量の情報を収音部101から取得し、取得した音量の情報が所定のしきい値を超えているか否かを、収音部101ごとに判定する。そして、選択部106は、取得した音量の情報が所定のしきい値を超えていると判定した場合(ステップS611:YES)には、処理をステップS612に進める。
そして、選択部106は、所定のしきい値を超えている音声情報が変換されている文字情報を、特定の文字情報として選択して、ステップS60の処理を終了する(ステップS612)。
一方、選択部106は、それぞれの収音部101から取得した音量の情報が所定のしきい値を超えていないと判定した場合(ステップS611:NO)には、処理をステップS621に進める。
Next, the selection unit 106 determines whether or not the volume of the voice uttered by the speaker 2 exceeds a predetermined threshold value (step S611). For example, the selection unit 106 according to the present embodiment acquires volume information included in the audio information from the sound collection unit 101, and stores whether the acquired volume information exceeds a predetermined threshold. The determination is made for each sound unit 101. If the selection unit 106 determines that the acquired volume information exceeds a predetermined threshold (step S611: YES), the selection unit 106 advances the process to step S612.
Then, the selection unit 106 selects, as specific character information, character information in which voice information exceeding a predetermined threshold is converted, and ends the process of step S60 (step S612).
On the other hand, when the selection unit 106 determines that the volume information acquired from each sound collection unit 101 does not exceed the predetermined threshold (step S611: NO), the selection unit 106 advances the process to step S621.

次に、選択部106は、発話者2によって発せられた音声の方向が所定の方向であるか否かを判定する(ステップS621)。本実施形態の選択部106は、例えば、生成部102によって生成された音声が発せられた方向の情報を取得し、取得した方向の情報が所定の方向を示しているか否かを判定する。そして、選択部106は、取得した方向の情報が所定の方向を示していると判定した場合(ステップS621:YES)には、処理をステップS622に進める。
そして、選択部106は、所定の音声の方向を示している音声情報が変換されている文字情報を、特定の文字情報として選択して、ステップS60の処理を終了する(ステップS622)。
一方、選択部106は、選択部106は、取得した方向の情報が所定の方向を示していないと判定した場合(ステップS621:NO)には、処理をステップS631に進める。
Next, the selection unit 106 determines whether or not the direction of the voice uttered by the speaker 2 is a predetermined direction (step S621). For example, the selection unit 106 according to the present embodiment acquires information on the direction in which the sound generated by the generation unit 102 is emitted, and determines whether the acquired information on the direction indicates a predetermined direction. If the selection unit 106 determines that the acquired direction information indicates a predetermined direction (step S621: YES), the selection unit 106 advances the process to step S622.
Then, the selection unit 106 selects, as specific character information, character information in which sound information indicating a predetermined sound direction is converted, and ends the process of step S60 (step S622).
On the other hand, if the selection unit 106 determines that the acquired direction information does not indicate the predetermined direction (step S621: NO), the selection unit 106 advances the process to step S631.

次に、選択部106は、発話者2によって音声が発せられた位置が所定の位置であるか否かを判定する(ステップS621)。本実施形態の選択部106は、例えば、音声情報を収音部101から取得し、取得した音声情報に含まれている音声が発せられた位置の情報に基づいて、音声が発せられた位置が所定の位置であるか否かを判定する(ステップS631)。例えば、選択部106は、取得した音声情報が、複数の収音部101のうちのいずれの収音部101によって取得された音声情報であるかに基づいて、発話者2によって声が発せられた位置が所定の位置であるか否かを判定する。そして、選択部106は、取得した音声情報に含まれている位置の情報が所定の位置を示していると判定した場合(ステップS631:YES)には、処理をステップS632に進める。
そして、選択部106は、所定の位置を示している音声情報が変換されている文字情報を、特定の文字情報として選択して、ステップS60の処理を終了する(ステップS632)。
一方、選択部106は、取得した音声情報に含まれている位置の情報が所定の位置を示していないと判定した場合(ステップS631:NO)には、文字情報のうちから特定の文字情報を選択することなく、ステップS60の処理を終了する。
このようにして、選択部106は、発話者の重要度に基づいて、文字情報から特定の文字情報を選択する。
Next, the selection unit 106 determines whether or not the position where the voice is uttered by the speaker 2 is a predetermined position (step S621). For example, the selection unit 106 of the present embodiment acquires voice information from the sound collection unit 101, and the position where the sound is emitted is determined based on the information of the position where the sound included in the acquired sound information is emitted. It is determined whether or not the position is a predetermined position (step S631). For example, the selection unit 106 is uttered by the speaker 2 based on which sound collection unit 101 of the plurality of sound collection units 101 is the acquired sound information. It is determined whether or not the position is a predetermined position. If the selection unit 106 determines that the position information included in the acquired audio information indicates a predetermined position (step S631: YES), the selection unit 106 advances the process to step S632.
Then, the selection unit 106 selects character information in which voice information indicating a predetermined position is converted as specific character information, and ends the process of step S60 (step S632).
On the other hand, when the selection unit 106 determines that the position information included in the acquired voice information does not indicate the predetermined position (step S631: NO), the selection unit 106 selects specific character information from the character information. The process of step S60 is terminated without making a selection.
In this manner, the selection unit 106 selects specific character information from the character information based on the importance level of the speaker.

再び、図14を参照して、会議システム1が備える検索手段制御装置1101の動作について説明する。
検索手段制御装置1101は、上述したステップS60の各ステップにおいて、特定の文字情報を選択できた場合(ステップS65:YES)には、処理をステップS70に進める。一方、検索手段制御装置1101は、上述したステップS60の各ステップにおいて、特定の文字情報を選択できなかった場合(ステップS65:NO)には、処理をステップS10に戻す。
With reference to FIG. 14 again, the operation of the search means control device 1101 provided in the conference system 1 will be described.
If the specific character information can be selected in each step of step S60 described above (step S65: YES), search means control apparatus 1101 advances the process to step S70. On the other hand, if the specific character information cannot be selected in each step of step S60 described above (step S65: NO), search means control apparatus 1101 returns the process to step S10.

次に、検索手段制御装置1101の出力部107は、入力された文字情報に関連する情報を検索する検索手段11に、選択部106によって選択された特定の文字情報を出力する(ステップS70)。本実施形態の出力部107は、例えば、ネットワーク15を介して接続されている検索手段11に、検索文字列としての特定の文字情報を送信する。このように、検索手段制御装置1101は、特定の文字情報に関連する情報を、検索手段11に検索させて検索手段11を制御する。   Next, the output unit 107 of the search unit control device 1101 outputs the specific character information selected by the selection unit 106 to the search unit 11 that searches for information related to the input character information (step S70). For example, the output unit 107 of the present embodiment transmits specific character information as a search character string to the search unit 11 connected via the network 15. As described above, the search unit control device 1101 controls the search unit 11 by causing the search unit 11 to search for information related to specific character information.

次に、検索手段制御装置1101の設定部109は、収音部101から取得した音声情報に基づいて、特定の発話者2の声の特徴を示す特徴量を設定する(ステップS80)。本実施形態の設定部109は、例えば、収音部101から取得した音声情報に基づいて発話者2の性別や年齢などの属性を特徴量として設定する。   Next, the setting unit 109 of the search means control device 1101 sets a feature quantity indicating the characteristics of the voice of the specific speaker 2 based on the voice information acquired from the sound collection unit 101 (step S80). The setting unit 109 according to the present embodiment sets, for example, attributes such as the gender and age of the speaker 2 as feature amounts based on the audio information acquired from the sound collection unit 101.

次に、検索手段制御装置1101の結果選択部108は、特定の発話者2の声の特徴を示す特徴量に基づいて、検索手段11が出力する検索結果を示す情報を選択する(ステップS90)。本実施形態の結果選択部108は、例えば、ステップS80において、設定部109によって設定された特徴量(例えば、性別や年齢)に基づいて、検索手段11が出力する複数の検索結果のうちから、特定の情報を選択する。   Next, the result selection unit 108 of the search unit control device 1101 selects information indicating the search result output by the search unit 11 based on the feature amount indicating the feature of the voice of the specific speaker 2 (step S90). . The result selection unit 108 of the present embodiment, for example, from among a plurality of search results output by the search unit 11 based on the feature amount (for example, gender and age) set by the setting unit 109 in step S80. Select specific information.

次に、検索手段制御装置1101の結果出力部110は、ステップS90において選択された特定の情報を表示部200Aに出力して、出力した情報の画像を表示部200Aに表示させて、処理を終了する(ステップS100)。
このようにして、検索手段制御装置1101は、発話者2によって発せられた音声情報に基づいて検索手段11を制御して、特定の情報を表示部200Aに表示させる。
Next, the result output unit 110 of the search means control device 1101 outputs the specific information selected in step S90 to the display unit 200A, displays an image of the output information on the display unit 200A, and ends the process. (Step S100).
In this way, the search means control device 1101 controls the search means 11 based on the voice information uttered by the speaker 2 to display specific information on the display unit 200A.

以上、説明したように本実施形態の検索手段制御装置1101は、変換部103と、選択部106と、出力部107と、結果出力部110とを備えている。この変換部103は、発話者2によって発せられた音声の音声情報を文字情報に変換する。また、選択部106は、発話者の重要度に基づいて、文字情報から特定の文字情報を選択する。また、出力部107は、入力された文字情報に関連する情報を検索する検索手段11に、選択部106によって選択された特定の文字情報を出力する。また、結果出力部110は、検索結果を表示する表示装置に前記検索手段による検索結果を出力させる。これにより、本実施形態の検索手段制御装置1101は、発話者2によって発せられた音声情報を自動的に文字情報に変換して検索手段11に検索させるとともに、発話者の重要度に基づいて、検索手段11に検索させる文字情報を選択することができる。これにより、本実施形態の検索手段制御装置1101は、音声情報を自動的に文字情報に変換することができるため、例えば、発話者2によって発せられた音声情報に基づいた文字情報を、発話者2本人または周囲の人が検索手段11に入力する作業を不要にすることができる。さらに、検索手段制御装置1101は、発話者2によって発せられた音声情報に基づいた文字情報のうちから、検索手段11に検索させる文字情報を選択することができるため、例えば、重要度の高い発話内容に絞って検索手段11に検索させることができる。   As described above, the search unit control device 1101 of this embodiment includes the conversion unit 103, the selection unit 106, the output unit 107, and the result output unit 110. The conversion unit 103 converts voice information of a voice uttered by the speaker 2 into character information. The selection unit 106 selects specific character information from the character information based on the importance level of the speaker. The output unit 107 outputs the specific character information selected by the selection unit 106 to the search unit 11 that searches for information related to the input character information. In addition, the result output unit 110 causes the display device that displays the search results to output the search results by the search means. Thereby, the search means control device 1101 of the present embodiment automatically converts the voice information uttered by the speaker 2 into character information and causes the search means 11 to search, and based on the importance level of the speaker, Character information to be searched by the search means 11 can be selected. Thereby, since the search means control apparatus 1101 of this embodiment can convert voice information into character information automatically, for example, the character information based on the voice information uttered by the speaker 2 is converted into the speaker. It is possible to eliminate the need for two persons or those around to input to the search means 11. Furthermore, since the search means control apparatus 1101 can select the character information to be searched by the search means 11 from the character information based on the voice information uttered by the speaker 2, for example, a speech with high importance It is possible to make the search means 11 search by narrowing down the content.

例えば、本実施形態の検索手段制御装置1101を備える会議システム1を用いて会議を行った場合、発話者2の発話内容に応じて、発話内容に関連する情報を検索手段11に検索させることができる。このように、検索手段制御装置1101は、発話者2の発話内容に関連する情報を自動的に発話者2に提供することができるため、会議の流れが滞ることを低減しつつ、会議の話題を広げたり、深めたりすることができる。さらに、検索手段制御装置1101は、例えば、重要度の高い発話内容に絞って検索手段11に検索させることができるため、発話者2にとって不要な情報が発話者2に提供されることを低減することができる。つまり、本実施形態の検索手段制御装置1101は、会議を円滑に進行させるための情報を発話者2に提供することができる。   For example, when a conference is performed using the conference system 1 including the search unit control device 1101 of the present embodiment, the search unit 11 may search for information related to the utterance content according to the utterance content of the speaker 2. it can. Thus, since the search means control apparatus 1101 can automatically provide the speaker 2 with information related to the utterance content of the speaker 2, the topic of the conference can be reduced while reducing the flow of the conference. Can be expanded and deepened. Furthermore, since the search means control device 1101 can make the search means 11 search for utterance contents with high importance, for example, it is possible to reduce provision of information unnecessary for the speaker 2 to the speaker 2. be able to. That is, the search means control apparatus 1101 of this embodiment can provide the speaker 2 with information for smoothly proceeding with the conference.

また、本実施形態の検索手段制御装置1101が備える選択部106は、音声情報の重要度に基づいて、文字情報から特定の文字情報を選択する。ここで、発話者の重要度には、音声情報の重要度が含まれている。これにより、本実施形態の検索手段制御装置1101は、発話者2によって発生られた音声情報のうちから、重要度の高い発話内容に絞って検索手段11に検索させることができる。つまり、検索手段制御装置1101は、発話者2にとって不要な情報が検索されることを低減することができる。   In addition, the selection unit 106 included in the search unit control device 1101 according to the present embodiment selects specific character information from character information based on the importance of voice information. Here, the importance of the voice information is included in the importance of the speaker. Thereby, the search means control apparatus 1101 of this embodiment can make the search means 11 search from the speech information generated by the speaker 2 to the utterance contents having high importance. That is, the search means control device 1101 can reduce the search for information unnecessary for the speaker 2.

また、本実施形態の検索手段制御装置1101が備える選択部106は、音声情報に含まれている音量の情報に基づいて、文字情報のうちから特定の文字情報を選択する。ここで、音声情報の重要度は、発話者2が発した音声の音量に基づいて定められている。これにより、本実施形態の検索手段制御装置1101は、発話者2によって発生られた音声情報のうちから、重要度の高い発話内容に絞って検索手段11に検索させることができる。例えば、選択部106は、発話者2が他の発話者2に聴取されにくい音量で発話した内容は重要度が低いと判定し、発話者2が他の発話者2に聴取される程度の音量で発話した内容は重要度が高いと判定することができる。例えば、検索手段制御装置1101は、発話者2Aが、隣に着席している発話者2Bと小声で話している内容は重要度が低いと判定して、この小声の音声情報が変換された文字情報を検索手段11に出力しない。つまり、検索手段制御装置1101は、発話者2にとって不要な情報が検索されることを低減することができる。   In addition, the selection unit 106 included in the search unit control device 1101 of the present embodiment selects specific character information from the character information based on the volume information included in the sound information. Here, the importance of the voice information is determined based on the volume of the voice uttered by the speaker 2. Thereby, the search means control apparatus 1101 of this embodiment can make the search means 11 search from the speech information generated by the speaker 2 to the utterance contents having high importance. For example, the selection unit 106 determines that the content spoken by the speaker 2 at a volume that is difficult for other speakers 2 to hear is low in importance, and the volume at which the speaker 2 can be heard by other speakers 2. It can be determined that the content uttered in is highly important. For example, the search means control device 1101 determines that the content that the speaker 2A is talking to the speaker 2B sitting next to the speaker is low in importance, and the converted character information of the voice information Information is not output to the search means 11. That is, the search means control device 1101 can reduce the search for information unnecessary for the speaker 2.

また、本実施形態の検索手段制御装置1101は、音声情報に基づいて、音声が発せられた方向の情報を生成する生成部102を備えており、選択部106は、生成された方向の情報に基づいて、文字情報のうちから特定の文字情報を選択する。ここで、音声情報の重要度は、音声が発せられた方向に基づいて定められている。これにより、本実施形態の検索手段制御装置1101は、発話者2によって発生られた音声情報のうちから、重要度の高い発話内容に絞って検索手段11に検索させることができる。例えば、会議において説明する側の発話者2(例えば、発話者2A及び発話者2B)と、説明される側の発話者2(例えば、発話者2C及び発話者2D)とがいる場合、選択部106は、発話者2A及び発話者2Bによって音声が発せられた方向の音声情報を重要度が高いと判定することができる。これにより、検索手段制御装置1101は、例えば、説明する側の発話者2の音声情報が変換された文字情報を検索手段11に出力することができるため、説明の進行に応じて説明資料を順次表示させることができる。つまり、検索手段制御装置1101は、会議を円滑に進行させるための情報を発話者2に提供することができる。   In addition, the search unit control device 1101 of the present embodiment includes a generation unit 102 that generates information on the direction in which the voice is emitted based on the voice information, and the selection unit 106 adds the information on the generated direction. Based on the character information, specific character information is selected. Here, the importance of the voice information is determined based on the direction in which the voice is emitted. Thereby, the search means control apparatus 1101 of this embodiment can make the search means 11 search from the speech information generated by the speaker 2 to the utterance contents having high importance. For example, when there is a speaker 2 (for example, a speaker 2A and a speaker 2B) on the side to be explained in a conference and a speaker 2 (for example, a speaker 2C and a speaker 2D) on the side to be explained, the selection unit 106 can determine that the voice information in the direction in which the voice is uttered by the speaker 2A and the speaker 2B is high in importance. As a result, the search means control device 1101 can output, for example, character information obtained by converting the voice information of the speaker 2 on the side of the explanation to the search means 11, so that the explanation materials are sequentially added according to the progress of the explanation. Can be displayed. That is, the search means control apparatus 1101 can provide the speaker 2 with information for smoothly proceeding with the conference.

また、本実施形態の検索手段制御装置1101は、発話者2によって発せられた音声を収音する複数の収音部101を備え、生成部102は、収音部101ごとに収音された音声の音量を示す情報に基づいて、音声が発せられた方向の情報を生成する。これにより、本実施形態の検索手段制御装置1101は、例えば、単一の収音部101によって収音された音声情報に基づいて音声が発せられた方向の情報を生成することを要せず、簡易に音声が発せられた方向の情報を生成することができる。   In addition, the search unit control device 1101 of the present embodiment includes a plurality of sound collection units 101 that collect the sound uttered by the speaker 2, and the generation unit 102 collects the sound collected for each sound collection unit 101. Based on the information indicating the sound volume, information on the direction in which the sound is emitted is generated. Thereby, the search means control apparatus 1101 of this embodiment does not need to generate | occur | produce the information of the direction in which the audio | voice was emitted based on the audio | voice information collected by the single sound collection part 101, for example, Information of the direction in which the voice is emitted can be generated easily.

また、本実施形態の検索手段制御装置1101の選択部106は、音声情報に含まれている位置の情報に基づいて、文字情報のうちから特定の文字情報を選択する。ここで、音声情報の重要度は、音声が発せられた位置に基づいて定められ、音声情報には、位置の情報が含まれている。これにより、本実施形態の検索手段制御装置1101は、例えば、特定の位置に着席している発話者2によって発せられた音声情報に基づいて、検索手段11に検索させることができる。例えば、検索手段制御装置1101は、特定の位置としての会議の進行役(例えば、議長)の座席に着席している発話者2(例えば、発話者2A)によって発せられた音声情報に基づいて、検索手段11に検索させることができる。これにより、検索手段制御装置1101は、例えば、進行役の発話者2Aの音声情報が変換された文字情報を検索手段11に出力することができるため、会議の進行に応じて関連する資料を順次表示させることができる。つまり、検索手段制御装置1101は、会議を円滑に進行させるための情報を発話者2に提供することができる。   In addition, the selection unit 106 of the search unit control device 1101 of the present embodiment selects specific character information from character information based on position information included in the audio information. Here, the importance of the voice information is determined based on the position where the voice is emitted, and the voice information includes position information. Thereby, the search means control apparatus 1101 of this embodiment can make the search means 11 search based on the audio | voice information uttered by the speaker 2 seated in the specific position, for example. For example, the search means control device 1101 is based on the audio information uttered by the speaker 2 (for example, the speaker 2A) seated in the seat of the facilitator (for example, the chairman) of the conference as a specific position, The search means 11 can search. As a result, the search means control device 1101 can output, for example, character information obtained by converting the voice information of the facilitating speaker 2A to the search means 11, so that related materials are sequentially added according to the progress of the conference. Can be displayed. That is, the search means control apparatus 1101 can provide the speaker 2 with information for smoothly proceeding with the conference.

また、本実施形態の検索手段制御装置1101は、識別部104を備えている。識別部104は、音声情報に基づいて、複数の発話者2のうちから当該音声情報の音声を発した発話者2を識別するとともに、識別した発話者2と当該音声情報を変換した文字情報とを関連付けて出力する。また、本実施形態の検索手段制御装置1101の選択部106は、発話者2の重要度に基づいて、発話者2のうちから特定の発話者2を選択するとともに、選択した特定の発話者2に関連付けられている文字情報から特定の文字情報を選択する。ここで、発話者の重要度には、発話者2の重要度が含まれている。これにより、本実施形態の検索手段制御装置1101は、例えば、発話者2Aが進行役である場合に、発話者2Aが位置(例えば、座席)を移動しても、発話者2Aによって発せられた音声情報に基づいて、検索手段11に検索させることができる。つまり、検索手段制御装置1101は、会議を円滑に進行させるための情報を発話者2に提供することができる。   Further, the search means control device 1101 of this embodiment includes an identification unit 104. Based on the voice information, the identification unit 104 identifies the speaker 2 that uttered the voice of the voice information from among the plurality of speakers 2, and character information obtained by converting the identified speaker 2 and the voice information; Are output in association. Further, the selection unit 106 of the search means control device 1101 of the present embodiment selects a specific speaker 2 from the speakers 2 based on the importance of the speaker 2, and selects the selected specific speaker 2 Select specific character information from the character information associated with. Here, the importance level of the speaker 2 is included in the importance level of the speaker. Thereby, the search means control device 1101 of the present embodiment is uttered by the speaker 2A even if the speaker 2A moves the position (for example, the seat) when the speaker 2A is the facilitator. Based on the voice information, the search unit 11 can search. That is, the search means control apparatus 1101 can provide the speaker 2 with information for smoothly proceeding with the conference.

また、本実施形態の検索手段制御装置1101は、識別部104が識別した発話者2ごとに、頻度と発話者2とが関連付けられて記憶されている記憶部105を備えており、選択部106は、記憶部105に記憶されている頻度に基づいて、特定の発話者2を選択する。ここで、発話者2の重要度は、発話者2が音声を発した頻度に基づいて定められている。これにより、本実施形態の検索手段制御装置1101は、例えば、発言頻度の高い発話者2(例えば、発話者2A)によって発せられた音声情報に基づいて、検索手段11に検索させることができる。また、本実施形態の検索手段制御装置1101は、例えば、発言頻度の低い発話者2(例えば、発話者2D)によって発せられた音声情報に基づいて、検索手段11に検索させることができる。例えば、検索手段制御装置1101は、発言頻度の高い発話者2Aによって発せられた音声情報に基づいて、検索手段11に検索させて、会議の話題を深くするための情報を発話者2に提供することができる。また、例えば、発言頻度の高い発話者2Dによって発せられた音声情報に基づいて検索手段11に検索させて、会議の話題を変えたり、広くしたりするための情報を発話者2に提供することができる。つまり、検索手段制御装置1101は、会議を円滑に進行させるための情報を発話者2に提供することができる。   Further, the search means control device 1101 of the present embodiment includes a storage unit 105 in which the frequency and the speaker 2 are stored in association with each speaker 2 identified by the identification unit 104, and the selection unit 106. Selects a specific speaker 2 based on the frequency stored in the storage unit 105. Here, the importance level of the speaker 2 is determined based on the frequency at which the speaker 2 utters voice. Thereby, the search means control apparatus 1101 of this embodiment can make the search means 11 search based on the audio | voice information uttered by the speaker 2 (for example, speaker 2A) with high utterance frequency, for example. Further, the search means control apparatus 1101 of the present embodiment can cause the search means 11 to search based on voice information uttered by a speaker 2 (for example, a speaker 2D) with a low utterance frequency, for example. For example, the search means control device 1101 provides the speaker 2 with information for deepening the topic of the conference by causing the search means 11 to perform a search based on voice information uttered by the speaker 2A with a high utterance frequency. be able to. Further, for example, the search unit 11 is made to search based on voice information uttered by a speaker 2D having a high utterance frequency, and information for changing or broadening the topic of the conference is provided to the speaker 2. Can do. That is, the search means control apparatus 1101 can provide the speaker 2 with information for smoothly proceeding with the conference.

また、本実施形態の検索手段制御装置1101は、特定の発話者2の声の特徴を示す特徴量に基づいて、検索手段11が出力する検索結果を示す情報を選択する結果選択部108を備えている。これにより、本実施形態の検索手段制御装置1101は、例えば、発話者2の重要度としての性別や年齢などの属性によって検索結果を示す情報を選択することができる。例えば、本実施形態の検索手段制御装置1101は、子ども若しくは大人、又は男性若しくは女性によって発せられた音声情報に基づいて、検索結果を示す情報を選択することができる。例えば、検索手段制御装置1101は、発話者2としての大人と子どもとが混在している会議において、子どもの発言に注目したい場合に、発話者2としての子どもによって発せられた音声情報に基づいて、検索結果を示す情報を選択することができる。つまり、検索手段制御装置1101は、会議を円滑に進行させるための情報を発話者2に提供することができる。   In addition, the search unit control apparatus 1101 of the present embodiment includes a result selection unit 108 that selects information indicating the search result output from the search unit 11 based on the feature amount indicating the feature of the voice of the specific speaker 2. ing. Thereby, the search means control apparatus 1101 of this embodiment can select the information which shows a search result with attributes, such as sex and age, as the importance degree of the speaker 2, for example. For example, the search means control apparatus 1101 of this embodiment can select information indicating a search result based on voice information issued by a child or an adult, or a man or a woman. For example, the search means control device 1101 is based on voice information uttered by a child as the speaker 2 when he / she wants to pay attention to a child's speech in a conference where an adult and a child as the speaker 2 are mixed. The information indicating the search result can be selected. That is, the search means control apparatus 1101 can provide the speaker 2 with information for smoothly proceeding with the conference.

また、本実施形態の検索手段制御装置1101は、音声情報に基づいて、特徴量を設定する設定部109を備えている。これにより、本実施形態の検索手段制御装置1101は、例えば、発話者2の重要度としての性別や年齢などの属性を、発話者2が発話したタイミングによって(例えば、リアルタイムに)自動的に設定することができる。つまり、検索手段制御装置1101は、発話者2による設定を必要とせずに、発話者2の重要度を設定することができる。つまり、検索手段制御装置1101は、会議を円滑に進行させるために必要な作業量を低減することができる。   In addition, the search unit control device 1101 of this embodiment includes a setting unit 109 that sets a feature amount based on audio information. Thereby, the search means control apparatus 1101 of this embodiment automatically sets, for example, attributes such as gender and age as the importance level of the speaker 2 according to the timing when the speaker 2 speaks (for example, in real time). can do. That is, the search means control device 1101 can set the importance level of the speaker 2 without requiring the speaker 2 to set. That is, the search means control device 1101 can reduce the amount of work necessary for smoothly proceeding with the conference.

また、本実施形態の検索手段制御装置1101の出力部107は、文字情報に、所定の語句が含まれているか否かに基づいて、文字情報を検索手段11に出力するか否かを判定する。ここで、所定の語句とは上述したように、例えば、「そうだね」や「へー」などの感動詞や、「いつ」や「どこで」などの疑問詞などである。これにより、本実施形態の検索手段制御装置1101は、発話者2によって会議中に発せられる感動詞や疑問詞が音声情報に含まれている場合には、検索手段11に出力しないように制御することができる。つまり、検索手段制御装置1101は、発話者2にとって不要な情報が検索されることを低減することができる。   Further, the output unit 107 of the search unit control apparatus 1101 of this embodiment determines whether or not to output the character information to the search unit 11 based on whether or not the character information includes a predetermined word / phrase. . Here, as described above, the predetermined phrase is, for example, a moving verb such as “That's right” or “He”, or an interrogative word such as “when” or “where”. Thereby, the search means control apparatus 1101 of this embodiment is controlled so that it is not output to the search means 11 when the speech information includes a moving verb or a question word that is uttered by the speaker 2 during the meeting. be able to. That is, the search means control device 1101 can reduce the search for information unnecessary for the speaker 2.

[第11の実施形態]
以下、図面を参照して、本発明の第2の実施形態を説明する。なお、上述した第1の実施形態と同様である構成及び動作については、説明を省略する。
図16は、本実施形態における検索結果出力装置130の構成を示すブロック図である。
検索結果出力装置130は、検索手段11と、上述した検索手段制御装置1101とを備えている。
検索手段11は、文字情報と、文字情報に関連する関連情報とが関連付けられて予め記憶されており、入力された文字情報に関連付けられている関連情報を、検索結果を示す情報として出力する。本実施形態の検索手段11は、例えば、文字情報と、文字情報に関連する関連情報とが関連付けられて予め記憶されているデータベース111と、入力された文字情報に関連付けられている関連情報を、検索結果を示す情報として出力する検索部112とを備えている。つまり、本実施形態の検索結果出力装置130は、第1の実施形態において説明した検索手段11を、検索結果出力装置130の内部に備えている。
[Eleventh embodiment]
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. Note that the description of the same configuration and operation as those of the first embodiment described above will be omitted.
FIG. 16 is a block diagram showing the configuration of the search result output device 130 in this embodiment.
The search result output device 130 includes the search means 11 and the search means control device 1101 described above.
The search unit 11 stores character information and related information related to the character information in association with each other in advance, and outputs the related information related to the input character information as information indicating the search result. The search means 11 of the present embodiment, for example, includes a database 111 in which character information and related information related to character information are stored in association with each other, and related information related to input character information. And a search unit 112 that outputs information indicating the search result. That is, the search result output device 130 of this embodiment includes the search means 11 described in the first embodiment inside the search result output device 130.

これにより、本実施形態の検索結果出力装置130は、第1の実施形態において説明したネットワーク15を必要としないため、ネットワーク15が設置されていない場所においても使用することができる。また、本実施形態の検索結果出力装置130は、ネットワーク15による通信の遅延が生じないため、発話者2によって発話されてから検索結果を提供するまでの時間を、ネットワーク15を介して検索する場合に比べて、短縮することができる。   As a result, the search result output device 130 of the present embodiment does not require the network 15 described in the first embodiment, and therefore can be used even in a place where the network 15 is not installed. In addition, since the search result output device 130 according to the present embodiment does not cause a delay in communication through the network 15, the search result output device 130 searches for the time from when the speaker 2 speaks until the search result is provided via the network 15. It can be shortened compared to

なお、上述した各実施形態の説明において、検索手段制御装置1101及び検索結果出力装置130は、机3の天板部分に埋め込まれた表示部200Aに情報を表示させているが、これに限られない。例えば、表示部200Aは、壁に設置されているものでもよく、図17に示すように半球状の表示部200が机3の上に設置されていてもよい。
図17は、半球状に構成された表示部200に出力する会議システム1の一例を示す構成図である。
会議システム1は、机3の上に半球状に構成された表示部200を備えている。検索手段制御装置1101及び検索結果出力装置130は、表示部200に検索結果を示す画像を表示させる。この場合、表示部200に表示される画像は、特定の発話者2にのみ視認されることになる。例えば、検索手段制御装置1101及び検索結果出力装置130は、所定の方向に向かって着席している特定の発話者2(例えば、図17における発話者2A)によって発せられた音声情報に基づいて、文字情報のうちから特定の文字情報を選択することができる。これにより、例えば、検索手段制御装置1101及び検索結果出力装置130は、発話者2Aが特定の情報(例えば、発話者2A自身が作成した会議資料)を検索して表示するように要求する内容を発言した場合に、発話者2Aにのみ視認されるようにして、特定の情報を表示させることができる。
In the description of each embodiment described above, the search unit control device 1101 and the search result output device 130 display information on the display unit 200A embedded in the top plate portion of the desk 3, but the present invention is not limited thereto. Absent. For example, the display unit 200A may be installed on a wall, or the hemispherical display unit 200 may be installed on the desk 3 as shown in FIG.
FIG. 17 is a configuration diagram illustrating an example of the conference system 1 that outputs to the display unit 200 configured in a hemispherical shape.
The conference system 1 includes a display unit 200 configured on a desk 3 in a hemispherical shape. The search means control device 1101 and the search result output device 130 cause the display unit 200 to display an image indicating the search result. In this case, the image displayed on the display unit 200 is visually recognized only by the specific speaker 2. For example, the search means control device 1101 and the search result output device 130 are based on voice information uttered by a specific speaker 2 seated in a predetermined direction (for example, the speaker 2A in FIG. 17). Specific character information can be selected from the character information. Thereby, for example, the search means control device 1101 and the search result output device 130 request the speaker 2A to search and display specific information (for example, conference material created by the speaker 2A itself). When speaking, specific information can be displayed so that only the speaker 2A can visually recognize it.

なお、上述した各実施形態において、検索手段制御装置1101及び検索結果出力装置130は、4つの収音部101を備えている構成を一例にして説明したが、これに限られない。検索手段制御装置1101及び検索結果出力装置130は、収音部101の周囲の音声が検出できればよく、例えば、机3の下部などに、単一の又は複数の収音部101を備えていてもよい。これにより、検索手段制御装置1101及び検索結果出力装置130は、例えば、机3の大きさに応じた位置及び数の収音部101を備えることができる。   In each of the above-described embodiments, the search unit control device 1101 and the search result output device 130 have been described with the configuration including the four sound collection units 101 as an example, but the invention is not limited thereto. The search means control device 1101 and the search result output device 130 only need to be able to detect the sound around the sound collection unit 101. For example, the search means control device 1101 and the search result output device 130 may include a single or multiple sound collection units 101 in the lower part of the desk 3, for example. Good. Thereby, the search means control device 1101 and the search result output device 130 can include, for example, the sound collecting units 101 having the position and the number corresponding to the size of the desk 3.

以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。   As mentioned above, although embodiment of this invention has been explained in full detail with reference to drawings, a concrete structure is not restricted to this embodiment and can be suitably changed in the range which does not deviate from the meaning of this invention. .

なお、上記の実施形態における生成部102、変換部103、識別部104、選択部106、出力部107、結果選択部108、設定部109、又は結果出力部110(以下、これらを総称して制御部CONTと記載する)又はこの制御部CONTが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。   Note that the generation unit 102, the conversion unit 103, the identification unit 104, the selection unit 106, the output unit 107, the result selection unit 108, the setting unit 109, or the result output unit 110 in the above embodiment (hereinafter collectively referred to as control) Each unit included in the control unit CONT may be realized by dedicated hardware, or may be realized by a memory and a microprocessor.

次に、第12の実施形態から第16の実施形態までにおいて、本発明の一実施形態である情報表示装置(検索制御装置)について説明する。以下の説明において、発話者が発した発言内容を特定する処理の詳細を説明する。   Next, in the twelfth to sixteenth embodiments, an information display device (search control device) that is an embodiment of the present invention will be described. In the following description, details of a process for specifying the content of a utterance made by a speaker will be described.

以下、本発明の一実施形態による検索制御装置、及び検索装置(出力装置)について、図面を参照して説明する。
[第12の実施形態]
図18は、本実施形態による検索装置(情報表示装置1200)のシステム構成の一例を示す第1の図である。
図18において、検索装置(情報表示装置1200)は、ネットワーク15(例えば、インターネット)を介して検索手段11に接続されている。また、検索装置(情報表示装置1200)は、収音部(収音マイク)101に接続されている。これにより、収音部101から使用者(例えば、2名の使用者(U1,U2))の音声情報(例えば、会話の音声信号)が、検索装置(情報表示装置1200)に入力される。
Hereinafter, a search control device and a search device (output device) according to an embodiment of the present invention will be described with reference to the drawings.
[Twelfth embodiment]
FIG. 18 is a first diagram illustrating an example of a system configuration of the search device (information display device 1200) according to the present embodiment.
In FIG. 18, a search device (information display device 1200) is connected to the search means 11 via a network 15 (for example, the Internet). The search device (information display device 1200) is connected to the sound collection unit (sound collection microphone) 101. Thereby, voice information (for example, voice signal of conversation) of the user (for example, two users (U1, U2)) is input from the sound collection unit 101 to the search device (information display device 1200).

収音部101は、使用者の会話の音声を収音して音声信号(音声情報)に変換する。収音部101は、使用者の音声を変換した音声信号(音声情報)を第1の情報として、検索装置(情報表示装置1200)に出力する。
検索手段11は、キーワード(検索ワード)又はキーワードに基づく検索式に基づいて、キーワードに関連する画像、音声、文章などの情報(第2の情報)を検索する。検索手段11は、例えば、ネットワーク15を介して、検索結果となる情報(第2の情報)を検索してもよいし、自装置内に備えるデータベースに記憶されている情報から検索結果となる情報(第2の情報)を検索してもよい。
The sound collection unit 101 collects the voice of the user's conversation and converts it into a voice signal (voice information). The sound collection unit 101 outputs a voice signal (voice information) obtained by converting the user's voice to the search device (information display device 1200) as first information.
The search unit 11 searches for information (second information) such as an image, sound, and text related to the keyword based on a keyword (search word) or a search expression based on the keyword. For example, the search unit 11 may search for information (second information) as a search result via the network 15, or information as a search result from information stored in a database provided in the own device. You may search (2nd information).

また、図19は、本実施形態による検索装置(情報表示装置1200)のブロック図である。
図19において、検索装置(情報表示装置1200)(出力装置)は、制御部1102(検索処理制御部)と、表示部200とを備えている。なお、本実施形態において、制御部1102は、検索制御装置(表示制御装置)として機能する。
制御部1102は、検索装置(情報表示装置1200)の各部を制御する。制御部1102は、収音部101から入力された音声情報(第1の情報)に基づいて、ネットワーク15を介して検索手段11に検索させ、検索結果として画像などの情報(第2の情報)を取得する。また、制御部1102は、検索手段11から取得した検索結果を表示部200に表示させる。
また、制御部1102は、音声認識部1111と、検索制御部1112と、を備えている。
FIG. 19 is a block diagram of the search device (information display device 1200) according to this embodiment.
In FIG. 19, the search device (information display device 1200) (output device) includes a control unit 1102 (search processing control unit) and a display unit 200. In the present embodiment, the control unit 1102 functions as a search control device (display control device).
The control unit 1102 controls each unit of the search device (information display device 1200). Based on the voice information (first information) input from the sound collection unit 101, the control unit 1102 causes the search unit 11 to search via the network 15, and information such as an image (second information) as a search result. To get. Further, the control unit 1102 causes the display unit 200 to display the search result acquired from the search unit 11.
The control unit 1102 includes a voice recognition unit 1111 and a search control unit 1112.

音声認識部1111(抽出部)は、収音部101から入力された音声情報(第1の情報)に含まれる単語を抽出する。すなわち、音声認識部1111は、入力された音声情報を認識して、テキスト情報(文章)に変換するとともに、テキスト情報に含まれる単語を抽出する。音声認識部1111は、抽出した単語を検索制御部1112に供給する。   The speech recognition unit 1111 (extraction unit) extracts words included in the speech information (first information) input from the sound collection unit 101. That is, the speech recognition unit 1111 recognizes the input speech information, converts it into text information (sentence), and extracts words included in the text information. The voice recognition unit 1111 supplies the extracted word to the search control unit 1112.

検索制御部1112(制御部)は、音声認識部1111によって抽出された単語に基づいて、検索結果として出力される画像などの情報を検索手段11に対して検索させる。すなわち、検索制御部1112は、音声認識部1111によって抽出された単語に基づく検索条件に基づいて、第2の情報を検索手段11に対して検索させる。また、検索制御部1112は、音声認識部1111によって抽出された単語に基づくキーワード(例えば、名詞、固有名詞など)に基づいて検索式を生成し、生成した検索式に基づいて、画像などの情報を検索手段11に対して検索させる。例えば、検索制御部1112は、第1の情報に含まれる単語のうちのキーワードを順次追加した検索式を、検索条件として生成し、生成した検索式に基づいて、画像などの情報を検索手段11に対して検索させる。すなわち、検索制御部1112は、生成した検索式を、ネットワーク15を介して検索手段11に供給し、検索結果である画像などの情報を、ネットワーク15を介して検索手段11から取得する。なお、上述のキーワード(検索ワード)は、単語を組み合わせた文字列(例えば、形容詞+名詞など)や文章などでもよい。
ここで、検索制御部1112は、以下の2つの検索モードを有している。
The search control unit 1112 (control unit) causes the search unit 11 to search for information such as an image output as a search result based on the words extracted by the speech recognition unit 1111. That is, the search control unit 1112 causes the search unit 11 to search for the second information based on the search condition based on the word extracted by the voice recognition unit 1111. Further, the search control unit 1112 generates a search expression based on keywords (for example, nouns, proper nouns, etc.) based on the words extracted by the speech recognition unit 1111, and information such as images based on the generated search expressions. To the search means 11. For example, the search control unit 1112 generates a search expression in which keywords of the words included in the first information are sequentially added as a search condition, and searches for information such as an image based on the generated search expression. To search. That is, the search control unit 1112 supplies the generated search formula to the search unit 11 via the network 15, and acquires information such as an image as a search result from the search unit 11 via the network 15. Note that the above-described keyword (search word) may be a character string (for example, an adjective + noun) or a sentence combining words.
Here, the search control unit 1112 has the following two search modes.

話題提供モード(第1の検索モード)は、検索条件を広げていく(拡張していく)検索モードであり、後述する会話追跡モードよりも検索条件の広い検索モードである。話題提供モードは、例えば、会議などの使用者による会話に含まれる単語をキーワードとして、現在使用者が興味を持っている内容を検索した画像などの情報を使用者の会話における話題を提供する情報として提供する検索モードである。この話題提供モードは、会議におけるブレインストーミングなどにおいて有効な検索モードである。また、話題提供モードにおいて、検索制御部1112は、新たに入力された音声情報(第1の情報)に含まれるキーワードを論理和(OR:オア)により結合して、検索式に追加する。   The topic provision mode (first search mode) is a search mode in which search conditions are expanded (expanded), and is a search mode having a wider search condition than a conversation tracking mode described later. Topic offer mode, for example, information that provides a topic in the user's conversation information such as images searched for the content that the user is currently interested in, using the words included in the conversation by the user such as a conference as a keyword As a search mode. This topic providing mode is an effective search mode for brainstorming in a conference. In the topic providing mode, the search control unit 1112 combines the keywords included in the newly input voice information (first information) with a logical sum (OR: OR) and adds it to the search formula.

例えば、話題提供モードにおいて、検索制御部1112は、下記の式(1)に示すような検索式を生成する。   For example, in the topic providing mode, the search control unit 1112 generates a search formula as shown in the following formula (1).

検索式=KEY1 or KEY2 ・・・(1)
ここで、KEY1、及びKEY2は、キーワードを示す記号である。
Search formula = KEY1 or KEY2 (1)
Here, KEY1 and KEY2 are symbols indicating keywords.

この式(1)の検索式の状態において、音声認識部1111が新たにキーワード(KEY3)を抽出した場合、検索制御部1112は、キーワード(KEY3)を追加した下記の式(2)に示す検索式を生成する。   When the speech recognition unit 1111 newly extracts a keyword (KEY3) in the state of the search formula of the formula (1), the search control unit 1112 adds the keyword (KEY3) to the search shown in the following formula (2) Generate an expression.

検索式=KEY1 or KEY2 or KEY3 ・・・(2)   Search formula = KEY1 or KEY2 or KEY3 (2)

また、会話追跡モード(第2の検索モード)は、検索条件を狭めていく(縮小していく)検索モードであり、話題提供モードよりも検索条件の狭い検索モードである。会話追跡モードは、例えば、会議などの使用者による会話に含まれる単語をキーワードとして、使用者が知りたい内容を絞り込んで検索した画像などの情報を使用者に提供する検索モードである。この会話追跡モードは、会議における意見や情報をまとめる作業などにおいて有効な検索モードである。また、会話追跡モードにおいて、検索制御部1112は、新たに入力された音声情報(第1の情報)に含まれるキーワードを論理積(AND:アンド)により結合して、検索式に追加する。   The conversation tracking mode (second search mode) is a search mode in which search conditions are narrowed (reduced), and is a search mode with narrower search conditions than the topic provision mode. The conversation tracking mode is a search mode in which information such as images searched by narrowing down the content that the user wants to know is used as a keyword for words included in conversations by users such as meetings, for example. This conversation tracking mode is a search mode that is effective in the work of gathering opinions and information in a meeting. In the conversation tracking mode, the search control unit 1112 combines the keywords included in the newly input voice information (first information) by AND (AND) and adds it to the search formula.

例えば、会話追跡モードにおいて、検索制御部1112は、下記の式(3)に示すような検索式を生成する。   For example, in the conversation tracking mode, the search control unit 1112 generates a search formula as shown in the following formula (3).

検索式=KEY1 and KEY2 ・・・(3)
ここで、KEY1、及びKEY2は、キーワードを示す記号である。
Search formula = KEY1 and KEY2 (3)
Here, KEY1 and KEY2 are symbols indicating keywords.

この式(3)の検索式の状態において、音声認識部1111が新たにキーワード(KEY3)を抽出した場合、検索制御部1112は、キーワード(KEY3)を追加した下記の式(4)に示す検索式を生成する。   When the voice recognition unit 1111 newly extracts a keyword (KEY3) in the state of the search formula of the formula (3), the search control unit 1112 adds the keyword (KEY3) to the search shown in the following formula (4). Generate an expression.

検索式=KEY1 and KEY2 and KEY3 ・・・(4)   Search formula = KEY1 and KEY2 and KEY3 (4)

また、検索制御部1112は、音声認識部1111によって抽出された単語に予め定められた規定ワード(所定の単語)が含まれている場合に、規定ワードに応じて、話題提供モードと会話追跡モードとを切り替える。検索制御部1112は、例えば、表示部200に表示されている画像(画像群)などの情報に興味を持った場合に、話題提供モードから会話追跡モードに遷移させる。すなわち、検索制御部1112は、音声認識部1111によって抽出された単語に、例えば、「何」、「これ」などの代名詞が含まれている場合に、話題提供モードから会話追跡モードに遷移させる。
また、検索制御部1112は、例えば、使用者が検索結果に満足した場合に、会話追跡モードから話題提供モードに遷移させる。すなわち、検索制御部1112は、音声認識部1111によって抽出された単語に、満足したことが分かる規定ワード、例えば、「OK」、「あたり」、「それ」などの名詞又は代名詞が含まれている場合に、会話追跡モードから話題提供モードに遷移させる。
In addition, when the word extracted by the speech recognition unit 1111 includes a predetermined specified word (predetermined word), the search control unit 1112 determines the topic providing mode and the conversation tracking mode according to the specified word. And switch. For example, when the search control unit 1112 is interested in information such as an image (image group) displayed on the display unit 200, the search control unit 1112 shifts from the topic providing mode to the conversation tracking mode. That is, the search control unit 1112 shifts from the topic providing mode to the conversation tracking mode when the word extracted by the speech recognition unit 1111 includes, for example, pronouns such as “what” and “this”.
Further, for example, when the user is satisfied with the search result, the search control unit 1112 shifts from the conversation tracking mode to the topic providing mode. That is, the search control unit 1112 includes a specified word that is found to be satisfied in the word extracted by the speech recognition unit 1111, for example, a noun or pronoun such as “OK”, “around”, “it”, and the like. In this case, the conversation tracking mode is changed to the topic providing mode.

なお、検索制御部1112は、話題提供モードにおいて、検索結果であるの画像などの情報が多くなり過ぎて、不必要な検索結果を多く取得する場合がある。そのため、本実施形態では、検索制御部1112は、話題提供モードにおいて、検索結果の数が予め定められた第1の規定数以上になった場合に、キーワードを検索式から除外して、検索手段11に対して再検索をさせる。この場合、検索制御部1112は、例えば、音声認識部1111によって抽出された古い順(入力された古い順)に検索式からキーワードを除外する。ここで、上記のキーワードを検索式から除外するとは、検索式に含まれているキーワードから一部のキーワードを削除(除外)することである。   Note that the search control unit 1112 may acquire a lot of unnecessary search results because there is too much information such as images as search results in the topic providing mode. Therefore, in the present embodiment, the search control unit 1112 excludes the keyword from the search formula when the number of search results is equal to or more than a first predetermined number in the topic providing mode, and searches the search unit. 11 is searched again. In this case, for example, the search control unit 1112 excludes keywords from the search formula in the oldest order (the oldest input order) extracted by the voice recognition unit 1111. Here, excluding the above keywords from the search expression means to delete (exclude) some keywords from the keywords included in the search expression.

また、検索制御部1112は、会話追跡モードにおいて、必要な検索結果を得られない場合がある。そのため、本実施形態では、検索制御部1112は、会話追跡モードにおいて、検索結果の数が予め定められた第2の規定数以下になった場合に、キーワードを検索式から除外して、検索手段11に対して再検索をさせる。この場合、検索制御部1112は、例えば、音声認識部1111によって抽出された古い順(入力された古い順)に検索式からキーワードを除外する。   In addition, the search control unit 1112 may not obtain a required search result in the conversation tracking mode. Therefore, in the present embodiment, the search control unit 1112 excludes the keyword from the search formula when the number of search results is equal to or less than a predetermined second specified number in the conversation tracking mode, and searches the search unit. 11 is searched again. In this case, for example, the search control unit 1112 excludes keywords from the search formula in the oldest order (the oldest input order) extracted by the voice recognition unit 1111.

このように、検索制御部1112は、音声認識部1111によって抽出された単語に基づいて、話題提供モードと会話追跡モードとを選択的に切り替えて検索式を生成する。検索制御部1112は、生成した検索式を検索手段11に供給し、検索結果である画像などの情報を、ネットワーク15を介して検索手段11から取得する。検索制御部1112は、検索手段11から取得した検索結果を表示部200に供給し、表示部200に表示させる。   As described above, the search control unit 1112 selectively switches between the topic providing mode and the conversation tracking mode based on the words extracted by the voice recognition unit 1111 and generates a search expression. The search control unit 1112 supplies the generated search expression to the search unit 11 and acquires information such as an image as a search result from the search unit 11 via the network 15. The search control unit 1112 supplies the search result acquired from the search unit 11 to the display unit 200 and causes the display unit 200 to display the search result.

表示部200は、例えば、液晶ディスプレイなどの表示装置である。表示部200は、検索制御部1112から供給された画像などの情報(第2の情報)を表示する。   The display unit 200 is a display device such as a liquid crystal display. The display unit 200 displays information (second information) such as an image supplied from the search control unit 1112.

次に、本実施形態における検索装置(情報表示装置1200)の動作について説明する。
図20は、本実施形態における話題提供モードの処理の一例を示すフローチャートである。
この図において、まず、制御部1102は、収音部101から音声入力があったか否かを判定する(ステップS101)。すなわち、制御部1102は、収音部101から音声認識部1111に音声情報が入力されたか否かを判定する。制御部1102は、音声情報が入力されたと判定した場合(ステップS101:YES)に、処理をステップS102に進める。制御部1102は、音声情報が入力されていないと判定した場合(ステップS101:NO)に、処理をステップS101に戻し、音声情報が入力されるまでステップS101の処理を繰り返す。
Next, the operation of the search device (information display device 1200) in the present embodiment will be described.
FIG. 20 is a flowchart illustrating an example of processing in the topic provision mode in the present embodiment.
In this figure, first, the control unit 1102 determines whether or not there is an audio input from the sound collection unit 101 (step S101). That is, the control unit 1102 determines whether audio information is input from the sound collection unit 101 to the audio recognition unit 1111. When it is determined that voice information has been input (step S101: YES), the control unit 1102 advances the process to step S102. When it is determined that no voice information is input (step S101: NO), the control unit 1102 returns the process to step S101 and repeats the process of step S101 until the voice information is input.

次に、制御部1102は、音声認識及び形態素解析を行う(ステップS102)。すなわち、制御部1102の音声認識部1111は、入力された音声情報を認識して、テキスト情報(文章)に変換するとともに、テキスト情報に含まれる単語を抽出する。音声認識部1111は、抽出した単語を検索制御部1112に供給する。   Next, the control unit 1102 performs speech recognition and morphological analysis (step S102). That is, the voice recognition unit 1111 of the control unit 1102 recognizes the input voice information, converts it into text information (sentence), and extracts words included in the text information. The voice recognition unit 1111 supplies the extracted word to the search control unit 1112.

次に、制御部1102は、検索ワード(キーワード)追加及び検索処理を実行する(ステップS103)。すなわち、制御部1102の検索制御部1112は、新たに入力された音声情報(第1の情報)に含まれるキーワードを論理和(OR)により結合して、検索式に追加する。検索制御部1112は、生成した検索式を検索手段11にネットワーク15を介して供給し、検索結果である画像などの情報を、ネットワーク15を介して検索手段11から取得する。   Next, the control unit 1102 executes search word (keyword) addition and search processing (step S103). That is, the search control unit 1112 of the control unit 1102 combines the keywords included in the newly input voice information (first information) with a logical sum (OR), and adds them to the search formula. The search control unit 1112 supplies the generated search expression to the search unit 11 via the network 15, and acquires information such as an image as a search result from the search unit 11 via the network 15.

次に、制御部1102は、検索結果を表示部200に表示させる(ステップS104)。すなわち、制御部1102の検索制御部1112は、検索結果として取得した画像などの情報を表示部200に供給して表示させる。これにより、表示部200は、検索制御部1112から供給された検索結果である画像などの情報を表示する。   Next, the control unit 1102 displays the search result on the display unit 200 (step S104). That is, the search control unit 1112 of the control unit 1102 supplies information such as an image acquired as a search result to the display unit 200 for display. Accordingly, the display unit 200 displays information such as an image that is a search result supplied from the search control unit 1112.

次に、制御部1102は、入力された音声情報に規定ワードが含まれていたか否かを判定する(ステップS105)。すなわち、制御部1102の検索制御部1112は、音声認識部1111によって抽出された単語の中に、規定ワード(所定の単語)が含まれているか否かを判定する。ここで、規定ワードは、上述したように、例えば、「何」、「これ」などの代名詞である。検索制御部1112は、規定ワード(所定の単語)が含まれていると判定した場合(ステップS105:YES)に、処理を話題提供モードから会話追跡モード(図21のステップS111)に遷移させる。また、検索制御部1112は、規定ワード(所定の単語)が含まれていると判定した場合(ステップS105:NO)に、処理をステップS106に進める。   Next, the control unit 1102 determines whether or not a specified word is included in the input voice information (step S105). That is, the search control unit 1112 of the control unit 1102 determines whether or not a prescribed word (predetermined word) is included in the words extracted by the speech recognition unit 1111. Here, as described above, the specified word is a pronoun such as “what” or “this”. When it is determined that the specified word (predetermined word) is included (step S105: YES), the search control unit 1112 shifts the processing from the topic providing mode to the conversation tracking mode (step S111 in FIG. 21). If the search control unit 1112 determines that the specified word (predetermined word) is included (step S105: NO), the search control unit 1112 advances the process to step S106.

次に、ステップS106において、制御部1102は、検索結果が規定数(第1の規定数)以上であるか否かを判定する。すなわち、制御部1102の検索制御部1112は、検索手段11から取得した検索結果(第2の情報)の数が規定数(第1の規定数)以上であるか否かを判定する。検索制御部1112は、検索結果の数が規定数(第1の規定数)以上であると判定した場合(ステップS106:YES)に、処理をステップS107に進める。また、検索制御部1112は、検索結果の数が規定数(第1の規定数)未満であると判定した場合(ステップS106:NO)に、処理をステップS101に戻す。   Next, in step S106, the control unit 1102 determines whether or not the search result is equal to or greater than a specified number (first specified number). That is, the search control unit 1112 of the control unit 1102 determines whether or not the number of search results (second information) acquired from the search unit 11 is equal to or greater than a specified number (first specified number). If the search control unit 1112 determines that the number of search results is greater than or equal to the specified number (first specified number) (step S106: YES), the search control unit 1112 advances the process to step S107. In addition, when the search control unit 1112 determines that the number of search results is less than the specified number (first specified number) (step S106: NO), the search control unit 1112 returns the process to step S101.

次に、ステップS107において、制御部1102は、古い文章(音声情報)に含まれている単語を削除して、処理をステップS101に戻す。すなわち、制御部1102の検索制御部1112は、音声認識部1111によって抽出された古い順(入力された古い順)に検索式からキーワードを除外して、処理をステップS101に戻す。   Next, in step S107, the control unit 1102 deletes the word contained in the old sentence (voice information), and returns the process to step S101. That is, the search control unit 1112 of the control unit 1102 excludes keywords from the search formula in the oldest order (the oldest input order) extracted by the speech recognition unit 1111 and returns the process to step S101.

このように、本実施形態における話題提供モードでは、制御部1102は、新たに入力された音声情報(第1の情報)に含まれるキーワードを論理和(OR)により結合して、検索式に追加して、検索手段11に検索結果である画像などの情報を検索させる。そして、制御部1102は、検索結果を表示部200に表示させるとともに、検索結果の数が予め定められた第1の規定数以上になった場合に、キーワードを検索式から除外して、検索手段11に対して再検索をさせる。   As described above, in the topic providing mode according to the present embodiment, the control unit 1102 combines the keywords included in the newly input voice information (first information) with a logical sum (OR) and adds the keywords to the search formula. Then, the search unit 11 is made to search for information such as an image as a search result. Then, the control unit 1102 displays the search result on the display unit 200, and excludes the keyword from the search formula when the number of search results is equal to or more than a predetermined first predetermined number, and searches the search unit. 11 is searched again.

また、図21は、本実施形態における会話追跡モードの処理の一例を示すフローチャートである。
この図において、まず、制御部1102は、収音部101から音声入力があったか否かを判定する(ステップS111)。すなわち、制御部1102は、収音部101から音声認識部1111に音声情報が入力されたか否かを判定する。制御部1102は、音声情報が入力されたと判定した場合(ステップS111:YES)に、処理をステップS112に進める。制御部1102は、音声情報が入力されていないと判定した場合(ステップS111:NO)に、処理をステップS111に戻し、音声情報が入力されるまでステップS111の処理を繰り返す。
FIG. 21 is a flowchart showing an example of processing in the conversation tracking mode in the present embodiment.
In this figure, first, the control unit 1102 determines whether or not there is an audio input from the sound collection unit 101 (step S111). That is, the control unit 1102 determines whether audio information is input from the sound collection unit 101 to the audio recognition unit 1111. When it is determined that voice information has been input (step S111: YES), the control unit 1102 advances the process to step S112. When it is determined that the voice information is not input (step S111: NO), the control unit 1102 returns the process to step S111 and repeats the process of step S111 until the voice information is input.

次に、制御部1102は、音声認識及び形態素解析を行う(ステップS112)。すなわち、制御部1102の音声認識部1111は、入力された音声情報を認識して、テキスト情報(文章)に変換するとともに、テキスト情報に含まれる単語を抽出する。音声認識部1111は、抽出した単語を検索制御部1112に供給する。   Next, the control unit 1102 performs voice recognition and morphological analysis (step S112). That is, the voice recognition unit 1111 of the control unit 1102 recognizes the input voice information, converts it into text information (sentence), and extracts words included in the text information. The voice recognition unit 1111 supplies the extracted word to the search control unit 1112.

次に、制御部1102は、検索ワード(キーワード)追加及び検索処理を実行する(ステップS113)。すなわち、制御部1102の検索制御部1112は、新たに入力された音声情報(第1の情報)に含まれるキーワードを論理積(AND)により結合して、検索式に追加する。検索制御部1112は、生成した検索式を検索手段11にネットワーク15を介して供給し、検索結果である画像などの情報を、ネットワーク15を介して検索手段11から取得する。   Next, the control unit 1102 executes search word (keyword) addition and search processing (step S113). That is, the search control unit 1112 of the control unit 1102 combines the keywords included in the newly input voice information (first information) by logical product (AND) and adds them to the search formula. The search control unit 1112 supplies the generated search expression to the search unit 11 via the network 15, and acquires information such as an image as a search result from the search unit 11 via the network 15.

次に、制御部1102は、検索結果を表示部200に表示させる(ステップS114)。すなわち、制御部1102の検索制御部1112は、検索結果として取得した画像などの情報を表示部200に供給して表示させる。これにより、表示部200は、検索制御部1112から供給された検索結果である画像などの情報を表示する。   Next, the control unit 1102 displays the search result on the display unit 200 (step S114). That is, the search control unit 1112 of the control unit 1102 supplies information such as an image acquired as a search result to the display unit 200 for display. Accordingly, the display unit 200 displays information such as an image that is a search result supplied from the search control unit 1112.

次に、制御部1102は、入力された音声情報に規定ワードが含まれていたか否かを判定する(ステップS115)。すなわち、制御部1102の検索制御部1112は、音声認識部1111によって抽出された単語の中に、規定ワード(所定の単語)が含まれているか否かを判定する。ここで、規定ワードは、上述したように、例えば、「OK」、「あたり」、「それ」などの名詞又は代名詞である。検索制御部1112は、規定ワード(所定の単語)が含まれていると判定した場合(ステップS115:YES)に、処理を会話追跡モードから話題提供モード(図20のステップS101)に遷移させる。また、検索制御部1112は、規定ワード(所定の単語)が含まれていると判定した場合(ステップS115:NO)に、処理をステップS116に進める。   Next, the control unit 1102 determines whether or not a specified word is included in the input voice information (step S115). That is, the search control unit 1112 of the control unit 1102 determines whether or not a prescribed word (predetermined word) is included in the words extracted by the speech recognition unit 1111. Here, the specified word is a noun or pronoun such as “OK”, “around”, “it”, etc., as described above. When it is determined that the specified word (predetermined word) is included (step S115: YES), the search control unit 1112 shifts the processing from the conversation tracking mode to the topic providing mode (step S101 in FIG. 20). If the search control unit 1112 determines that the specified word (predetermined word) is included (step S115: NO), the search control unit 1112 advances the process to step S116.

次に、ステップS116において、制御部1102は、検索結果が規定数(第2の規定数)以下であるか否かを判定する。すなわち、制御部1102の検索制御部1112は、検索手段11から取得した検索結果の数が規定数(第2の規定数)以下であるか否かを判定する。検索制御部1112は、検索結果の数が規定数(第1の規定数)以下であると判定した場合(ステップS116:YES)に、処理をステップS117に進める。また、検索制御部1112は、検索結果の数が規定数(第2の規定数)を超えると判定した場合(ステップS116:NO)に、処理をステップS111に戻す。なお、本実施形態において、上述した第1の規定数と第2の規定数とは、(第1の規定数>第2の規定数)の関係にあり、第1の規定数と第2の規定数とは、検索結果が適切な数を維持するように、予め定められている。   Next, in step S116, the control unit 1102 determines whether or not the search result is equal to or less than a specified number (second specified number). That is, the search control unit 1112 of the control unit 1102 determines whether or not the number of search results acquired from the search unit 11 is equal to or less than a specified number (second specified number). If the search control unit 1112 determines that the number of search results is equal to or less than the specified number (first specified number) (step S116: YES), the search control unit 1112 advances the process to step S117. If the search control unit 1112 determines that the number of search results exceeds the specified number (second specified number) (step S116: NO), the search control unit 1112 returns the process to step S111. In the present embodiment, the first specified number and the second specified number described above have a relationship of (first specified number> second specified number), and the first specified number and the second specified number The specified number is determined in advance so as to maintain an appropriate number of search results.

次に、ステップS117において、制御部1102は、古い文章(音声情報)に含まれている単語を削除して、処理をステップS111に戻す。すなわち、制御部1102の検索制御部1112は、音声認識部1111によって抽出された古い順(入力された古い順)に検索式からキーワードを除外して、処理をステップS111に戻す。   Next, in step S117, the control unit 1102 deletes the word included in the old sentence (speech information), and returns the process to step S111. That is, the search control unit 1112 of the control unit 1102 excludes keywords from the search formula in the oldest order (the oldest input order) extracted by the speech recognition unit 1111 and returns the process to step S111.

このように、本実施形態における会話追跡モードでは、制御部1102は、新たに入力された音声情報(第1の情報)に含まれるキーワードを論理積(AND)により結合して、検索式に追加して、検索手段11に検索結果である画像などの情報を検索させる。そして、制御部1102は、検索結果を表示部200に表示させるとともに、検索結果の数が予め定められた第2の規定数以下になった場合に、キーワードを検索式から除外して、検索手段11に対して再検索をさせる。   As described above, in the conversation tracking mode according to the present embodiment, the control unit 1102 combines the keywords included in the newly input voice information (first information) with the logical product (AND) and adds them to the search expression. Then, the search unit 11 is made to search for information such as an image as a search result. Then, the control unit 1102 causes the display unit 200 to display the search results, and excludes the keyword from the search formula when the number of search results is equal to or less than a predetermined second predetermined number, and searches the search unit. 11 is searched again.

以上、説明したように、本実施形態における制御部1102(検索制御装置)は、音声認識部1111と、検索制御部1112と、を備えている。音声認識部1111は、入力された音声情報(第1の情報)に含まれる単語を抽出する。検索制御部1112は、音声認識部1111によって抽出された単語に基づく検索条件に基づいて、検索結果として出力される画像などの情報を検索手段11に対して検索させる。そして、検索制御部1112は、検索条件を広めていく話題提供モードと、検索条件を狭めていく会話追跡モードとを有する。   As described above, the control unit 1102 (search control device) in the present embodiment includes the voice recognition unit 1111 and the search control unit 1112. The voice recognition unit 1111 extracts words included in the input voice information (first information). The search control unit 1112 causes the search unit 11 to search for information such as an image output as a search result based on a search condition based on the word extracted by the speech recognition unit 1111. The search control unit 1112 has a topic providing mode in which the search condition is widened and a conversation tracking mode in which the search condition is narrowed.

これにより、本実施形態における検索装置(情報表示装置1200)は、話題提供モードにおいて、例えば、使用者の会話から現在、使用者が興味を持っている内容を検索した検索結果を表示部200に表示する。そして、本実施形態における検索装置(情報表示装置1200)は、会話追跡モードにおいて、そこから使用者が知りたい内容を絞り込むように、検索した検索結果を表示部200に表示する。そのため、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、使用者に幅広い情報を提供しつつ、知りたい内容に絞り込んだ情報を提供することができる。例えば、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、使用者が意図して選定した固定の検索条件ではなく、使用者の自然な会話の中から抽出した検索条件により、多種多様な幅広い話題を提供しつつ、使用者が興味を持った話題を掘り下げた情報を提供することができる。よって、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、使用者に有益な情報を適切に提供することができる。   Accordingly, the search device (information display device 1200) in the present embodiment displays, on the display unit 200, a search result obtained by searching for the content that the user is currently interested in, for example, from the user's conversation in the topic providing mode. indicate. Then, in the conversation tracking mode, the search device (information display device 1200) in the present embodiment displays the searched search result on the display unit 200 so as to narrow down the content that the user wants to know. Therefore, the control unit 1102 and the search device (information display device 1200) according to the present embodiment can provide information narrowed down to contents that the user wants to know while providing a wide range of information to the user. For example, the control unit 1102 and the search device (information display device 1200) in the present embodiment are not fixed search conditions intentionally selected by the user, but by search conditions extracted from the user's natural conversation. While providing a wide variety of topics, it is possible to provide information that delves into topics that the user is interested in. Therefore, the control unit 1102 and the search device (information display device 1200) in the present embodiment can appropriately provide useful information to the user.

また、本実施形態では、検索制御部1112は、音声認識部1111によって抽出された単語に予め定められた所定の単語(規定ワード)が含まれている場合に、所定の単語に応じて、話題提供モードと会話追跡モードとを切り替える。
これにより、話題提供モードと会話追跡モードとの2つの検索モードを適切に切り替えることができるので、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、使用者に有益な情報を適切に提供することができる。
Further, in the present embodiment, the search control unit 1112, when the word extracted by the voice recognition unit 1111 includes a predetermined word (prescribed word), the topic is determined according to the predetermined word. Switch between provision mode and conversation tracking mode.
As a result, the two search modes, the topic providing mode and the conversation tracking mode, can be appropriately switched. Therefore, the control unit 1102 and the search device (information display device 1200) in this embodiment can provide information useful to the user. Can be provided appropriately.

また、本実施形態では、検索制御部1112は、音声認識部1111によって抽出された単語のうちのキーワード(検索ワード)を順次追加した検索式を、検索条件として生成し、生成した検索式に基づいて、画像などの情報を検索手段11に対して検索させる。
これにより、音声情報が順次入力されることによって、検索条件を広めていくこと、及び検索条件を狭めていくことが可能になる。そのため、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、話題提供モード及び会話追跡モードの検索を検索手段11に対して適切にさせることができる。
In the present embodiment, the search control unit 1112 generates a search expression in which keywords (search words) of the words extracted by the speech recognition unit 1111 are sequentially added as a search condition, and is based on the generated search expression. Thus, the search means 11 is made to search for information such as images.
Thereby, it becomes possible to widen the search condition and narrow the search condition by sequentially inputting the voice information. Therefore, the control unit 1102 and the search device (information display device 1200) in the present embodiment can make the search unit 11 appropriately search for the topic providing mode and the conversation tracking mode.

また、本実施形態では、検索制御部1112は、話題提供モードにおいて、キーワードを論理和(OR)により結合して検索式に追加し、会話追跡モードにおいて、キーワードを論理積(AND)により結合して検索式に追加する。
これにより、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、簡易な手段により適切に、2つの検索モードによる検索式を生成することができる。
In this embodiment, the search control unit 1112 combines keywords by logical sum (OR) in the topic providing mode and adds them to the search formula, and combines keywords by logical product (AND) in the conversation tracking mode. To add to the search expression.
As a result, the control unit 1102 and the search device (information display device 1200) in the present embodiment can appropriately generate search formulas in two search modes by simple means.

また、本実施形態では、検索制御部1112は、キーワードを音声認識部1111によって抽出された古い順に検索式から除外する。
これにより、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、古いキーワードを検索式から削除するので、適切な検索条件により、検索手段11に対して検索させることができる。
In this embodiment, the search control unit 1112 excludes keywords from the search formula in the oldest order extracted by the speech recognition unit 1111.
Thereby, since the control part 1102 and the search device (information display device 1200) in this embodiment delete an old keyword from a search formula, it can make the search means 11 search with an appropriate search condition.

また、本実施形態では、検索制御部1112は、話題提供モードにおいて、検索結果の数が予め定められた第1の規定数以上になった場合に、キーワードを検索式から除外する。
これにより、検索結果の数が低減される。そのため、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、検索結果であるの画像などの情報が多くなり過ぎて、不必要な検索結果を使用者に提供する状態になることを低減することができる。
In the present embodiment, the search control unit 1112 excludes the keyword from the search formula when the number of search results is equal to or more than a first predetermined number in the topic providing mode.
Thereby, the number of search results is reduced. For this reason, the control unit 1102 and the search device (information display device 1200) in the present embodiment are in a state of providing unnecessary search results to the user due to excessive information such as images as search results. Can be reduced.

また、本実施形態では、検索制御部1112は、会話追跡モードにおいて、検索結果の数が予め定められた第2の規定数以下になった場合に、キーワードを検索式から除外する。
これにより、検索結果の数が増加される。そのため、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、絞込み過ぎて必要な検索結果を使用者に提供できない状態になることを低減することができる。
In the present embodiment, the search control unit 1112 excludes the keyword from the search formula when the number of search results is equal to or less than a predetermined second specified number in the conversation tracking mode.
This increases the number of search results. Therefore, the control unit 1102 and the search device (information display device 1200) in the present embodiment can reduce the situation where the user cannot provide the user with the necessary search results due to excessive narrowing down.

また、本実施形態では、音声認識部1111は、入力された音声情報を認識してテキスト情報に変換するとともに、テキスト情報に含まれる単語を抽出する。
これにより、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、収音部101から入力された音声情報から単語を抽出し、抽出した単語に基づく検索条件により画像などの情報(第2の情報)を検索することができる。そのため、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、使用者が意識していない自然な会話の中から、適切な情報(第2の情報)を検索して提供することができる。
In the present embodiment, the voice recognition unit 1111 recognizes input voice information and converts it into text information, and extracts a word included in the text information.
Thereby, the control unit 1102 and the search device (information display device 1200) in the present embodiment extract words from the audio information input from the sound collection unit 101, and information (such as images) according to the search conditions based on the extracted words ( Second information) can be retrieved. Therefore, the control unit 1102 and the search device (information display device 1200) according to the present embodiment search for and provide appropriate information (second information) from natural conversations that the user is not conscious of. Can do.

また、本実施形態における検索装置(情報表示装置1200)(出力装置)は、制御部1102と、制御部1102によって検索された画像などの情報を出力する表示部200とを備える。
これにより、本実施形態における検索装置(情報表示装置1200)は、検索した画像などの情報を使用者に適切に提供することができる。
Further, the search device (information display device 1200) (output device) in the present embodiment includes a control unit 1102 and a display unit 200 that outputs information such as an image searched by the control unit 1102.
Thereby, the search device (information display device 1200) in this embodiment can appropriately provide information such as the searched image to the user.

なお、上述した本実施形態では、検索制御部1112が、規定ワード(所定の単語)が含まれているか否かによって話題提供モードと会話追跡モードとを切り替える一例を説明したが、他の条件によってこの2つのモードを切り替えることも可能である。
次に、この2つのモードを切り替える変形例について説明する。
In the above-described embodiment, an example in which the search control unit 1112 switches between the topic providing mode and the conversation tracking mode depending on whether or not the specified word (predetermined word) is included has been described. It is also possible to switch between these two modes.
Next, a modified example for switching between the two modes will be described.

<第1の変形例>
第1の変形例では、検索制御部1112は、予め定められた所定の時間に応じて、話題提供モードと会話追跡モードとを切り替える。ここで、所定の時間とは、例えば、会議の予定期間の3分の2(2/3)の時間、終了予定時間の10分前の時間、会議開始からの所定の経過時間などである。
<First Modification>
In the first modification, the search control unit 1112 switches between the topic providing mode and the conversation tracking mode according to a predetermined time. Here, the predetermined time is, for example, two-thirds (2/3) of the scheduled conference period, a time ten minutes before the scheduled end time, a predetermined elapsed time from the start of the conference, or the like.

図22は、本実施形態における話題提供モードの第1の変形例を示すフローチャートである。
この図における話題提供モードの処理は、ステップS105aの処理が異なる点を除いて図20に示される話題提供モードの処理と同様である。ここでは、ステップS105aの処理について説明する。
FIG. 22 is a flowchart showing a first modification of the topic providing mode in the present embodiment.
The topic providing mode process in this figure is the same as the topic providing mode process shown in FIG. 20 except that the process in step S105a is different. Here, the process of step S105a will be described.

ステップS105aにおいて、制御部1102の検索制御部1112は、所定の時間が経過したか否かを判定する。ここで、所定の時間は、上述したように、例えば、会議の予定期間の3分の2(2/3)の時間である。検索制御部1112は、所定の時間が経過したと判定した場合(ステップS105a:YES)に、処理を話題提供モードから会話追跡モードに遷移させる。また、検索制御部1112は、所定の時間が経過していないと判定した場合(ステップS105a:NO)に、処理をステップS106に進める。
なお、図示を省略するが、会話追跡モードにおいても図22と同様に、所定の時間に応じて、会話追跡モードから話題提供モードに切り替えてもよい。
In step S105a, the search control unit 1112 of the control unit 1102 determines whether a predetermined time has elapsed. Here, as described above, the predetermined time is, for example, two-thirds (2/3) of the scheduled conference period. When it is determined that the predetermined time has elapsed (step S105a: YES), the search control unit 1112 shifts the processing from the topic providing mode to the conversation tracking mode. If the search control unit 1112 determines that the predetermined time has not elapsed (step S105a: NO), the search control unit 1112 advances the process to step S106.
Although not shown, the conversation tracking mode may be switched from the conversation tracking mode to the topic providing mode according to a predetermined time in the conversation tracking mode as in FIG.

このように、検索制御部1112は、予め定められた所定の時間に応じて、話題提供モードと会話追跡モードとを切り替える。
これにより、話題提供モードと会話追跡モードとの2つの検索モードを適切に切り替えることができるので、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、使用者に有益な情報を適切に提供することができる。例えば、会議において、所定の時間に応じて、話題提供モードと会話追跡モードとを切り替えるので、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、会議の進行に合せて有益な情報を提供することができる。
As described above, the search control unit 1112 switches between the topic provision mode and the conversation tracking mode according to a predetermined time.
As a result, the two search modes, the topic providing mode and the conversation tracking mode, can be appropriately switched. Therefore, the control unit 1102 and the search device (information display device 1200) in this embodiment can provide information useful to the user. Can be provided appropriately. For example, in the conference, the topic providing mode and the conversation tracking mode are switched according to a predetermined time, so that the control unit 1102 and the search device (information display device 1200) in the present embodiment are useful in accordance with the progress of the conference. Information can be provided.

<第2の変形例>
第2の変形例では、検索制御部1112は、音声認識部1111によって抽出された単語に検索式に含まれるキーワードが含まれている場合に、話題提供モードと会話追跡モードとを切り替える。すなわち、検索制御部1112は、音声情報(例えば、会話における音声情報)の中に、同じキーワード(検索ワード)が出てきた場合に、話題提供モードと会話追跡モードとを切り替える。
<Second Modification>
In the second modification, the search control unit 1112 switches between the topic providing mode and the conversation tracking mode when the keyword extracted by the speech recognition unit 1111 includes a keyword included in the search expression. That is, the search control unit 1112 switches between the topic providing mode and the conversation tracking mode when the same keyword (search word) appears in the voice information (for example, voice information in conversation).

図23は、本実施形態における話題提供モードの第1の変形例を示すフローチャートである。
この図における話題提供モードの処理は、ステップS105bの処理が異なる点を除いて図20に示される話題提供モードの処理と同様である。ここでは、ステップS105bの処理について説明する。
FIG. 23 is a flowchart showing a first modification of the topic providing mode in the present embodiment.
The topic providing mode process in this figure is the same as the topic providing mode process shown in FIG. 20 except that the process in step S105b is different. Here, the process of step S105b will be described.

ステップS105bにおいて、制御部1102は、入力された音声情報に同一の検索ワード(キーワード)が含まれているか否かを判定する。すなわち、制御部1102の検索制御部1112は、音声認識部1111によって抽出された単語の中に、検索式に含まれるキーワードが含まれているか否かを判定する。検索制御部1112は、抽出された単語の中に、検索式に含まれるキーワードが含まれていると判定した場合(ステップS105b:YES)に、処理を話題提供モードから会話追跡モードに遷移させる。また、検索制御部1112は、抽出された単語の中に、検索式に含まれるキーワードが含まれていないと判定した場合(ステップS105b:NO)に、処理をステップS106に進める。   In step S105b, the control unit 1102 determines whether the same search word (keyword) is included in the input voice information. That is, the search control unit 1112 of the control unit 1102 determines whether or not a keyword included in the search formula is included in the words extracted by the speech recognition unit 1111. When it is determined that the extracted word includes a keyword included in the search expression (step S105b: YES), the search control unit 1112 shifts the processing from the topic providing mode to the conversation tracking mode. If the search control unit 1112 determines that the extracted word does not include the keyword included in the search expression (step S105b: NO), the search control unit 1112 advances the process to step S106.

このように、検索制御部1112は、音声認識部1111によって抽出された単語に検索式に含まれるキーワードが含まれている場合に、話題提供モードと会話追跡モードとを切り替える。
これにより、話題提供モードと会話追跡モードとの2つの検索モードを適切に切り替えることができるので、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、使用者に有益な情報を適切に提供することができる。
As described above, the search control unit 1112 switches between the topic providing mode and the conversation tracking mode when the keyword extracted by the speech recognition unit 1111 includes a keyword included in the search expression.
As a result, the two search modes, the topic providing mode and the conversation tracking mode, can be appropriately switched. Therefore, the control unit 1102 and the search device (information display device 1200) in this embodiment can provide information useful to the user. Can be provided appropriately.

<第3の変形例>
第3の変形例では、検索制御部1112は、特定の話者が話している場合に、話題提供モードと会話追跡モードとを切り替える。
例えば、音声認識部1111は、収音部101から入力された音声情報に基づいて、話者を識別し、話者を示す情報と抽出した単語とを関連付けて、検索制御部1112に供給する。なお、音声認識部1111は、話者の識別を声紋などの音声情報における特徴量に基づいて行ってもよいし、複数の収音部101から入力される音声情報により、音声の方向から識別してもよい。
検索制御部1112は、例えば、話者が会議における議長のように会議をまとめる立場の人であった場合に、会議がまとめに移行したと判定し、話題提供モードから会話追跡モードに切り替える。また、検索制御部1112は、例えば、話者が参考意見を述べる立場の人や、様々な意見を出す立場にある人である場合に、会話追跡モードからに話題提供モード切り替える。
<Third Modification>
In the third modification, the search control unit 1112 switches between the topic providing mode and the conversation tracking mode when a specific speaker is speaking.
For example, the voice recognition unit 1111 identifies the speaker based on the voice information input from the sound collection unit 101, associates the information indicating the speaker with the extracted word, and supplies the information to the search control unit 1112. Note that the voice recognition unit 1111 may identify the speaker based on the feature amount in voice information such as a voiceprint, or may identify the speaker from the direction of voice based on the voice information input from the plurality of sound pickup units 101. May be.
For example, when the speaker is a person who brings together a meeting like a chairperson in the meeting, the search control unit 1112 determines that the meeting has shifted to a summary, and switches from the topic providing mode to the conversation tracking mode. The search control unit 1112 switches the topic providing mode from the conversation tracking mode when, for example, the speaker is a person in a position to give a reference opinion or a person in a position to give various opinions.

このように、検索制御部1112は、特定の話者が話している場合に、話題提供モードと会話追跡モードとを切り替える。
これにより、話題提供モードと会話追跡モードとの2つの検索モードを適切に切り替えることができるので、本実施形態における制御部1102及び検索装置(情報表示装置1200)は、使用者に有益な情報を適切に提供することができる。
In this way, the search control unit 1112 switches between the topic providing mode and the conversation tracking mode when a specific speaker is speaking.
As a result, the two search modes, the topic providing mode and the conversation tracking mode, can be appropriately switched. Therefore, the control unit 1102 and the search device (information display device 1200) in this embodiment can provide information useful to the user. Can be provided appropriately.

なお、本実施形態において、話題提供モードと会話追跡モードとを切り替える際に、検索制御部1112は、例えば、検索式を一旦削除して、直近のキーワード、又は直近の所定の数のキーワードによって、検索式を新たに生成してもよい。例えば、話題提供モードから会話追跡モードに切り替った場合には、検索制御部1112は、直近の所定の数のキーワードを論理積(AND)により結合して、検索式を生成してもよい。また、例えば、会話追跡モードから話題提供モードに切り替った場合には、検索制御部1112は、直近の所定の数のキーワードを論理和(OR)により結合して、検索式を生成してもよい。   In this embodiment, when switching between the topic providing mode and the conversation tracking mode, for example, the search control unit 1112 temporarily deletes the search expression and uses the most recent keyword or the most recent predetermined number of keywords. A new search expression may be generated. For example, when the topic providing mode is switched to the conversation tracking mode, the search control unit 1112 may generate a search expression by combining the most recent predetermined number of keywords with a logical product (AND). In addition, for example, when the conversation tracking mode is switched to the topic providing mode, the search control unit 1112 may generate a search expression by combining a predetermined number of keywords with a logical sum (OR). Good.

また、検索制御部1112は、話題提供モードと会話追跡モードとを切り替える際に、直近の直近の所定の数のキーワードのみの演算子を変更してもよい。例えば、話題提供モードから会話追跡モードに切り替った場合には、検索制御部1112は、直近の所定の数のキーワードを論理積(AND)により結合して、残りを論理和(OR)のままで検索式を生成してもよい。また、例えば、会話追跡モードから話題提供モードに切り替った場合には、検索制御部1112は、直近の所定の数のキーワードを論理和(OR)により結合して、残りを論理積(AND)のままで検索式を生成してもよい。
また、検索制御部1112は、話題提供モードと会話追跡モードとを切り替える際に、検索式はそのまま維持し、新たに追加するキーワードから演算子を変更して検索式を生成してもよい。
Further, the search control unit 1112 may change the operator of only the most recent predetermined number of keywords when switching between the topic providing mode and the conversation tracking mode. For example, when the topic providing mode is switched to the conversation tracking mode, the search control unit 1112 combines the most recent predetermined number of keywords by logical product (AND), and the rest remains the logical sum (OR). The search expression may be generated by. Further, for example, when the conversation tracking mode is switched to the topic providing mode, the search control unit 1112 combines the most recent predetermined number of keywords with a logical sum (OR), and the rest is logically ANDed. The search expression may be generated as it is.
The search control unit 1112 may maintain the search formula as it is when switching between the topic providing mode and the conversation tracking mode, and generate the search formula by changing the operator from the newly added keyword.

次に、第2の実施形態による検索制御装置、及び検索装置(出力装置)について、図面を参照して説明する。
[第13の実施形態]
第13の実施形態における検索装置(情報表示装置1200)のシステム構成は、図18に示される第12の実施形態における検索装置(情報表示装置1200)のシステム構成と同様である。
図24は、第13の実施形態による検索装置(情報表示装置1200)のブロック図である。
図24において、検索装置(情報表示装置1200)(出力装置)は、制御部1102aと、表示部200とを備えている。なお、本実施形態において、制御部1102aは、検索制御装置として機能する。
この図において、図19と同一の構成については同一の符号を付し、その説明を省略する。
Next, a search control device and a search device (output device) according to a second embodiment will be described with reference to the drawings.
[Thirteenth embodiment]
The system configuration of the search device (information display device 1200) in the thirteenth embodiment is the same as the system configuration of the search device (information display device 1200) in the twelfth embodiment shown in FIG.
FIG. 24 is a block diagram of a search device (information display device 1200) according to the thirteenth embodiment.
In FIG. 24, a search device (information display device 1200) (output device) includes a control unit 1102a and a display unit 200. In the present embodiment, the control unit 1102a functions as a search control device.
In this figure, the same components as those in FIG. 19 are denoted by the same reference numerals, and the description thereof is omitted.

制御部1102aは、検索装置(情報表示装置1200)の各部を制御する。制御部1102aは、収音部101から入力された音声情報(第1の情報)に基づいて、ネットワーク15を介して検索手段11に検索させ、検索結果として画像などの情報を取得する。また、制御部1102aは、検索手段11から取得した画像などの情報を表示部200に表示させる。なお、本実施形態では、制御部1102aは、入力された音声情報(文章)が否定文であった場合に、使用者がその文章に含まれる単語を望んでいないと判定し、先のキーワードからその否定文に含まれる単語を除いて再検索する。
また、制御部1102aは、音声認識部1111と、検索制御部1112と、否定文検出部1113とを備えている。
The control unit 1102a controls each unit of the search device (information display device 1200). Based on the voice information (first information) input from the sound collection unit 101, the control unit 1102a causes the search unit 11 to search via the network 15, and acquires information such as an image as a search result. In addition, the control unit 1102 a causes the display unit 200 to display information such as an image acquired from the search unit 11. In the present embodiment, when the input voice information (sentence) is a negative sentence, the control unit 1102a determines that the user does not want a word included in the sentence, and starts from the previous keyword. Search again without the words contained in the negative sentence.
In addition, the control unit 1102 a includes a voice recognition unit 1111, a search control unit 1112, and a negative sentence detection unit 1113.

否定文検出部1113(検出部)は、収音部101から入力された音声情報に含まれる否定文を検出する。ここで、否定文とは、否定を示す単語を含む文章である。また、否定を示す単語とは、「でない」、「じゃない」、「ちがう」、「だめ」などである。例えば、否定文検出部1113は、音声認識部1111が音声情報を認識したテキスト情報、及び音声認識部1111によって抽出された単語を、音声認識部1111から取得する。否定文検出部1113は、音声認識部1111から取得したテキスト情報、及び単語に基づいて否定文を検出する。否定文検出部1113は、例えば、テキスト情報に基づいて文章を抽出し、抽出した文章の中に否定を示す単語が含まれているか否かに基づいて否定文を検出する。否定文検出部1113は、検出した否定文及び否定文に含まれる単語を検索制御部1112に供給する。   The negative sentence detection unit 1113 (detection unit) detects a negative sentence included in the voice information input from the sound collection unit 101. Here, the negative sentence is a sentence including a word indicating negative. Also, the words indicating negative are “not”, “not”, “no”, “no”, and the like. For example, the negative sentence detection unit 1113 acquires from the speech recognition unit 1111 the text information that the speech recognition unit 1111 has recognized the speech information and the words extracted by the speech recognition unit 1111. The negative sentence detection unit 1113 detects a negative sentence based on the text information acquired from the voice recognition unit 1111 and the word. For example, the negative sentence detection unit 1113 extracts a sentence based on text information, and detects a negative sentence based on whether or not a word indicating negative is included in the extracted sentence. The negative sentence detection unit 1113 supplies the detected negative sentence and the words included in the negative sentence to the search control unit 1112.

検索制御部1112は、否定文検出部1113によって否定文が検出された場合に、否定文に含まれるキーワードを検索式から除外する。例えば、検索制御部1112は、否定文検出部1113から供給された否定文があるか否かを判定する。さらに、検索制御部1112は、否定文があると判定した場合に、否定文検出部1113から供給された単語が検索式の中にあるか否かを判定する。そして、検索制御部1112は、検索式の中にあると判定された単語を検索式から削除する。また、検索制御部1112は、否定文があると判定した場合に、新たに入力された音声情報(第1の情報)に含まれるキーワードを2つの検索モードに応じて、論理和(OR)又は論理積(AND)により結合して検索式に追加する。
検索制御部1112において、その他の処理は、第12の実施形態と同様であるので、ここでは説明を省略する。
When a negative sentence is detected by the negative sentence detection unit 1113, the search control unit 1112 excludes a keyword included in the negative sentence from the search formula. For example, the search control unit 1112 determines whether there is a negative sentence supplied from the negative sentence detection unit 1113. Furthermore, when it is determined that there is a negative sentence, the search control unit 1112 determines whether or not the word supplied from the negative sentence detection unit 1113 is in the search formula. Then, the search control unit 1112 deletes the word determined to be in the search formula from the search formula. In addition, when the search control unit 1112 determines that there is a negative sentence, the keyword included in the newly input voice information (first information) is ORed (OR) or according to two search modes. Combined by AND (AND) and added to the search expression.
Since other processing in the search control unit 1112 is the same as that in the twelfth embodiment, description thereof is omitted here.

次に、本実施形態における検索装置(情報表示装置1200)の動作について説明する。
図25は、本実施形態における話題提供モードの処理の一例を示すフローチャートである。
この図において、本実施形態では、制御部1102aが、否定文による判定処理を行う点が、図20に示される第12の実施形態における話題提供モードの処理と異なる。
この図において、まず、制御部1102aは、収音部101から音声入力があったか否かを判定する(ステップS201)。すなわち、制御部1102aは、収音部101から音声認識部1111に音声情報が入力されたか否かを判定する。制御部1102aは、音声情報が入力されたと判定した場合(ステップS201:YES)に、処理をステップS202に進める。制御部1102aは、音声情報が入力されていないと判定した場合(ステップS201:NO)に、処理をステップS201に戻し、音声情報が入力されるまでステップS201の処理を繰り返す。
Next, the operation of the search device (information display device 1200) in the present embodiment will be described.
FIG. 25 is a flowchart illustrating an example of processing in the topic provision mode in the present embodiment.
In this figure, in this embodiment, the point that the control unit 1102a performs a determination process using a negative sentence is different from the process in the topic provision mode in the twelfth embodiment shown in FIG.
In this figure, first, the control unit 1102a determines whether or not there is an audio input from the sound collection unit 101 (step S201). That is, the control unit 1102a determines whether or not voice information is input from the sound collection unit 101 to the voice recognition unit 1111. When it is determined that the audio information has been input (step S201: YES), the control unit 1102a advances the process to step S202. When it is determined that the voice information is not input (step S201: NO), the control unit 1102a returns the process to step S201 and repeats the process of step S201 until the voice information is input.

次に、制御部1102aは、音声認識及び形態素解析を行う(ステップS202)。すなわち、制御部1102aの音声認識部1111は、入力された音声情報を認識して、テキスト情報(文章)に変換するとともに、テキスト情報に含まれる単語を抽出する。音声認識部1111は、抽出した単語を検索制御部1112に供給する。また、音声認識部1111は、変換したテキスト情報(文章)と抽出した単語とを否定文検出部1113に供給する。   Next, the control unit 1102a performs voice recognition and morphological analysis (step S202). That is, the voice recognition unit 1111 of the control unit 1102a recognizes input voice information, converts it into text information (sentence), and extracts words included in the text information. The voice recognition unit 1111 supplies the extracted word to the search control unit 1112. The voice recognition unit 1111 supplies the converted text information (sentence) and the extracted word to the negative sentence detection unit 1113.

次に、制御部1102aは、否定文があるか否かを判定する(ステップS203)。まず、制御部1102aの否定文検出部1113は、音声認識部1111から取得したテキスト情報、及び単語に基づいて否定文を検出する。否定文検出部1113は、検出した否定文及び否定文に含まれる単語を検索制御部1112に供給する。検索制御部1112は、否定文検出部1113から供給された否定文があるか否かを判定する。検索制御部1112は、否定文があると判定した場合(ステップS203:YES)に、処理をステップS204に進める。また、検索制御部1112は、否定文がないと判定した場合(ステップS203:NO)に、処理をステップS205に進める。   Next, the control unit 1102a determines whether there is a negative sentence (step S203). First, the negative sentence detection part 1113 of the control part 1102a detects a negative sentence based on the text information acquired from the speech recognition part 1111 and the word. The negative sentence detection unit 1113 supplies the detected negative sentence and the words included in the negative sentence to the search control unit 1112. The search control unit 1112 determines whether there is a negative sentence supplied from the negative sentence detection unit 1113. When it is determined that there is a negative sentence (step S203: YES), the search control unit 1112 advances the process to step S204. If the search control unit 1112 determines that there is no negative statement (step S203: NO), the search control unit 1112 advances the process to step S205.

次に、ステップS204において、制御部1102aは、検索ワード(キーワード)削除及び検索処理を実行する。すなわち、制御部1102aの検索制御部1112は、検索式の中にあると判定された単語を検索式から削除する。検索制御部1112は、生成した検索式を検索手段11にネットワーク15を介して供給し、検索結果である画像などの情報を、ネットワーク15を介して検索手段11から取得する。   Next, in step S204, the control unit 1102a executes search word (keyword) deletion and search processing. That is, the search control unit 1112 of the control unit 1102a deletes the word determined to be in the search formula from the search formula. The search control unit 1112 supplies the generated search expression to the search unit 11 via the network 15, and acquires information such as an image as a search result from the search unit 11 via the network 15.

また、ステップS205において、制御部1102aは、検索ワード(キーワード)追加及び検索処理を実行する。すなわち、制御部1102aの検索制御部1112は、新たに入力された音声情報(第1の情報)に含まれるキーワードを論理和(OR)により結合して、検索式に追加する。検索制御部1112は、生成した検索式を検索手段11にネットワーク15を介して供給し、検索結果である画像などの情報を、ネットワーク15を介して検索手段11から取得する。   In step S205, the control unit 1102a executes search word (keyword) addition and search processing. That is, the search control unit 1112 of the control unit 1102a combines the keywords included in the newly input voice information (first information) with a logical sum (OR) and adds it to the search formula. The search control unit 1112 supplies the generated search expression to the search unit 11 via the network 15, and acquires information such as an image as a search result from the search unit 11 via the network 15.

次のステップS206からステップS209までの処理は、図20に示されるステップS104からステップS107までの処理と同様であり、ここでは説明を省略する。
また、図示を省略するが、会話追跡モードの処理においても、図25のステップS203及びステップS204と同様に、制御部1102aは、否定文による判定処理を実行する。
The processing from the next step S206 to step S209 is the same as the processing from step S104 to step S107 shown in FIG. 20, and a description thereof will be omitted here.
Although not shown, also in the conversation tracking mode process, the control unit 1102a executes a determination process using a negative sentence as in Steps S203 and S204 of FIG.

以上、説明したように、本実施形態における制御部1102aは、否定を示す単語を含む文章である否定文であって、音声情報(第1の情報)に含まれる否定文を検出する否定文検出部1113を備えている。検索制御部1112は、否定文検出部1113によって否定文が検出された場合に、否定文に含まれるキーワードを検索式から除外する。
これにより、本実施形態における制御部1102a及び検索装置(情報表示装置1200)は、検索式からキーワード(検索ワード)を取り除くことができる。例えば、本実施形態における制御部1102a及び検索装置(情報表示装置1200)は、音声認識部1111による認識間違いが起こった場合などに、先の検索式から間違ったキーワード(検索ワード)を取り除くことができる。よって、本実施形態における制御部1102a及び検索装置(情報表示装置1200)は、使用者にとって適切な検索を行うことがきるので、使用者に有益な情報を適切に提供することができる。
As described above, the control unit 1102a according to the present embodiment detects a negative sentence that is a negative sentence that is a sentence including a word indicating negative and is included in the voice information (first information). Part 1113 is provided. When a negative sentence is detected by the negative sentence detection unit 1113, the search control unit 1112 excludes a keyword included in the negative sentence from the search formula.
Thereby, the control unit 1102a and the search device (information display device 1200) in the present embodiment can remove the keyword (search word) from the search formula. For example, the control unit 1102a and the search device (information display device 1200) in the present embodiment can remove an incorrect keyword (search word) from the previous search formula when a recognition error occurs by the speech recognition unit 1111. it can. Therefore, since the control unit 1102a and the search device (information display device 1200) in the present embodiment can perform a search appropriate for the user, it is possible to appropriately provide useful information to the user.

次に、第14の実施形態による検索制御装置、及び検索装置(出力装置)について、図面を参照して説明する。
[第14の実施形態]
図26は、本実施形態による検索装置(情報表示装置1200)の構成の一例を示す第2の図である。
図26において、検索装置(情報表示装置1200)は、ネットワーク15(例えば、インターネット)を介して検索手段11及び類語検索手段12に接続されている。また、検索装置(情報表示装置1200)は、収音部101に接続されている。これにより、収音部101から使用者(例えば、2名の使用者(U1,U2))の音声情報(例えば、会話の音声信号)が、検索装置(情報表示装置1200)に入力される。
この図において、図19と同一の構成については同一の符号を付し、その説明を省略する。なお、本実施形態では、類語検索手段12に接続されている点が上記の第12及び第13の実施形態と異なる。
Next, a search control device and a search device (output device) according to a fourteenth embodiment will be described with reference to the drawings.
[Fourteenth embodiment]
FIG. 26 is a second diagram illustrating an example of the configuration of the search device (information display device 1200) according to the present embodiment.
In FIG. 26, the search device (information display device 1200) is connected to the search means 11 and the synonym search means 12 via the network 15 (for example, the Internet). The search device (information display device 1200) is connected to the sound collection unit 101. Thereby, voice information (for example, voice signal of conversation) of the user (for example, two users (U1, U2)) is input from the sound collection unit 101 to the search device (information display device 1200).
In this figure, the same components as those in FIG. 19 are denoted by the same reference numerals, and the description thereof is omitted. Note that the present embodiment is different from the twelfth and thirteenth embodiments in that it is connected to the synonym search means 12.

類語検索手段12は、ネットワーク15を介して入力された単語に基づいて、入力された単語に関連する関連単語である類語を検索し、検索した類語を、ネットワーク15を介して出力する。類語とは、例えば、「りんご」という単語に対して、「アップル」、「Apple」などである。類語検索手段12は、例えば、ネットワーク15を介して、類語を検索してもよいし、自装置内に備えるデータベース(例えば、類語辞書)に記憶されている情報から類語を検索してもよい。   The synonym search unit 12 searches for synonyms that are related words related to the input word based on the word input via the network 15, and outputs the searched synonym via the network 15. The synonyms are, for example, “Apple”, “Apple” and the like for the word “apple”. For example, the synonym search unit 12 may search for a synonym via the network 15 or may search for a synonym from information stored in a database (for example, a synonym dictionary) provided in its own device.

図27は、第14の実施形態による検索装置(情報表示装置1200)のブロック図である。
図27において、検索装置(情報表示装置1200)(出力装置)は、制御部1102bと、表示部200とを備えている。なお、本実施形態において、制御部1102bは、検索制御装置として機能する。
この図において、図24と同一の構成については同一の符号を付し、その説明を省略する。
FIG. 27 is a block diagram of a search device (information display device 1200) according to the fourteenth embodiment.
In FIG. 27, the search device (information display device 1200) (output device) includes a control unit 1102b and a display unit 200. In the present embodiment, the control unit 1102b functions as a search control device.
In this figure, the same components as those in FIG. 24 are denoted by the same reference numerals, and the description thereof is omitted.

制御部1102bは、検索装置(情報表示装置1200)の各部を制御する。制御部1102bは、収音部101から入力された音声情報(第1の情報)に基づいて、ネットワーク15を介して検索手段11に検索させ、検索結果として画像などの情報を取得する。また、制御部1102bは、検索手段11から取得した画像などの情報を表示部200に表示させる。また、本実施形態では、制御部1102bは、音声情報(第1の情報)に含まれる単語に関連する類語を類語検索手段12から取得し、取得した類語に基づいて、検索結果として画像などの情報を取得する。
また、制御部1102bは、音声認識部1111と、検索制御部1112と、否定文検出部1113と、類語取得部1114と、を備えている。
The control unit 1102b controls each unit of the search device (information display device 1200). Based on the audio information (first information) input from the sound collection unit 101, the control unit 1102b causes the search unit 11 to search via the network 15, and acquires information such as an image as a search result. In addition, the control unit 1102 b causes the display unit 200 to display information such as an image acquired from the search unit 11. Further, in the present embodiment, the control unit 1102b acquires a synonym related to the word included in the speech information (first information) from the synonym search means 12, and based on the acquired synonym, an image or the like is obtained as a search result. Get information.
In addition, the control unit 1102 b includes a voice recognition unit 1111, a search control unit 1112, a negative sentence detection unit 1113, and a synonym acquisition unit 1114.

類語取得部1114(取得部)は、音声認識部1111によって抽出された単語に基づいて、単語に関連する類語(関連単語)を取得する。すなわち、類語取得部1114は、検索制御部1112から供給された単語を、ネットワーク15を介して類語検索手段12に供給して、類語検索手段12に類語を検索させる。そして、類語取得部1114は、類語検索手段12からネットワーク15を介して供給された類語を検索制御部1112に供給する。   The synonym acquisition unit 1114 (acquisition unit) acquires a synonym (related word) related to the word based on the word extracted by the speech recognition unit 1111. That is, the synonym acquisition unit 1114 supplies the word supplied from the search control unit 1112 to the synonym search unit 12 via the network 15 and causes the synonym search unit 12 to search for a synonym. Then, the synonym acquisition unit 1114 supplies the synonym supplied from the synonym search unit 12 via the network 15 to the search control unit 1112.

検索制御部1112は、音声認識部1111によって抽出された単語に基づいて、類語取得部1114から類語を取得し、取得した類語と音声認識部1111によって抽出された単語とに基づく検索条件に基づいて、画像などの情報を検索手段11に対して検索させる。例えば、検索制御部1112は、まず、音声認識部1111によって抽出された単語に基づく検索条件により、画像などの情報を検索手段11に対して検索させる。そして、検索制御部1112は、音声認識部1111によって抽出された単語に基づく検索結果の数が予め定められた第3の規定数以下になった場合に、類語と音声認識部1111によって抽出された単語とに基づく検索条件に基づいて、画像などの情報を検索手段11に対して検索させる。
検索制御部1112において、その他の処理は、第13の実施形態と同様であるので、ここでは説明を省略する。
The search control unit 1112 acquires a synonym from the synonym acquisition unit 1114 based on the word extracted by the voice recognition unit 1111, and based on a search condition based on the acquired synonym and the word extracted by the voice recognition unit 1111. The search means 11 is made to search for information such as images. For example, the search control unit 1112 first causes the search unit 11 to search for information such as an image based on a search condition based on the word extracted by the speech recognition unit 1111. Then, the search control unit 1112 is extracted by the synonym and speech recognition unit 1111 when the number of search results based on the words extracted by the speech recognition unit 1111 is equal to or less than a predetermined third specified number. Based on the search condition based on the word, the search means 11 is made to search for information such as an image.
Since other processing in the search control unit 1112 is the same as that in the thirteenth embodiment, description thereof is omitted here.

次に、本実施形態における検索装置(情報表示装置1200)の動作について説明する。
図28は、本実施形態における話題提供モードの処理の一例を示すフローチャートである。
この図において、本実施形態では、制御部1102bが、類語に基づく検索処理を行う点が、図25に示される第2の実施形態における話題提供モードの処理と異なる。
Next, the operation of the search device (information display device 1200) in the present embodiment will be described.
FIG. 28 is a flowchart illustrating an example of processing in the topic provision mode in the present embodiment.
In this figure, the present embodiment is different from the topic providing mode process in the second embodiment shown in FIG. 25 in that the control unit 1102b performs a search process based on a synonym.

この図において、ステップS201からステップS207の処理は、図25に示される第13の実施形態と同様である。ここでは、ステップS208a以降の処理について説明する。
ステップS208aにおいて、制御部1102bは、検索結果が規定数(第1の規定数)以上であるか否かを判定する。すなわち、制御部1102bの検索制御部1112は、検索手段11から取得した検索結果の数が規定数(第1の規定数)以上であるか否かを判定する。検索制御部1112は、検索結果の数が規定数(第1の規定数)以上であると判定した場合(ステップS208a:YES)に、処理をステップS209に進める。また、検索制御部1112は、検索結果の数が規定数(第1の規定数)未満であると判定した場合(ステップS208a:NO)に、処理をステップS210に進める。
In this figure, the processing from step S201 to step S207 is the same as that in the thirteenth embodiment shown in FIG. Here, the processing after step S208a will be described.
In step S208a, the control unit 1102b determines whether or not the search result is equal to or greater than a specified number (first specified number). That is, the search control unit 1112 of the control unit 1102b determines whether or not the number of search results acquired from the search unit 11 is equal to or greater than a specified number (first specified number). If the search control unit 1112 determines that the number of search results is equal to or greater than the specified number (first specified number) (step S208a: YES), the search control unit 1112 advances the process to step S209. If the search control unit 1112 determines that the number of search results is less than the specified number (first specified number) (step S208a: NO), the search control unit 1112 advances the process to step S210.

ステップS209の処理は、図25に示される第13の実施形態と同様であるので、ここでは説明を省略する。   Since the process in step S209 is the same as that in the thirteenth embodiment shown in FIG. 25, the description thereof is omitted here.

ステップS210において、制御部1102bは、検索結果が規定数(第3の規定数)以下であるか否かを判定する。すなわち、制御部1102bの検索制御部1112は、検索手段11から取得した検索結果の数が規定数(第3の規定数)以下であるか否かを判定する。検索制御部1112は、検索結果の数が規定数(第3の規定数)以上であると判定した場合(ステップS210:YES)に、処理をステップS211に進める。また、検索制御部1112は、検索結果の数が規定数(第3の規定数)を超えると判定した場合(ステップS210:NO)に、処理をステップS201に戻す。   In step S210, the control unit 1102b determines whether or not the search result is equal to or less than a specified number (third specified number). That is, the search control unit 1112 of the control unit 1102b determines whether or not the number of search results acquired from the search unit 11 is equal to or less than a specified number (third specified number). If the search control unit 1112 determines that the number of search results is equal to or greater than the specified number (third specified number) (step S210: YES), the search control unit 1112 advances the process to step S211. If the search control unit 1112 determines that the number of search results exceeds the specified number (third specified number) (step S210: NO), the search control unit 1112 returns the process to step S201.

次に、ステップS211において、制御部1102bは、類語の検索、及び類語をキーワードとして追加する。すなわち、検索制御部1112は、音声認識部1111によって抽出されたキーワード(検索ワード)に基づいて、類語取得部1114から類語を取得する。検索制御部1112は、取得した類語を検索式に追加して新たな検索式を生成し、処理をステップS201に戻す。結果として、検索制御部1112は、新たに生成した検索式に基づいて、画像などの情報を検索手段11に対して検索させる。
なお、ステップS211において、取得した類語を検索式に追加する場合、検索制御部1112は、例えば、キーワードと対応する類語とを論理和(OR)により結合して検索式に追加する。
Next, in step S211, the control unit 1102b searches for synonyms and adds the synonyms as keywords. That is, the search control unit 1112 acquires a synonym from the synonym acquisition unit 1114 based on the keyword (search word) extracted by the voice recognition unit 1111. The search control unit 1112 adds the acquired synonym to the search expression to generate a new search expression, and returns the process to step S201. As a result, the search control unit 1112 causes the search unit 11 to search for information such as an image based on the newly generated search expression.
In addition, when adding the acquired synonym to a search formula in step S211, the search control part 1112 couple | bonds a keyword and the corresponding synonym by a logical sum (OR) and adds it to a search formula, for example.

また、図示を省略するが、会話追跡モードの処理においても、図28のステップS210及びステップS211と同様に、制御部1102bは、類語を検索式に追加する処理を実行する。なお、会話追跡モードの処理においても、取得した類語を検索式に追加する場合、検索制御部1112は、例えば、キーワードと対応する類語とを論理和(OR)により結合して検索式に追加する。   Although not shown, also in the conversation tracking mode process, the control unit 1102b executes a process of adding a synonym to the search expression, similarly to steps S210 and S211 of FIG. In addition, in the process of the conversation tracking mode, when the acquired synonym is added to the search expression, the search control unit 1112 combines the keyword and the corresponding synonym by a logical sum (OR), for example, and adds it to the search expression. .

以上、説明したように、本実施形態における制御部1102bは、音声認識部1111によって抽出された単語に基づいて、単語に関連する類語(関連単語)を取得する類語取得部1114を備えている。検索制御部1112は、音声認識部1111によって抽出された単語に基づいて、類語取得部1114から類語を取得し、取得した類語と、音声認識部1111によって抽出された単語とに基づく検索条件に基づいて、画像などの情報を検索手段11に対して検索させる。
これにより、類語を含めた検索条件により、画像などの情報を検索できるので、本実施形態における制御部1102b及び検索装置(情報表示装置1200)は、柔軟な検索が可能になる。よって、本実施形態における制御部1102b及び検索装置(情報表示装置1200)は、使用者にとって適切な検索を行うことがきるので、使用者に有益な情報を適切に提供することができる。
As described above, the control unit 1102b according to the present embodiment includes the synonym acquisition unit 1114 that acquires a synonym (related word) related to a word based on the word extracted by the speech recognition unit 1111. The search control unit 1112 acquires a synonym from the synonym acquisition unit 1114 based on the word extracted by the speech recognition unit 1111, and based on a search condition based on the acquired synonym and the word extracted by the speech recognition unit 1111. Thus, the search means 11 is made to search for information such as images.
Accordingly, information such as an image can be searched based on a search condition including a synonym, so that the control unit 1102b and the search device (information display device 1200) in the present embodiment can perform flexible search. Therefore, the control unit 1102b and the search device (information display device 1200) in the present embodiment can perform appropriate search for the user, and thus can appropriately provide useful information to the user.

また、本実施形態では、検索制御部1112は、音声認識部1111によって抽出された単語(検索ワード)に基づく検索結果の数が予め定められた規定値(第3の規定数)以下になった場合に、類語と単語(検索ワード)とに基づく検索条件に基づいて、画像などの情報を検索手段11に対して検索させる。
これにより、本実施形態における制御部1102b及び検索装置(情報表示装置1200)は、柔軟に検索結果の数を調整することができる。よって、本実施形態における制御部1102b及び検索装置(情報表示装置1200)は、使用者に有益な情報を適切に提供することができる。
In the present embodiment, the search control unit 1112 has the number of search results based on the words (search words) extracted by the speech recognition unit 1111 equal to or less than a predetermined value (third specified number). In this case, the search unit 11 is made to search for information such as an image based on a search condition based on a synonym and a word (search word).
Accordingly, the control unit 1102b and the search device (information display device 1200) in the present embodiment can flexibly adjust the number of search results. Therefore, the control unit 1102b and the search device (information display device 1200) in the present embodiment can appropriately provide useful information to the user.

なお、本実施形態によれば、制御部1102b(検出制御装置)は、音声認識部1111と、検索制御部1112とを備えている。音声認識部1111は、入力された音声情報に含まれる単語を抽出する。検索制御部1112は、音声認識部1111によって抽出された単語に基づいて、検索結果として出力される画像などの情報を検索手段11に対して検索させる。そして、制御部は、検索制御部1112は、単語に基づく検索結果の数が予め定められた規定数以下になった場合に、単語に関連する類語(関連単語)に基づいて、画像などの情報を検索手段11に対して検索させる。
これにより、本実施形態における制御部1102b及び検索装置(情報表示装置1200)は、柔軟に検索結果の数を調整することができる。よって、本実施形態における制御部1102b及び検索装置(情報表示装置1200)は、使用者に有益な情報を適切に提供することができる。
Note that according to the present embodiment, the control unit 1102b (detection control device) includes the voice recognition unit 1111 and the search control unit 1112. The voice recognition unit 1111 extracts words included in the input voice information. The search control unit 1112 causes the search unit 11 to search for information such as an image output as a search result based on the word extracted by the voice recognition unit 1111. Then, when the number of search results based on the word is equal to or less than a predetermined number, the control unit 1112 is configured to obtain information such as an image based on a synonym (related word) related to the word. To the search means 11.
Accordingly, the control unit 1102b and the search device (information display device 1200) in the present embodiment can flexibly adjust the number of search results. Therefore, the control unit 1102b and the search device (information display device 1200) in the present embodiment can appropriately provide useful information to the user.

次に、第15の実施形態による検索制御装置、及び検索装置(出力装置)について、図面を参照して説明する。
[第15の実施形態]
第15の実施形態における検索装置(情報表示装置1200)のシステム構成は、図26に示される第14の実施形態における検索装置(情報表示装置1200)のシステム構成と同様である。
また、検索装置(情報表示装置1200)の構成は、図27に示される第14の実施形態における検索装置(情報表示装置1200)のシステム構成と同様である。
Next, a search control device and a search device (output device) according to a fifteenth embodiment will be described with reference to the drawings.
[Fifteenth embodiment]
The system configuration of the search device (information display device 1200) in the fifteenth embodiment is the same as the system configuration of the search device (information display device 1200) in the fourteenth embodiment shown in FIG.
The configuration of the search device (information display device 1200) is the same as the system configuration of the search device (information display device 1200) in the fourteenth embodiment shown in FIG.

本実施形態において、検索制御部1112は、音声認識部1111によって抽出された単語に予め定められた復活を示す単語(復活語)が含まれている場合に、検索式から除外したキーワードを検索式に追加する。ここで、予め定められた復活を示す単語とは、例えば、「さっきのやつ」、「ちょっと前の」などの単語である。例えば、検索制御部1112は、音声認識部1111によって抽出された単語に上述した復活を示す単語が含まれているか否かを判定する。さらに、検索制御部1112は、上述した復活を示す単語が含まれていると判定した場合に、過去に検索式から除外したキーワードを検索式に追加する。この場合、検索制御部1112は、例えば、除外したキーワードのうちの新しいものから検索式に追加して復活させる。なお、除外したキーワードを復活させる場合には、検索制御部1112は、復活させるキーワードを2つの検索モードに応じて、論理和(OR)又は論理積(AND)により結合して検索式に追加する。
検索制御部1112において、その他の処理は、第14の実施形態と同様であるので、ここでは説明を省略する。
In the present embodiment, the search control unit 1112 searches for a keyword excluded from the search formula when the word extracted by the speech recognition unit 1111 includes a word indicating a predetermined revival (resurrection word). Add to Here, the word indicating the predetermined resurrection is, for example, a word such as “Sakaki no Yatsu” or “A little before”. For example, the search control unit 1112 determines whether the word extracted by the voice recognition unit 1111 includes the above-described word indicating resurrection. Further, when the search control unit 1112 determines that the above-described word indicating resurrection is included, the search control unit 1112 adds a keyword excluded from the search formula in the past to the search formula. In this case, for example, the search control unit 1112 reinstates the newly added keywords by adding them to the search formula. When restoring the excluded keyword, the search control unit 1112 combines the restored keyword with a logical sum (OR) or a logical product (AND) and adds it to the search formula according to two search modes. .
Since other processing in the search control unit 1112 is the same as that in the fourteenth embodiment, description thereof is omitted here.

次に、本実施形態における検索装置(情報表示装置1200)の動作について説明する。
図29は、本実施形態における話題提供モードの処理の一例を示すフローチャートである。
この図において、本実施形態では、制御部1102bが、単語に復活語を含むか否かの判定処理を行う点が、図28に示される第14の実施形態における話題提供モードの処理と異なる。
この図において、まず、制御部1102bは、収音部101から音声入力があったか否かを判定する(ステップS301)。すなわち、制御部1102bは、収音部101から音声認識部1111に音声情報が入力されたか否かを判定する。制御部1102bは、音声情報が入力されたと判定した場合(ステップS301:YES)に、処理をステップS302に進める。制御部1102bは、音声情報が入力されていないと判定した場合(ステップS301:NO)に、処理をステップS301に戻し、音声情報が入力されるまでステップS301の処理を繰り返す。
Next, the operation of the search device (information display device 1200) in the present embodiment will be described.
FIG. 29 is a flowchart illustrating an example of processing in the topic provision mode in the present embodiment.
In this figure, the present embodiment is different from the processing in the topic providing mode in the fourteenth embodiment shown in FIG. 28 in that the control unit 1102b performs a process of determining whether or not a word includes a resurrection word.
In this figure, first, the control unit 1102b determines whether or not there is an audio input from the sound collection unit 101 (step S301). That is, the control unit 1102b determines whether or not voice information is input from the sound collection unit 101 to the voice recognition unit 1111. When it is determined that the voice information has been input (step S301: YES), the control unit 1102b advances the process to step S302. When it is determined that the voice information is not input (step S301: NO), the control unit 1102b returns the process to step S301, and repeats the process of step S301 until the voice information is input.

次に、制御部1102bは、音声認識及び形態素解析を行う(ステップS302)。すなわち、制御部1102bの音声認識部1111は、入力された音声情報を認識して、テキスト情報(文章)に変換するとともに、テキスト情報に含まれる単語を抽出する。音声認識部1111は、抽出した単語を検索制御部1112に供給する。また、音声認識部1111は、変換したテキスト情報(文章)と抽出した単語とを否定文検出部1113に供給する。   Next, the control unit 1102b performs voice recognition and morphological analysis (step S302). That is, the voice recognition unit 1111 of the control unit 1102b recognizes the input voice information, converts it into text information (sentence), and extracts words included in the text information. The voice recognition unit 1111 supplies the extracted word to the search control unit 1112. The voice recognition unit 1111 supplies the converted text information (sentence) and the extracted word to the negative sentence detection unit 1113.

次に、制御部1102bは、単語に復活語を含むか否かを判定する(ステップS303)。まず、制御部1102bの検索制御部1112は、音声認識部1111から取得した単語の中に、上述した予め定められた復活を示す単語である復活語を含んでいるか否かを判定する。検索制御部1112は、復活語を含んでいると判定した場合(ステップS303:YES)に、処理をステップS304に進める。また、検索制御部1112は、復活語を含んでいないと判定した場合(ステップS303:NO)に、処理をステップS305に進める。   Next, the control unit 1102b determines whether or not the word includes a resurrection word (step S303). First, the search control unit 1112 of the control unit 1102b determines whether or not the word acquired from the speech recognition unit 1111 includes a resurrection word that is a word indicating the above-described resurrection. When it is determined that the resurrection word is included (step S303: YES), the search control unit 1112 advances the process to step S304. If the search control unit 1112 determines that the resurrection word is not included (step S303: NO), the search control unit 1112 advances the process to step S305.

次に、ステップS304において、制御部1102bは、検索ワード(キーワード)復活及び検索処理を実行する。すなわち、制御部1102bの検索制御部1112は、例えば、過去に検索式から除外したキーワードのうちの新しいものから順に検索式に復活させる。検索制御部1112は、生成した検索式を検索手段11にネットワーク15を介して供給し、検索結果である画像などの情報を、ネットワーク15を介して検索手段11から取得する。その後、検索制御部1112は、処理をステップS308に進める。   Next, in step S304, the control unit 1102b executes search word (keyword) restoration and search processing. That is, the search control unit 1112 of the control unit 1102b restores the search formulas in order from the newest one of the keywords excluded from the search formulas in the past. The search control unit 1112 supplies the generated search expression to the search unit 11 via the network 15, and acquires information such as an image as a search result from the search unit 11 via the network 15. Thereafter, the search control unit 1112 advances the process to step S308.

次のステップS305からステップS313までの処理は、図28に示されるステップS206からステップS211までの処理と同様であり、ここでは説明を省略する。
また、図示を省略するが、会話追跡モードの処理においても、図28のステップS303及びステップS304と同様に、制御部1102bは、単語に復活語を含むか否かの判定処理を実行する。
The processing from the next step S305 to step S313 is the same as the processing from step S206 to step S211 shown in FIG. 28, and the description is omitted here.
Although not shown, also in the conversation tracking mode process, the control unit 1102b executes a process for determining whether or not a word includes a resurrection word, as in steps S303 and S304 in FIG.

以上、説明したように、本実施形態における制御部1102bの検索制御部1112は、音声認識部1111によって抽出された単語に予め定められた復活を示す単語が含まれている場合に、検索式から除外したキーワードを検索式に追加する。
これにより、検索式から誤って削除(除外)したキーワード(検索ワード)を復活させることができるので、本実施形態における制御部1102b及び検索装置(情報表示装置1200)は、適切に検索処理を行うことができる。本実施形態における制御部1102b及び検索装置(情報表示装置1200)は、使用者にとって適切な検索を行うことがきるので、使用者に有益な情報を適切に提供することができる。
As described above, the search control unit 1112 of the control unit 1102b in the present embodiment uses the search formula when the word extracted by the speech recognition unit 1111 includes a word indicating a predetermined resurrection. Add the excluded keyword to the search expression.
As a result, keywords (search words) that have been accidentally deleted (excluded) from the search formula can be restored, and the control unit 1102b and the search device (information display device 1200) in the present embodiment appropriately perform search processing. be able to. Since the control unit 1102b and the search device (information display device 1200) in the present embodiment can perform an appropriate search for the user, it is possible to appropriately provide useful information to the user.

次に、第16の実施形態による検索制御装置、及び検索装置(出力装置)について、図面を参照して説明する。
[第16の実施形態]
図30は、第16の実施形態による検索装置(情報表示装置1200)のブロック図である。
図30において、検索装置(情報表示装置1200)(出力装置)は、制御部1102bと、表示部200と、検索部11aと、類語検索部12aと、を備えている。なお、本実施形態において、制御部1102bと、検索部11aと、類語検索部12aとは、検索制御装置130Bとして機能する。
この図において、図27と同一の構成については同一の符号を付し、その説明を省略する。
Next, a search control device and a search device (output device) according to a sixteenth embodiment will be described with reference to the drawings.
[Sixteenth Embodiment]
FIG. 30 is a block diagram of a search device (information display device 1200) according to the sixteenth embodiment.
In FIG. 30, a search device (information display device 1200) (output device) includes a control unit 1102b, a display unit 200, a search unit 11a, and a synonym search unit 12a. In the present embodiment, the control unit 1102b, the search unit 11a, and the synonym search unit 12a function as the search control device 130B.
In this figure, the same components as those in FIG. 27 are denoted by the same reference numerals, and the description thereof is omitted.

本実施形態における検索制御装置130B及び検索装置(情報表示装置1200)は、検索部11aと、類語検索部12aとを備えている点が第15の実施形態と異なる。
検索部11a(検索手段)は、第15の実施形態における検索手段11と同様の機能を有し、キーワード(検索ワード)又はキーワードに基づく検索式に基づいて、キーワードに関連する画像、音声、文章などの情報を検索する。検索部11aは、例えば、ネットワークを介して、検索結果となる情報を検索してもよいし、内部に備えるデータベース(不図示)に記憶されている情報から検索結果となる情報を検索してもよい。
The search control device 130B and the search device (information display device 1200) in the present embodiment are different from the fifteenth embodiment in that they include a search unit 11a and a synonym search unit 12a.
The search unit 11a (search means) has the same function as the search means 11 in the fifteenth embodiment, and based on a keyword (search word) or a search expression based on the keyword, an image, sound, and text related to the keyword Search for information such as For example, the search unit 11a may search for information that becomes a search result via a network, or may search for information that becomes a search result from information stored in a database (not shown) provided therein. Good.

類語検索部12aは、第15の実施形態における類語検索手段12と同様の機能を有し、類語取得部1114から供給された単語に基づいて、供給された単語に関連する関連単語である類語を検索し、検索した類語を、類語取得部1114に出力する。類語検索部12aは、例えば、ネットワークを介して、類語を検索してもよいし、内部に備える不図示のデータベース(例えば、類語辞書)に記憶されている情報から類語を検索してもよい。   The synonym search unit 12a has the same function as the synonym search unit 12 in the fifteenth embodiment, and based on the words supplied from the synonym acquisition unit 1114, synonyms that are related words related to the supplied words. The retrieved synonym is output to the synonym acquisition unit 1114. The synonym search unit 12a may search for synonyms via, for example, a network, or may search for synonyms from information stored in a database (not shown) (for example, a synonym dictionary) provided therein.

なお、本実施形態における検索制御装置130B及び検索装置(情報表示装置1200)は、第15の実施形態における動作と同様であるので、ここでは省略する。   Note that the search control device 130B and the search device (information display device 1200) in the present embodiment are the same as the operations in the fifteenth embodiment, and are therefore omitted here.

以上、説明したように、本実施形態における検索制御装置130Bは、画像などの情報を検索する検索部11a(検索手段)を備えている。
これにより、本実施形態における検索制御装置130Bは、ネットワークに接続できない環境(オフライン)においても、使用者に有益な情報を適切に提供することができる。
As described above, the search control device 130B in the present embodiment includes the search unit 11a (search means) that searches for information such as images.
As a result, the search control device 130B according to the present embodiment can appropriately provide useful information to the user even in an environment (offline) where connection to the network is not possible.

なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、第1の情報として音声情報を用いる形態を説明したが、これに限定されるものではない。例えば、チャットやメールなどによるテキスト情報によるコミュニケーションに対して、上記の各実施形態を適用することも可能である。この場合、音声認識の機能が不要になるので、上記の各実施形態を簡易な構成により実現することができる。
The present invention is not limited to the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, in each of the above-described embodiments, the form in which audio information is used as the first information has been described, but the present invention is not limited to this. For example, the embodiments described above can be applied to communication using text information such as chat or email. In this case, since the voice recognition function is unnecessary, each of the above embodiments can be realized with a simple configuration.

また、上記の各実施形態において、検索結果の一例として画像などの情報を検索する形態を説明したが、音声を含む音情報、映像情報、テキスト情報などを検索する形態でもよい。また、上記の各実施形態において、検索装置(情報表示装置1200)が出力部として表示部200を備える形態を説明したが、出力部は、音情報を出力するスピーカなどの出力装置でもよいし、他の形態でもよい。また、検索装置(情報表示装置1200)は、検索結果を出力するインターフェースを出力部として備え、外部に接続された表示部200やスピーカにインターフェースを介して出力する形態でもよい。   Further, in each of the embodiments described above, the form of searching for information such as an image has been described as an example of a search result. Further, in each of the embodiments described above, the search device (information display device 1200) has been described as including the display unit 200 as an output unit. However, the output unit may be an output device such as a speaker that outputs sound information. Other forms are also possible. In addition, the search device (information display device 1200) may include an interface that outputs search results as an output unit, and may output to an externally connected display unit 200 or a speaker via the interface.

また、上記の各実施形態において、会議など複数の使用者が検索装置(情報表示装置1200)を使用する形態を説明したが、1人の使用者によって、検索装置(情報表示装置1200)が使用される形態でもよい。このように、検索装置(情報表示装置1200)は、1人で何かを検討したり、まとめたりする場合においても、有益な情報を適切に提供することができる。   Further, in each of the above embodiments, a mode has been described in which a plurality of users such as a conference use the search device (information display device 1200). However, the search device (information display device 1200) is used by one user. It may be a form. As described above, the search device (information display device 1200) can appropriately provide useful information even when one person examines or summarizes something.

また、上記の各実施形態において、検索式を生成する論理演算子として論理和と論理積とを用いる形態を説明したが、他の論理演算子を用いる形態でもよい。
また、上記の各実施形態における各実施形態又は各変形例との組み合わせは、上記に限定されるものではない。例えば、上記の第14の実施形態は、第13の実施形態と組み合わせて実施する形態を説明したが、第12の実施形態と組み合わせて実施する形態でもよい。また、同様に、上記の第15の実施形態は、第14の実施形態と組み合わせて実施する形態を説明したが、第12又は第13の実施形態と組み合わせて実施する形態でもよい。また、同様に、上記の第16の実施形態は、第14又は第15の実施形態と組み合わせて実施する形態を説明したが、第12又は第13の実施形態と組み合わせて実施する形態でもよい。
Further, in each of the above embodiments, the form using logical sum and logical product as the logical operators for generating the search expressions has been described, but other logical operators may be used.
Moreover, the combination with each embodiment or each modification in each said embodiment is not limited above. For example, the fourteenth embodiment has been described in conjunction with the thirteenth embodiment, but may be implemented in combination with the twelfth embodiment. Similarly, the fifteenth embodiment has been described in combination with the fourteenth embodiment, but may be implemented in combination with the twelfth or thirteenth embodiment. Similarly, the sixteenth embodiment has been described in combination with the fourteenth or fifteenth embodiment, but may be implemented in combination with the twelfth or thirteenth embodiment.

なお、上記の各実施形態における制御部1102(1102a,1102b)及び検索制御装置130Bが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、制御部1102(1102a,1102b)及び検索制御装置130Bが備える各部はメモリおよびCPU(中央演算装置)により構成され、制御部1102(1102a,1102b)及び検索制御装置130Bが備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
また、上述の制御部1102(1102a,1102b)、検索制御装置130B及び検索装置(情報表示装置1200)は内部に、コンピュータシステムを有している。そして、上述した制御部1102(1102a,1102b)、検索制御装置130B及び検索装置(情報表示装置1200)の処理過程(処理手順)は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われてもよい。
In addition, each part with which the control part 1102 (1102a, 1102b) and the search control apparatus 130B in each said embodiment are provided may be implement | achieved by exclusive hardware, and the control part 1102 (1102a, 1102b). ) And the search control device 130B are configured by a memory and a CPU (central processing unit), and a program for realizing the functions of the control unit 1102 (1102a, 1102b) and the search control device 130B is loaded into the memory. The function may be realized by executing as described above.
In addition, the control unit 1102 (1102a, 1102b), the search control device 130B, and the search device (information display device 1200) described above have a computer system therein. The processing steps (processing procedures) of the control unit 1102 (1102a, 1102b), the search control device 130B, and the search device (information display device 1200) described above are stored in a computer-readable recording medium in the form of a program. The above processing may be performed by the computer reading and executing this program.

また、制御部1102(1102a,1102b)、検索制御装置130B及び検索装置(情報表示装置1200)が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部1102(1102a,1102b)、検索制御装置130B及び検索装置(情報表示装置1200)が備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   In addition, a program for realizing the function of each unit included in the control unit 1102 (1102a, 1102b), the search control device 130B, and the search device (information display device 1200) is recorded on a computer-readable recording medium. The program recorded on the computer may be read into the computer system and executed, whereby processing by each unit included in the control unit 1102 (1102a, 1102b), the search control device 130B, and the search device (information display device 1200) may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

次に、第17の実施形態から第21の実施形態までにおいて、本発明の一実施形態である情報表示装置について説明する。以下の説明において、表示制御装置によって表示内容が制御される表示部の詳細を説明する。   Next, in the seventeenth embodiment to the twenty-first embodiment, an information display device which is an embodiment of the present invention will be described. In the following description, details of the display unit whose display content is controlled by the display control device will be described.

[第17の実施形態]
以下、図面等を参照して、本発明の実施形態について説明する。図31は、本発明の一実施形態である情報表示装置1200を示す。図32は、表示制御装置1100による操作モード判定の説明図である。図33は、表示部200による操作モードの表示の説明図である。
[Seventeenth embodiment]
Embodiments of the present invention will be described below with reference to the drawings. FIG. 31 shows an information display device 1200 according to an embodiment of the present invention. FIG. 32 is an explanatory diagram of operation mode determination by the display control device 1100. FIG. 33 is an explanatory diagram of operation mode display by the display unit 200.

情報表示装置1200は、表示部200に表示した画像をタッチ操作することで表示に対して操作する表示操作モード(以下タッチモードと呼ぶ)と、当該情報表示装置1200に接続された外部装置1500の操作が可能な移動操作モード(以下マウスモードと呼ぶ)の、2つの操作モードを切り換えて操作可能に構成されている。   The information display device 1200 includes a display operation mode (hereinafter referred to as a touch mode) in which an operation is performed on the display by touching an image displayed on the display unit 200, and an external device 1500 connected to the information display device 1200. It is configured to be able to be operated by switching between two operation modes of a movable operation mode (hereinafter referred to as a mouse mode) that can be operated.

情報表示装置1200は、表示入力部1300と、表示制御装置1100とを備える。
表示入力部1300は、全体形状が略直方体状の筐体1311と、筐体1311の上面に配設された表示部200と、を備えている。筐体1311の内部には、画像投影部1330と、タッチ操作検出部1340および移動量検出部1350が配設されている。
表示制御装置1100は、当該情報表示装置1200を統括制御するものであり表示入力部1300から出力部65を介して接続されている。
The information display device 1200 includes a display input unit 1300 and a display control device 1100.
The display input unit 1300 includes a housing 1311 having a substantially rectangular parallelepiped shape and a display unit 200 disposed on the upper surface of the housing 1311. An image projecting unit 1330, a touch operation detecting unit 1340, and a movement amount detecting unit 1350 are disposed inside the housing 1311.
The display control device 1100 performs overall control of the information display device 1200 and is connected from the display input unit 1300 via the output unit 65.

表示部200は、筐体1311の上面略全体を覆うように配設された板状の表示板21と、その内面(筐体1311の内部に対向する面)に形成されたスクリーン22と、により構成されている。
表示板21は、たとえば透明アクリルやポリカーボネート等、可視光および赤外光を透過可能な素材によって所定厚さに形成されており、その板面方向に全反射を利用して導光可能となっている。
スクリーン22は、表示板21の内面に、照射された可視光を乱反射するように形成された光散乱層である。
そして、表示部200は、後述する画像投影部1330から投射された画像光をスクリーン22で散乱させて、表示板21の外面側から視認可能に表示する。
The display unit 200 includes a plate-like display plate 21 disposed so as to cover substantially the entire top surface of the housing 1311 and a screen 22 formed on the inner surface (the surface facing the inside of the housing 1311). It is configured.
The display board 21 is formed to a predetermined thickness by a material that can transmit visible light and infrared light, such as transparent acrylic or polycarbonate, and can guide light using total reflection in the plate surface direction. Yes.
The screen 22 is a light scattering layer formed on the inner surface of the display panel 21 so as to diffusely reflect the irradiated visible light.
Then, the display unit 200 scatters image light projected from an image projection unit 1330 described later on the screen 22 and displays the image light so as to be visible from the outer surface side of the display plate 21.

画像投影部1330は、詳細には示さないが、投射光源と画像透光表示部と光学系とにより構成されており、画像光を表示板21(スクリーン22)に向けて投射するように、筐体1311の内部所定位置に配設されている。画像投影部1330は、後述する表示制御装置1100(画像処理装置62)から入力される画像情報の画像光をスクリーン22に投射する。   Although not shown in detail, the image projection unit 1330 includes a projection light source, an image translucent display unit, and an optical system. The image projection unit 1330 projects the image light toward the display plate 21 (screen 22). It is disposed at a predetermined position inside the body 1311. The image projection unit 1330 projects image light of image information input from a display control device 1100 (image processing device 62), which will be described later, onto the screen 22.

タッチ操作検出部1340は、検出光源41と、検出光受光装置42と、により構成されている。
検出光源41は、検出光としての赤外光(検出赤外光)を出射する光源であって、表示部200における表示板21の側端面に、表示板21の内部に検出赤外光を照射するように配設されている。検出光源41によって表示板21の側端面から内部に照射された検出赤外光は、表示板21の内外面で全反射を繰り返して反対側の側端に至るようになっている。
検出光受光装置42は、詳しくは図示しないが、結像光学系と受光素子等とを備え、検出光源41が出射する波長の検出赤外光を画像として撮影可能ないわゆる赤外線カメラである。検出光受光装置42は、スクリーン22の全域を撮影可能として、筐体1311の内部所定位置に配設されている。
The touch operation detection unit 1340 includes a detection light source 41 and a detection light receiving device 42.
The detection light source 41 is a light source that emits infrared light (detection infrared light) as detection light, and irradiates the inside of the display plate 21 with detection infrared light on the side end surface of the display plate 21 in the display unit 200. It is arranged to do. The detection infrared light irradiated inside from the side end surface of the display plate 21 by the detection light source 41 repeats total reflection on the inner and outer surfaces of the display plate 21 and reaches the opposite side end.
Although not shown in detail, the detection light receiving device 42 is a so-called infrared camera that includes an imaging optical system, a light receiving element, and the like, and can capture detection infrared light having a wavelength emitted from the detection light source 41 as an image. The detection light receiving device 42 is disposed at a predetermined position inside the housing 1311 so that the entire area of the screen 22 can be photographed.

上記のように構成されたタッチ操作検出部1340は、表示部200における表示板21の外面への操作主体である手(指または掌等)の接触による検出赤外光の散乱を、検出光受光装置42が撮像する。すなわち、表示板21の外面に手等が接触すると、その接触部分では表示板21の内部における検出赤外光の反射光路に乱が生じ、検出赤外光が表示板21の内面側に漏出する。検出光受光装置42は、この表示板21の内面側に漏出した検出赤外光を撮像する。
そして、タッチ操作検出部1340は、検出光受光装置42による、表示板21の外面への手の接触情報が含まれる撮像情報を、出力部65を介して表示制御装置1100に出力する。
The touch operation detection unit 1340 configured as described above detects the detection infrared light scattered by the contact of the hand (finger or palm, etc.) that is the operation subject to the outer surface of the display plate 21 in the display unit 200. The device 42 takes an image. That is, when a hand or the like comes into contact with the outer surface of the display plate 21, the reflected infrared light path in the display plate 21 is disturbed at the contact portion, and the detected infrared light leaks to the inner surface side of the display plate 21. . The detection light receiving device 42 images the detection infrared light leaked to the inner surface side of the display plate 21.
Then, the touch operation detection unit 1340 outputs imaging information including contact information of the hand to the outer surface of the display plate 21 by the detection light receiving device 42 to the display control device 1100 via the output unit 65.

移動量検出部1350は、本実施形態では、当該情報表示装置1200が設置された面(設置面)を照射する赤外光源51と、赤外光源51が照射した赤外光の設置面からの反射光を受光する受光部52とにより構成されている。移動量検出部1350は、受光部52が受光した設置面からの赤外反射光の変化から、受光部52の移動(すなわち、情報表示装置1200の移動)を検出し、その検出情報(移動情報)を表示制御装置1100(CPU61)へ出力する。   In this embodiment, the movement amount detection unit 1350 includes an infrared light source 51 that irradiates a surface (installation surface) on which the information display device 1200 is installed, and an infrared light installation surface that is irradiated by the infrared light source 51. It is comprised by the light-receiving part 52 which light-receives reflected light. The movement amount detection unit 1350 detects the movement of the light receiving unit 52 (that is, the movement of the information display device 1200) from the change in the infrared reflected light from the installation surface received by the light receiving unit 52, and the detection information (movement information). ) To the display control device 1100 (CPU 61).

表示制御装置1100は、CPU61、画像処理装置62、メモリ63、ストレージ66、外部装置1500へと接続される出力ケーブル64、等を備えて構成されている。表示制御装置1100は、メモリ63に格納されたプログラムによるCPU61の駆動によって、ストレージ66に格納された画像情報を画像処理装置62で処理して画像投影部1330に出力し、画像投影部1330を介して表示部200に表示させる。   The display control device 1100 includes a CPU 61, an image processing device 62, a memory 63, a storage 66, an output cable 64 connected to the external device 1500, and the like. The display control apparatus 1100 drives the CPU 61 according to the program stored in the memory 63, processes the image information stored in the storage 66 by the image processing apparatus 62, outputs the processed image information to the image projection unit 1330, and passes through the image projection unit 1330. Display on the display unit 200.

また、表示制御装置1100は、タッチ操作検出部1340(検出光受光装置42)から入力された表示板21の外面への接触操作情報が含まれる撮像を解析し、操作モード(タッチモードまたはマウスモード)の判定と、それぞれの制御とを行う。   Further, the display control device 1100 analyzes the imaging including the touch operation information to the outer surface of the display board 21 input from the touch operation detection unit 1340 (detection light receiving device 42), and operates the operation mode (touch mode or mouse mode). ) And the respective controls.

画像処理装置62は、タッチ操作検出部1340(検出光受光装置42)から入力された表示板21の撮像を解析し、操作モード判定のための判定基礎情報を作成する。
本実施形態における操作モード判定のための判定基礎情報は、表示部200における表示板21の外面に手が接触した、その位置、接触面積、数等である。
画像処理装置62は、作成したこれらの判定基礎情報を、CPU61に出力する。
The image processing device 62 analyzes the imaging of the display board 21 input from the touch operation detection unit 1340 (detection light receiving device 42), and creates determination basic information for operation mode determination.
The basic determination information for determining the operation mode in the present embodiment is the position, contact area, number, etc., of the hand touching the outer surface of the display plate 21 in the display unit 200.
The image processing device 62 outputs the created basic determination information to the CPU 61.

CPU61は、画像処理装置62から入力された判定基礎情報に基づいて操作モード(タッチモードまたはマウスモード)の判定を行うと共に、それぞれの制御を行う。
CPU61による操作モードの判定は、たとえば、表示部200における表示板21の外面に手が接触したその接触領域の面積を定められた判定基準(基準面積)と比較し、接触領域の面積が基準面積を越えない場合にはタッチモードと判定し、接触面積が基準面積を越える場合にはマウスモードと判定する。
The CPU 61 determines the operation mode (touch mode or mouse mode) based on the determination basic information input from the image processing device 62 and controls each of them.
For example, the CPU 61 determines the operation mode by comparing the area of the contact area where the hand contacts the outer surface of the display panel 21 in the display unit 200 with a predetermined criterion (reference area). If the contact area does not exceed the reference area, the touch mode is determined. If the contact area exceeds the reference area, the mouse mode is determined.

すなわち、図32(a),(b)に示すように表示板21を指先で操作している場合には接触領域:TA(S)の面積は合計しても小さく、タッチモードと判定する。一方、情報表示装置1200全体を移動操作しようとして掴んだ場合には、図32(c)に示すように表示板21に掌が接触して接触領域:TA(L)の面積は大きくなるため、マウスモードと判定するものである。   That is, as shown in FIGS. 32 (a) and 32 (b), when the display board 21 is operated with a fingertip, the area of the contact area TA (S) is small even in total, and the touch mode is determined. On the other hand, when the entire information display device 1200 is gripped for movement operation, the palm touches the display board 21 as shown in FIG. 32 (c), and the area of the contact area TA (L) increases. The mouse mode is determined.

また、操作モードの判定は、接触領域の数に基づいて行っても良い。たとえば、図32(d)に示すように、接触領域:TAが4箇所以上でマウスモードと判定する等である。なお、接触面積と接触領域の数との両者を加味した判定基準を定めても良い。   Further, the operation mode may be determined based on the number of contact areas. For example, as shown in FIG. 32 (d), the mouse mode is determined when the contact area TA is four or more. In addition, you may determine the criteria which considered both the contact area and the number of contact areas.

さらに、CPU61は、操作モード判定によってマウスモードと判定した場合には、加えて操作する手の向きを識別して操作の前後方向を判別するようにしても良い。すなわち、情報表示装置1200を移動操作しようとして表示部200(表示板21)に手を置くと、図32(d)に示すように、指先による複数の小さい接触領域:TA(S)と、掌による広い接触領域:TA(L)とが検出される。そこで、複数の小さい接触領域:TA(S)の側を前方側:F、広い接触領域:TA(L)の側を手前(後方)側:R、と識別して移動座標を設定し、以後、その移動座標に基づいて制御する。   Further, when the CPU 61 determines that the mouse mode is determined by the operation mode determination, the CPU 61 may additionally determine the direction of the operation by identifying the direction of the operating hand. That is, when a user puts his / her hand on the display unit 200 (display board 21) to move the information display device 1200, as shown in FIG. 32 (d), a plurality of small contact areas by the fingertips: TA (S) and palm A wide contact area by TA: TA (L) is detected. Accordingly, a plurality of small contact areas: TA (S) side is identified as the front side: F, and a wide contact area: TA (L) side is identified as the front (rear) side: R, and the movement coordinates are set. Control based on the movement coordinates.

また、CPU61は、図33に示すように、適用する操作モード(タッチモードまたはマウスモード)を、操作する手によって隠されることのない表示部200(表示板21)の周辺部に表示する。これにより、操作者に適用操作モードが解り、誤操作を防ぐことができる。図33では、マウスのシンボル:Sと文字表記:Lとによってマウスモードを表示している。
なお、適用する操作モードを操作者に認識させる制御としては、表示部200における表示をOFFとする構成としても良い。マウスモードでは表示部200が手で覆われて視認が困難となって表示部200における表示の必要性は少なく、これによって省電力にもなる。
Further, as shown in FIG. 33, the CPU 61 displays the operation mode to be applied (touch mode or mouse mode) on the periphery of the display unit 200 (display board 21) that is not hidden by the operating hand. As a result, the applicable operation mode can be understood by the operator, and erroneous operation can be prevented. In FIG. 33, the mouse mode is displayed by the mouse symbol: S and the character notation: L.
In addition, it is good also as a structure which turns off the display in the display part 200 as control which makes an operator recognize the operation mode to apply. In the mouse mode, the display unit 200 is covered with a hand so that it is difficult to visually recognize the display unit 200, so that there is little need for display on the display unit 200, thereby saving power.

CPU61は、上記のようにして操作モードを判定した後、その判定結果に応じてタッチモードまたはマウスモードのそれぞれの制御を行う。
タッチモードでは、タッチ操作検出部1340から入力された検出光受光装置42の撮像から、手の表示板21の外面への接触とその移動を解析し、その接触および移動を、表示板21に表示された画像(たとえばサムネイル等)に対するクリックや、表示画像の拡大・縮小および移動操作として認識して制御する。
マウスモードでは、移動量検出部1350から入力された当該情報表示装置1200の移動情報に基づく信号を、出力ケーブル64を介して接続された外部装置1500に出力し、外部装置1500を操作する。
After determining the operation mode as described above, the CPU 61 controls each of the touch mode and the mouse mode according to the determination result.
In the touch mode, from the imaging of the detection light receiving device 42 input from the touch operation detection unit 1340, the contact and movement of the hand on the outer surface of the display board 21 are analyzed, and the contact and movement are displayed on the display board 21. It is recognized and controlled as a click on an image (for example, a thumbnail) or an enlargement / reduction and movement operation of a display image.
In the mouse mode, a signal based on the movement information of the information display device 1200 input from the movement amount detection unit 1350 is output to the external device 1500 connected via the output cable 64, and the external device 1500 is operated.

なお、表示制御装置1100における、表示入力部1300との接続は、有線または無線の何れによっても良く、また、表示制御装置1100は表示入力部1300の内部(筐体1311の内部)に配設しても良い。さらに、表示制御装置1100は、パーソナルコンピュータによって構成しても良い。   The display control device 1100 may be connected to the display input unit 1300 by wire or wireless. The display control device 1100 is disposed inside the display input unit 1300 (inside the housing 1311). May be. Further, the display control apparatus 1100 may be configured by a personal computer.

上記にように構成された情報表示装置1200は、表示制御装置1100におけるCPU61がタッチモードとマウスモードとを判定し、タッチモードでは表示部200に表示された画像に接触すること画像と対応した入力が可能であると共に、マウスモードでは当該情報表示装置1200を移動させることで、外部装置1500の操作が可能となる。これにより、表示装置とマウスとの両方の機能を有するものとなる。   In the information display device 1200 configured as described above, the CPU 61 in the display control device 1100 determines the touch mode and the mouse mode, and touches the image displayed on the display unit 200 in the touch mode. In the mouse mode, the external device 1500 can be operated by moving the information display device 1200. Thereby, it has a function of both a display apparatus and a mouse | mouth.

[第18の実施形態]
つぎに、図34示す本発明の第18実施形態を説明する。
図34は、本発明の第18実施形態における情報表示装置1200Bの概念構成図である。
なお、第18実施形態における情報表示装置1200Bの基本構成は前述した第17実施形態における情報表示装置1200と同様であり、同様の構成要素には同符号を付して説明を省略する。
図34に示す情報表示装置1200Bは、筐体1311と、筐体1311の上部に配設された表示部200と、画像投影部1330と、タッチ操作検出部1340と、移動量検出部1350と、圧力センサ1370と、表示制御装置1100と、を備えている。また、情報表示装置1200Bには、ディスプレイ300が接続されている。
[Eighteenth Embodiment]
Next, an eighteenth embodiment of the present invention shown in FIG. 34 will be described.
FIG. 34 is a conceptual configuration diagram of an information display device 1200B according to the eighteenth embodiment of the present invention.
Note that the basic configuration of the information display apparatus 1200B in the eighteenth embodiment is the same as that of the information display apparatus 1200 in the seventeenth embodiment described above, and the same components are denoted by the same reference numerals and description thereof is omitted.
An information display device 1200B illustrated in FIG. 34 includes a housing 1311, a display unit 200 disposed on the top of the housing 1311, an image projection unit 1330, a touch operation detection unit 1340, a movement amount detection unit 1350, A pressure sensor 1370 and a display control device 1100 are provided. A display 300 is connected to the information display device 1200B.

表示部200における表示板21は、所定の板厚で中空半球状に形成されており、その内周面全域にスクリーン22が形成されている。
画像投影部1330は、投射表示部31と、投影受光光学系32とにより構成されている。
投射表示部31は、LCDによる画像透光表示部と図示しない投射光源とにより構成されている。
The display plate 21 in the display unit 200 is formed in a hollow hemispherical shape with a predetermined plate thickness, and a screen 22 is formed over the entire inner peripheral surface thereof.
The image projection unit 1330 includes a projection display unit 31 and a projection light receiving optical system 32.
The projection display unit 31 includes an image translucent display unit using an LCD and a projection light source (not shown).

投影受光光学系32は、画角が略180°の魚眼レンズである対物レンズ32Aを備えており、表示部200の全域を画角内として配設されている。
そして、投影受光光学系32は、画像光を表示板21(スクリーン22)に向けて投射するように、半球状の表示部200の略中心に配設されている。投影受光光学系32は、表示制御装置1100(画像処理装置62)から入力される画像情報の画像光をスクリーン22に投射する。なお、この投影受光光学系32は、タッチ操作検出部1340の入射光学系も兼ねている。
The projection light receiving optical system 32 includes an objective lens 32A that is a fish-eye lens having an angle of view of approximately 180 °, and the entire area of the display unit 200 is disposed within the angle of view.
The projection light receiving optical system 32 is disposed substantially at the center of the hemispherical display unit 200 so as to project image light toward the display plate 21 (screen 22). The projection light receiving optical system 32 projects image light of image information input from the display control device 1100 (image processing device 62) onto the screen 22. The projection light receiving optical system 32 also serves as the incident optical system of the touch operation detection unit 1340.

タッチ操作検出部1340は、検出光源41と、検出光受光装置42とにより構成されている。
検出光源41は、表示部200における表示板21の側端面に、表示板21の内部に検出赤外光を照射するように配設されている。検出光源41によって表示板21の側端面から内部に照射された検出赤外光は、表示板21の内外面で全反射を繰り返して反対側の側端に至るようになっている。
The touch operation detection unit 1340 includes a detection light source 41 and a detection light receiving device 42.
The detection light source 41 is arranged on the side end surface of the display plate 21 in the display unit 200 so as to irradiate the inside of the display plate 21 with detection infrared light. The detection infrared light irradiated inside from the side end surface of the display plate 21 by the detection light source 41 repeats total reflection on the inner and outer surfaces of the display plate 21 and reaches the opposite side end.

検出光受光装置42は、ダイクロイックミラー42Mと、CCD等による赤外光受光センサ42Sとにより構成されている。
ダイクロイックミラー42Mは、特定波長の赤外光(検出光源41が出射する検出赤外光)のみを反射し可視光は透過する周波数特性を備えた反射鏡である。ダイクロイックミラー42Mは、投影受光光学系32における投射表示部31と投影受光光学系32の間の光路中に、光路に対して所定の角度で介設されている。
赤外光受光センサ42Sは、投影受光光学系32から入射してダイクロイックミラー42Mによって反射された検出光源41由来の検出赤外光を検出可能に配設されている。
このような検出光受光装置42は、画像投影部1330と投影受光光学系32を共用するため、全体をコンパクトに構成できると共に、画像の歪み補正が不要または容易である。
The detection light receiving device 42 includes a dichroic mirror 42M and an infrared light receiving sensor 42S such as a CCD.
The dichroic mirror 42M is a reflecting mirror having a frequency characteristic that reflects only infrared light having a specific wavelength (detected infrared light emitted from the detection light source 41) and transmits visible light. The dichroic mirror 42M is interposed in the optical path between the projection display unit 31 and the projection light receiving optical system 32 in the projection light receiving optical system 32 at a predetermined angle with respect to the optical path.
The infrared light receiving sensor 42S is disposed so as to be able to detect detection infrared light derived from the detection light source 41 that is incident from the projection light receiving optical system 32 and reflected by the dichroic mirror 42M.
Since such a detection light receiving device 42 shares the image projecting unit 1330 and the projection light receiving optical system 32, the entire configuration can be made compact, and image distortion correction is unnecessary or easy.

移動量検出部1350は、筐体1311の底部に回転自在に設けられたボール53と、ボール53の直交する2方向における回転を検出する図示しないセンサとを備え、筐体1311(すなわち情報表示装置1200B)の移動に伴うボール53の回転をセンサによって検出して出力する、いわゆるトラックボールである。   The movement amount detection unit 1350 includes a ball 53 rotatably provided at the bottom of the housing 1311 and a sensor (not shown) that detects rotation of the ball 53 in two directions orthogonal to each other, and includes a housing 1311 (that is, an information display device). 1200B) is a so-called trackball that detects and outputs rotation of the ball 53 with a sensor.

圧力センサ1370は、筐体1311と表示部200における表示板21との間に介設されている。圧力センサ1370は、表示板21に作用する押圧力を検出して、その検出情報を表示制御装置1100に出力する。
なお、表示板21に作用する押圧力を検出する構成としては、圧力センサ1370に限らず、所定の押圧力でON/OFFするスイッチを用いても良い。また、その配設位置は、たとえば、筐体1311の裏面として、設置面との間に介在する構成であっても良い。
The pressure sensor 1370 is interposed between the housing 1311 and the display plate 21 in the display unit 200. The pressure sensor 1370 detects the pressing force acting on the display board 21 and outputs the detection information to the display control device 1100.
The configuration for detecting the pressing force acting on the display board 21 is not limited to the pressure sensor 1370, and a switch that is turned ON / OFF by a predetermined pressing force may be used. Moreover, the arrangement | positioning position may intervene between an installation surface as the back surface of the housing | casing 1311, for example.

ディスプレイ300は、マウスモードでは表示部200が手で覆われて視認が困難となるため、表示部200に代わって画像等を表示する。そして、その画面上にマウスモードの操作をポインタで表すことで操作性が向上する。   The display 300 displays an image or the like instead of the display unit 200 because the display unit 200 is covered with a hand in the mouse mode and is difficult to view. The operability is improved by representing the mouse mode operation with a pointer on the screen.

表示制御装置1100は、圧力センサ1370から入力される表示部200(表示板21)に作用する押圧力の検出情報に基づいて、操作モード(タッチモードまたはマウスモード)を判定し、それぞれの制御を行う。
操作モードの判定は、圧力センサ1370から入力される表示板21に作用する押圧力を判定基準(閾値)と比較し、押圧力が定められた基準圧力を越えない場合にはタッチモードと判定し、押圧力が基準圧力を越える場合にはマウスモードと判定する。
The display control device 1100 determines the operation mode (touch mode or mouse mode) based on the detection information of the pressing force acting on the display unit 200 (display board 21) input from the pressure sensor 1370, and controls each of them. Do.
The operation mode is determined by comparing the pressing force applied to the display board 21 input from the pressure sensor 1370 with a determination reference (threshold value), and when the pressing force does not exceed a predetermined reference pressure, the touch mode is determined. When the pressing force exceeds the reference pressure, the mouse mode is determined.

すなわち、表示板21を指先で操作している場合には作用する押圧力は小さいためにタッチモードとし、情報表示装置1200全体を移動操作しようとして掴んだ場合には少なくとも手の重量が作用して押圧力が大きくなるためにマウスモードと判定する。   That is, when the display board 21 is operated with a fingertip, the applied pressure is small, so the touch mode is set. When the entire information display device 1200 is moved and operated, at least the weight of the hand is applied. Since the pressing force increases, the mouse mode is determined.

表示制御装置1100は、上記のようにして操作モードを判定した後、その判定結果に応じてタッチモードまたはマウスモードのそれぞれの制御を行う。この制御については、前述の第17の実施形態と同様であるが、マウスモードの場合には、ディスプレイ300上に表示部200に代わって画像等を表示し、その画面上にマウスモードの操作をポインタで表示する。   After determining the operation mode as described above, the display control device 1100 controls each of the touch mode and the mouse mode according to the determination result. This control is the same as in the seventeenth embodiment described above, but in the mouse mode, an image or the like is displayed on the display 300 instead of the display unit 200, and the mouse mode operation is performed on the screen. Display with pointer.

[第19の実施形態]
つぎに、図35示す本発明の第19の実施形態を説明する。
図35は、本発明の第19の実施形態における情報表示装置1200Cの概念構成図である。
なお、第19の実施形態における情報表示装置1200Cの基本構成は前述した第18の実施形態における情報表示装置1200Bと同様であり、同様の構成要素には同符号を付して説明を省略する。
[Nineteenth Embodiment]
Next, a nineteenth embodiment of the present invention shown in FIG. 35 is described.
FIG. 35 is a conceptual structural diagram of an information display apparatus 1200C in the nineteenth embodiment of the present invention.
The basic configuration of the information display device 1200C in the nineteenth embodiment is the same as that of the information display device 1200B in the eighteenth embodiment described above, and the same components are denoted by the same reference numerals and description thereof is omitted.

第19の実施形態に係る情報表示装置1200Cは、前述した第18の実施形態おける情報表示装置1200Bに対して、筐体1311の形状と、圧力センサ1370の構成が異なる。
情報表示装置1200Cは、タッチモードにおいて手(掌)190を置くためのパームレスト1312を備えている。
すなわち、筐体1311の一方側方に突設された、上面が外側に向かって下がり勾配のパームレスト1312が形成されている。
The information display device 1200C according to the nineteenth embodiment differs from the information display device 1200B according to the eighteenth embodiment in the shape of the housing 1311 and the configuration of the pressure sensor 1370.
The information display device 1200C includes a palm rest 1312 for placing a hand (palm) 190 in the touch mode.
In other words, the palm rest 1312 is formed so as to protrude from one side of the housing 1311 and whose upper surface is inclined downward toward the outside.

パームレスト1312の上面には、圧力センサ1370が設けられている。
圧力センサ1370は、パームレスト1312に置かれた手190の圧力を検知し、その検知情報を表示制御装置1100に出力する。
表示制御装置1100は、圧力センサ1370からパームレスト1312に置かれた手190の圧力検知情報が入力されると、マウスモードと判定するものである。
なお、パームレスト1312に置かれた手190の検出は、圧力センサに限らず、押圧スイッチや赤外線感知スイッチ等であっても良い。
A pressure sensor 1370 is provided on the top surface of the palm rest 1312.
The pressure sensor 1370 detects the pressure of the hand 190 placed on the palm rest 1312 and outputs the detection information to the display control device 1100.
When the pressure detection information of the hand 190 placed on the palm rest 1312 is input from the pressure sensor 1370, the display control device 1100 determines that the mouse mode is set.
The detection of the hand 190 placed on the palm rest 1312 is not limited to the pressure sensor, and may be a press switch, an infrared detection switch, or the like.

[第20の実施形態]
つぎに、図36示す本発明の第20の実施形態を説明する。
図36は、本発明の第20の実施形態における情報表示装置1200Dの概念構成図である。
なお、第20の実施形態における情報表示装置1200Dの基本構成は前述した第18の実施形態における情報表示装置1200Bと同様であり、同様の構成要素には同符号を付して説明を省略する。
第20の実施形態に係る情報表示装置1200Dは、前述した第18の実施形態おける情報表示装置1200Bに加えて、タッチモード時において当該情報表示装置1200Dの移動を規制する移動規制機構1390を備える。
[20th embodiment]
Next, a twentieth embodiment of the present invention shown in FIG. 36 will be described.
FIG. 36 is a conceptual configuration diagram of an information display device 1200D according to the twentieth embodiment of the present invention.
Note that the basic configuration of the information display device 1200D in the twentieth embodiment is the same as that of the information display device 1200B in the eighteenth embodiment described above, and the same components are denoted by the same reference numerals and description thereof is omitted.
In addition to the information display device 1200B in the eighteenth embodiment described above, the information display device 1200D according to the twentieth embodiment includes a movement restriction mechanism 1390 that restricts the movement of the information display device 1200D in the touch mode.

移動規制機構1390は、筐体1311の底部に設けられたスライドパッド91と、スライドパッド91を移動駆動するアクチュエータ92と、により構成されている。
スライドパッド91は、摩擦係数が小さく耐摩耗性の高い素材(たとえばポリアセタール樹脂等)によって形成され、筐体1311の内部に引っ込んだ退避状態と、筐体1311の底面から所定量突出した作用状態との間で移動可能に設けられている。
アクチュエータ92は、たとえば電気的に駆動するソレノイド等であり、表示制御装置1100によって駆動制御され、スライドパッド91を、筐体1311の内部に引っ込んだ退避状態から、底面から突出した作用状態に移動操作する。
The movement restricting mechanism 1390 includes a slide pad 91 provided at the bottom of the housing 1311 and an actuator 92 that moves and drives the slide pad 91.
The slide pad 91 is made of a material having a low friction coefficient and high wear resistance (for example, polyacetal resin), and is in a retracted state retracted into the housing 1311 and an operating state projecting a predetermined amount from the bottom surface of the housing 1311. It is provided so that it can move between.
The actuator 92 is, for example, an electrically driven solenoid or the like. The actuator 92 is driven and controlled by the display control device 1100, and the slide pad 91 is moved from the retracted state retracted into the housing 1311 to the operating state protruding from the bottom surface. To do.

表示制御装置1100は、操作モード判定によってタッチモードと判定した場合には、スライドパッド91を退避状態とし、マウスモードと判定した場合には、アクチュエータ92を駆動してスライドパッド91を筐体1311の底面から突出させる。
これにより、タッチモードでは筐体1311の底面全体が設置面に当接して移動しづらく安定した操作が可能となると共に、マウスモードではスライドパッド91のみが設置面に当接して円滑な移動が可能となる。
The display control device 1100 puts the slide pad 91 in the retracted state when the touch mode is determined by the operation mode determination, and drives the actuator 92 to move the slide pad 91 to the housing 1311 when the mouse mode is determined. Project from the bottom.
Accordingly, in the touch mode, the entire bottom surface of the housing 1311 is in contact with the installation surface and can be operated with stability, and in the mouse mode, only the slide pad 91 is in contact with the installation surface and can be smoothly moved. It becomes.

[第21の実施形態]
つぎに、図37示す本発明の第21の実施形態を説明する。
図37は、本発明の第21の実施形態における情報表示装置1200Eの概念構成図である。
なお、第21の実施形態における情報表示装置1200Eの基本構成は前述した第17の実施形態における情報表示装置1200と同様であり、同様の構成要素には同符号を付して説明を省略する。
[Twenty-first embodiment]
Next, a twenty-first embodiment of the present invention shown in FIG. 37 is described.
FIG. 37 is a conceptual structural diagram of an information display device 1200E according to the twenty-first embodiment of the present invention.
The basic configuration of the information display device 1200E in the twenty-first embodiment is the same as that of the information display device 1200 in the seventeenth embodiment described above, and the same components are denoted by the same reference numerals and description thereof is omitted.

第21の実施形態に係る情報表示装置1200Eは、前述した第17の実施形態における情報表示装置1200に加えて、音声生成部1380を備える。
音声生成部1380は、CPU61に接続され、ストレージ66に保存されている楽曲を情報表示装置1200Eより流すことが可能となっている。
第21の実施形態においてマウスモードの際に、移動量検出部1350から入力された当該情報表示装置1200の移動情報に基づくCPU61からの指令によって、音声生成部1380における楽曲が変更され、または音声の強弱の変更等が行われる。
An information display device 1200E according to the twenty-first embodiment includes an audio generation unit 1380 in addition to the information display device 1200 according to the seventeenth embodiment described above.
The sound generation unit 1380 is connected to the CPU 61 and can play music stored in the storage 66 from the information display device 1200E.
In the twenty-first embodiment, in the mouse mode, the music in the sound generation unit 1380 is changed by the instruction from the CPU 61 based on the movement information of the information display device 1200 input from the movement amount detection unit 1350, or the sound of the sound is displayed. Changes in strength are made.

以上、本実施形態によると、以下の効果を有する。
(1)本発明の情報表示装置1200は、表示部200に表示した画像を接触操作することで表示に対して操作するタッチモードと、当該情報表示装置1200の全体を移動操作することで諸々の操作が可能なマウスモードの2つの操作モードで操作できる。
(2)情報表示装置1200は、タッチモードとマウスモードの操作モードの切り換えが、表示部200への接触状態に基づく判定によって行われるため、操作モードの切り換えが容易に行える。
As described above, this embodiment has the following effects.
(1) The information display device 1200 according to the present invention includes a touch mode in which an image displayed on the display unit 200 is touched to operate the display, and various operations are performed by moving the entire information display device 1200. It can be operated in two operation modes, mouse mode, where operation is possible.
(2) Since the information display device 1200 is switched between the operation modes of the touch mode and the mouse mode based on the determination based on the contact state with the display unit 200, the operation mode can be easily switched.

以上、説明した実施形態に限定されることなく、以下に示すような種々の変形や変更が可能であり、それらも本発明の範囲内である。例えば、上記各実施形態における表示部200の形状、タッチ操作検出部1340および移動量検出部1350の構成や、構成の組み合わせは、各実施形態に限定されるものではなく、適宜変更可能である。   The present invention is not limited to the above-described embodiment, and various modifications and changes as described below are possible, and these are also within the scope of the present invention. For example, the shape of the display unit 200, the configuration of the touch operation detection unit 1340 and the movement amount detection unit 1350, and the combination of configurations in each of the above embodiments are not limited to each embodiment, and can be changed as appropriate.

なお、実施形態及び変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。また、本発明は以上説明した実施形態によって限定されることはない。   In addition, although embodiment and a deformation | transformation form can also be used in combination as appropriate, detailed description is abbreviate | omitted. Further, the present invention is not limited to the embodiment described above.

なお、上述した各実施形態の説明において、表示制御装置1100、検索手段制御装置1101及び検索結果出力装置130は、机3の天板部分に埋め込まれた表示部200、200Aに情報を表示させているが、これに限られない。例えば、表示部200は、壁に設置されているものでもよく、図1に示すように半球状の表示部200が机3の上に設置されていてもよい。
図1は、半球状に構成された表示部200に出力する表示システム1000の一例を示す構成図である。
表示制御装置1100は、表示部200に検索結果を示す画像を表示させる。この場合、表示部200に表示される画像は、特定の発話者2にのみ視認されることになる。例えば、表示制御装置1100、検索手段制御装置1101及び検索結果出力装置130は、所定の方向に向かって着席している特定の発話者2(例えば、図2、図7における発話者2A)によって発せられた音声情報に基づいて、文字情報のうちから特定の文字情報を選択することができる。これにより、例えば、表示制御装置1100、検索手段制御装置1101及び検索結果出力装置130は、発話者2Aが特定の情報(例えば、発話者2A自身が作成した会議資料)を検索して表示するように要求する内容を発言した場合に、発話者2Aにのみ視認されるようにして、特定の情報を表示させることができる。
In the description of each embodiment described above, the display control device 1100, the search unit control device 1101, and the search result output device 130 display information on the display units 200 and 200A embedded in the top plate portion of the desk 3. However, it is not limited to this. For example, the display unit 200 may be installed on a wall, or the hemispherical display unit 200 may be installed on the desk 3 as shown in FIG.
FIG. 1 is a configuration diagram illustrating an example of a display system 1000 that outputs to a display unit 200 configured in a hemispherical shape.
The display control apparatus 1100 displays an image indicating the search result on the display unit 200. In this case, the image displayed on the display unit 200 is visually recognized only by the specific speaker 2. For example, the display control device 1100, the search means control device 1101, and the search result output device 130 are uttered by a specific speaker 2 (for example, the speaker 2A in FIGS. 2 and 7) sitting in a predetermined direction. Based on the received voice information, specific character information can be selected from the character information. Thereby, for example, the display control device 1100, the search means control device 1101, and the search result output device 130 cause the speaker 2 </ b> A to search for and display specific information (for example, conference material created by the speaker 2 </ b> A itself). When the content requested to the user is spoken, specific information can be displayed so that only the speaker 2A can visually recognize it.

なお、上述した各実施形態において、表示制御装置1100、検索手段制御装置1101及び検索結果出力装置130は、4つの収音部101を備えている構成を一例にして説明したが、これに限られない。表示制御装置1100、検索手段制御装置1101及び検索結果出力装置130は、収音部101の周囲の音声が検出できればよく、例えば、机3の下部などに、単一の又は複数の収音部101を備えていてもよい。これにより、表示制御装置1100、検索手段制御装置1101及び検索結果出力装置130は、例えば、机3の大きさに応じた位置及び数の収音部101を備えることができる。   In each of the above-described embodiments, the display control device 1100, the search unit control device 1101, and the search result output device 130 have been described by taking the configuration including the four sound collection units 101 as an example. Absent. The display control device 1100, the search means control device 1101, and the search result output device 130 are only required to be able to detect the sound around the sound collection unit 101. For example, a single or a plurality of sound collection units 101 are provided below the desk 3. May be provided. Thereby, the display control device 1100, the search means control device 1101, and the search result output device 130 can include, for example, the sound collecting units 101 having the positions and the number corresponding to the size of the desk 3.

以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。   As mentioned above, although embodiment of this invention has been explained in full detail with reference to drawings, a concrete structure is not restricted to this embodiment and can be suitably changed in the range which does not deviate from the meaning of this invention. .

なお、上記の実施形態における情報生成部1110、結果出力処理部1120、生成部102、変換部103、識別部104、選択部106、出力部107、結果選択部108、設定部109、又は結果出力部110(以下、これらを総称して制御部CONTと記載する)又はこの制御部CONTが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。   Note that the information generation unit 1110, result output processing unit 1120, generation unit 102, conversion unit 103, identification unit 104, selection unit 106, output unit 107, result selection unit 108, setting unit 109, or result output in the above embodiment The unit 110 (hereinafter collectively referred to as a control unit CONT) or each unit included in the control unit CONT may be realized by dedicated hardware, or realized by a memory and a microprocessor. It may be allowed.

なお、この制御部CONTが備える各部は、メモリおよびCPU(中央演算装置)により構成され、制御部CONTが備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。   Each unit included in the control unit CONT includes a memory and a CPU (central processing unit), and the function is realized by loading a program for realizing the function of each unit included in the control unit CONT into the memory and executing the program. It may be realized.

また、制御部CONTが備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部CONTが備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Further, by recording a program for realizing the function of each unit included in the control unit CONT on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, the control unit You may perform the process by each part with which CONT is provided. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

1000…表示システム
1100…表示制御装置、1110…情報生成部、1120…結果出力処理部、
1200…情報表示装置、
2…発話者、11…検索手段、
101…収音部、200…表示部(表示装置)、300…ディスプレイ(外部装置)
1000 ... display system 1100 ... display control device, 1110 ... information generation unit, 1120 ... result output processing unit,
1200 ... information display device,
2 ... Speaker, 11 ... Search means,
101 ... Sound collecting unit, 200 ... Display unit (display device), 300 ... Display (external device)

Claims (27)

発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成する情報生成部と、
複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を出力するとともに、少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報を出力する結果出力処理部と
を備えることを特徴とする表示制御装置。
An information generating unit that generates information associated with the voice uttered by the speaker from the voice uttered by the speaker;
Output first search information corresponding to a first search result searched based on first information associated with voices uttered by a plurality of the speakers, and at least one of the plurality of speakers And a result output processing unit that outputs second search information corresponding to the second search result searched based on the second information associated with the voice uttered by the speaker. .
前記情報生成部は、
前記複数の発話者が発した音声から抽出した前記発話者の発言内容に基づいた前記第1情報を生成するとともに、少なくとも前記複数の発話者のうちの何れかの発話者が発した音声から抽出した前記何れかの発話者の発言内容に基づいた前記第2情報を生成する
ことを特徴とする請求項1に記載の表示制御装置。
The information generator is
Generating the first information based on the utterance content of the speaker extracted from the voices uttered by the plurality of speakers, and extracting from the voice uttered by at least one of the plurality of speakers The display control apparatus according to claim 1, wherein the second information is generated based on the content of any one of the speakers.
前記結果出力処理部は、
複数の画面に表示させる情報として、第1画面に表示させる前記第1検索情報及び第2画面に表示させる前記第2検索情報を出力する
ことを特徴とする請求項1又は請求項2に記載の表示制御装置。
The result output processing unit
The first search information to be displayed on a first screen and the second search information to be displayed on a second screen are output as information to be displayed on a plurality of screens. Display control device.
前記情報生成部は、
前記発話者の状態を検出し、前記状態が検出された発話者が発した音声に対応付けられる第2情報を生成し、
前記結果出力処理部は、
前記状態が検出された発話者が発した音声に対応付けられる第2情報に基づいた前記第2検索情報を得る
ことを特徴とする請求項3に記載の表示制御装置。
The information generator is
Detecting the state of the speaker, and generating second information associated with the voice uttered by the speaker whose state is detected;
The result output processing unit
The display control apparatus according to claim 3, wherein the second search information is obtained based on second information associated with a voice uttered by a speaker whose state is detected.
前記情報生成部は、
前記発話者の位置を検出することにより前記発話者を識別し、前記識別された前記発話者が発した音声に対応付けられる第2情報を生成し、
前記結果出力処理部は、
前記識別された発話者が発した音声に対応付けられる第2情報に基づいた前記第2検索情報を得る
ことを特徴とする請求項4に記載の表示制御装置。
The information generator is
Identifying the speaker by detecting the position of the speaker, and generating second information associated with the voice uttered by the identified speaker;
The result output processing unit
The display control apparatus according to claim 4, wherein the second search information is obtained based on second information associated with a voice uttered by the identified speaker.
前記情報生成部は、
第2画面を見ている前記発話者を識別し、前記識別された発話者が発した音声に対応付けられる第2情報を生成する、
ことを特徴とする請求項3から請求項5の何れか1項に記載の表示制御装置。
The information generator is
Identifying the speaker looking at the second screen and generating second information associated with the speech uttered by the identified speaker;
The display control device according to claim 3, wherein the display control device is a display control device.
前記情報生成部は、
前記第2画面を見ていると識別された前記発話者が発した音声の音声情報から、前記発話者が発言した発言内容と識別された情報から抽出された前記第2情報を生成する
ことを特徴とする請求項6に記載の表示制御装置。
The information generator is
Generating the second information extracted from the speech information spoken by the speaker and the information identified from the speech information spoken by the speaker identified as viewing the second screen. The display control apparatus according to claim 6.
前記情報生成部は、
前記発話者の状態に応じて前記第2情報を生成する
ことを特徴とする請求項4から請求項7の何れか1項に記載の表示制御装置。
The information generator is
The display control device according to any one of claims 4 to 7, wherein the second information is generated according to a state of the speaker.
前記結果出力処理部は、
前記第2の検索結果のうちから選択する前記第2検索情報を、前記発話者の状態に応じて選択する
ことを特徴とする請求項4から請求項8の何れか1項に記載の表示制御装置。
The result output processing unit
The display control according to any one of claims 4 to 8, wherein the second search information to be selected from among the second search results is selected according to the state of the speaker. apparatus.
前記情報生成部は、
前記発話者の状態を、検出された前記発話者の姿勢により識別する
ことを特徴とする請求項4から請求項9の何れか1項に記載の表示制御装置。
The information generator is
The display control apparatus according to claim 4, wherein the state of the speaker is identified by the detected posture of the speaker.
前記情報生成部は、
前記発話者の状態を、検出された前記発話者の発言頻度(積極性)により識別する
ことを特徴とする請求項4から請求項10の何れか1項に記載の表示制御装置。
The information generator is
The display control apparatus according to any one of claims 4 to 10, wherein the state of the speaker is identified by the detected speech frequency (aggressiveness) of the speaker.
前記情報生成部は、
前記第1検索情報を検索する検索条件になる前記第1情報と、前記第2検索情報を検索する検索条件になる前記第2情報とが互いに異なるように、前記第1情報と前記第2情報とを生成する
ことを特徴とする請求項1から請求項11の何れか1項に記載の表示制御装置。
The information generator is
The first information and the second information are different from each other so that the first information serving as a search condition for searching for the first search information and the second information serving as a search condition for searching for the second search information are different from each other. The display control apparatus according to any one of claims 1 to 11, wherein:
前記結果出力処理部は、
前記第1検索情報を得られた順に出力し、
前記第2検索情報を出力する優先度に応じた順に出力する
ことを特徴とする請求項1から請求項12の何れか1項に記載の表示制御装置。
The result output processing unit
Outputting the first search information in the order obtained;
The display control apparatus according to any one of claims 1 to 12, wherein the display information is output in an order corresponding to a priority of outputting the second search information.
前記情報生成部は、
前記複数の発話者が発した音声に含まれる単語を抽出する抽出部と、
前記抽出部によって抽出された前記単語に基づく検索条件を定める前記第1情報に基づいた検索を検索手段に実行させ、前記第1の検索結果を得るように制御する検索処理制御部と、
を備え、
前記検索処理制御部は、
前記検索条件を広めていく第1の検索モードと、前記検索条件を狭めていく第2の検索モードとを有する
ことを特徴とする請求項1から請求項13の何れか1項に記載の表示制御装置。
The information generator is
An extraction unit that extracts words included in the speech uttered by the plurality of speakers;
A search processing control unit that controls a search unit to execute a search based on the first information that defines a search condition based on the word extracted by the extraction unit, and obtains the first search result;
With
The search processing control unit
The display according to any one of claims 1 to 13, further comprising: a first search mode for widening the search condition; and a second search mode for narrowing the search condition. Control device.
前記情報生成部は、
前記発話者によって発せられた音声の音声情報を文字情報に変換する変換部と、
前記発話者の重要度に基づいて、前記文字情報から特定の文字情報を選択する選択部と、
入力された文字情報に関連する情報を検索する検索手段に、前記選択部によって選択された前記特定の文字情報を前記第1情報として出力する出力部と、
を備え、
前記結果出力処理部は、
前記検索手段による前記第1の検索結果に応じた前記第1検索情報を出力する
ことを特徴とする請求項1から請求項14の何れか1項に記載の表示制御装置。
The information generator is
A converter that converts voice information of the voice uttered by the speaker into character information;
A selection unit that selects specific character information from the character information based on the importance of the speaker;
An output unit that outputs the specific character information selected by the selection unit as the first information to a search unit that searches for information related to the input character information;
With
The result output processing unit
The display control apparatus according to any one of claims 1 to 14, wherein the first search information corresponding to the first search result by the search means is output.
前記表示制御装置に対して行われる操作を検出する操作検出部と、
を備え、
前記操作検出部は、
前記操作が、前記第1検索情報を表示する表示部の駆動に関する第一操作か、外部装置の駆動に関する第二操作かを判別し、
前記結果出力処理部は、
前記操作が前記第一操作と判別された場合に、該操作の内容に応じて前記表示部を駆動し、前記操作が前記第二操作と判別された場合に、該操作の内容に応じた駆動信号を前記外部装置へ出力する
ことを特徴とする請求項1から請求項15の何れか1項に記載の表示制御装置。
An operation detection unit for detecting an operation performed on the display control device;
With
The operation detection unit is
Determining whether the operation is a first operation related to driving the display unit displaying the first search information or a second operation related to driving an external device;
The result output processing unit
When the operation is determined as the first operation, the display unit is driven according to the content of the operation, and when the operation is determined as the second operation, the drive is performed according to the content of the operation. The display control apparatus according to any one of claims 1 to 15, wherein a signal is output to the external apparatus.
請求項1に記載の表示制御装置
を備え、
前記表示制御装置は、
前記第1検索情報を表示部に表示させ、前記第2検索情報を外部装置に表示させる
ことを特徴とする表示システム。
A display control device according to claim 1,
The display control device includes:
The display system, wherein the first search information is displayed on a display unit, and the second search information is displayed on an external device.
請求項1に記載の表示制御装置と、
前記表示制御装置から出力される前記第1検索情報を表示する表示部と
を備えることを特徴とする表示装置。
A display control device according to claim 1;
And a display unit that displays the first search information output from the display control device.
前記表示部は、
備える表示面に球面の一部又は平面を含む
ことを特徴とする請求項18に記載の表示装置。
The display unit
The display device according to claim 18, wherein the display surface includes a part of a spherical surface or a flat surface.
前記表示部に画像を投影する画像投影部と、
を備え、
前記表示制御装置は、
少なくとも外部装置に表示する前記第2検索情報を出力する信号出力部と、
該表示制御装置に対して行われる操作を検出する操作検出部と、
を備え、
前記表示制御装置は、
前記操作が、前記表示部の駆動に関する第一操作か、前記外部装置の駆動に関する第二操作かを判別し、前記操作が前記第一操作と判別された場合、該操作の内容に応じて前記表示部を駆動し、前記操作が前記第二操作と判別された場合に、該操作の内容に応じた駆動信号を前記信号出力部より前記外部装置へ出力する
ことを特徴とする請求項18又は請求項19に記載の表示装置。
An image projection unit that projects an image on the display unit;
With
The display control device includes:
A signal output unit that outputs at least the second search information to be displayed on an external device;
An operation detection unit for detecting an operation performed on the display control device;
With
The display control device includes:
It is determined whether the operation is a first operation related to driving of the display unit or a second operation related to driving of the external device, and when the operation is determined to be the first operation, the operation is determined according to the content of the operation. The display unit is driven, and when the operation is determined to be the second operation, a drive signal corresponding to the content of the operation is output from the signal output unit to the external device. The display device according to claim 19.
請求項1に記載の表示制御装置と、
前記第1検索情報を表示する端末表示部と、
を備え、
前記結果出力処理部は、
前記第1検索情報を前記端末表示部に表示させる
ことを特徴とする端末装置。
A display control device according to claim 1;
A terminal display for displaying the first search information;
With
The result output processing unit
The terminal device, wherein the first search information is displayed on the terminal display unit.
請求項1に記載の表示制御装置によって制御される端末装置であって、
前記第1検索情報を表示する端末表示部と、
前記第1検索情報を前記表示制御装置から得て前記端末表示部に表示させる端末制御部と
を備えることを特徴とする端末装置。
A terminal device controlled by the display control device according to claim 1,
A terminal display for displaying the first search information;
A terminal control unit that obtains the first search information from the display control device and displays the first search information on the terminal display unit.
発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成する過程と、
複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を出力する過程と、
少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報を出力する過程と、
を含むことを特徴とする表示制御方法。
Generating information associated with the voice uttered by the speaker from the voice uttered by the speaker;
Outputting first search information according to a first search result searched based on first information associated with voices uttered by a plurality of the speakers;
A step of outputting second search information according to a second search result searched based on second information associated with voice uttered by at least one of the plurality of speakers;
A display control method comprising:
表示制御装置が備えるコンピュータに、
発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成するステップと、
複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を出力するステップと、
少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報をさらに出力するステップ
を実行させるためのプログラム。
In the computer provided with the display control device,
Generating information associated with the voice uttered by the speaker from the voice uttered by the speaker;
Outputting first search information corresponding to a first search result searched based on first information associated with voices uttered by a plurality of the speakers;
The step of further outputting the second search information corresponding to the second search result searched based on the second information associated with the voice uttered by at least any one of the plurality of speakers is executed. Program to let you.
表示制御装置と、前記表示制御装置が出力した情報を表示する表示部とを備える表示装置が備えるコンピュータに、
発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成するステップと、
複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を出力するステップと、
少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報をさらに出力するステップと、
前記第1検索情報及び前記第2検索情報の何れかを前記表示部に表示させるステップと、
を実行させるためのプログラム。
A computer provided in a display device including a display control device and a display unit that displays information output by the display control device,
Generating information associated with the voice uttered by the speaker from the voice uttered by the speaker;
Outputting first search information corresponding to a first search result searched based on first information associated with voices uttered by a plurality of the speakers;
A step of further outputting second search information corresponding to a second search result searched based on second information associated with a voice uttered by at least one of the plurality of speakers;
Displaying either the first search information or the second search information on the display unit;
A program for running
端末表示部を備えている端末装置が備えるコンピュータに、
発話者が発した音声から、前記発話者が発した音声に対応付けられる情報を生成するステップと、
複数の前記発話者が発した音声に対応付けられる第1情報に基づいて検索された第1の検索結果に応じた第1検索情報を前記端末表示部に表示させるステップと、
少なくとも前記複数の発話者のうちの何れかの発話者が発した音声に対応付けられる第2情報に基づいて検索された第2の検索結果に応じた第2検索情報を出力するステップと、
を実行させるためのプログラム。
In a computer provided in a terminal device provided with a terminal display unit,
Generating information associated with the voice uttered by the speaker from the voice uttered by the speaker;
Displaying, on the terminal display unit, first search information corresponding to a first search result searched based on first information associated with voices uttered by a plurality of the speakers;
Outputting second search information according to a second search result searched based on second information associated with a voice uttered by at least one of the plurality of speakers;
A program for running
備える端末表示部に表示する表示内容が、請求項1に記載の表示制御装置によって制御される端末装置が備えるコンピュータに、
前記端末表示部が前記第1検索情報を表示するステップと、
前記第1検索情報を前記表示制御装置から得て前記端末表示部に表示させるステップと、
を実行させるためのプログラム。
The display content to be displayed on the terminal display unit provided in a computer provided in the terminal device controlled by the display control device according to claim 1,
The terminal display unit displaying the first search information;
Obtaining the first search information from the display control device and displaying it on the terminal display unit;
A program for running
JP2012150556A 2012-07-04 2012-07-04 Display control device, display system, display device, terminal device, display control method and program Pending JP2014013494A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012150556A JP2014013494A (en) 2012-07-04 2012-07-04 Display control device, display system, display device, terminal device, display control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012150556A JP2014013494A (en) 2012-07-04 2012-07-04 Display control device, display system, display device, terminal device, display control method and program

Publications (1)

Publication Number Publication Date
JP2014013494A true JP2014013494A (en) 2014-01-23

Family

ID=50109143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012150556A Pending JP2014013494A (en) 2012-07-04 2012-07-04 Display control device, display system, display device, terminal device, display control method and program

Country Status (1)

Country Link
JP (1) JP2014013494A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006088A1 (en) * 2014-07-10 2016-01-14 株式会社 東芝 Electronic device, method and program
JP2016024590A (en) * 2014-07-18 2016-02-08 キャンバスマップル株式会社 Apparatus, program, and system for information search
JP2016024589A (en) * 2014-07-18 2016-02-08 キャンバスマップル株式会社 Apparatus, program, and system for information search
WO2018087967A1 (en) * 2016-11-08 2018-05-17 ソニー株式会社 Information processing device and information processing method
JP6345327B1 (en) * 2017-09-07 2018-06-20 ヤフー株式会社 Voice extraction device, voice extraction method, and voice extraction program
JP2020034897A (en) * 2018-08-02 2020-03-05 サウンドハウンド,インコーポレイテッド Visually presenting information relevant to natural language conversation
CN111372004A (en) * 2019-04-25 2020-07-03 深圳市泰衡诺科技有限公司 Camera control method, mobile terminal and computer-readable storage medium
JPWO2019073669A1 (en) * 2017-10-13 2020-10-01 ソニー株式会社 Information processing equipment, information processing methods, and programs
WO2020213115A1 (en) * 2019-04-18 2020-10-22 日本電信電話株式会社 Utterance image creation device, utterance image creation method, and program
JPWO2021171449A1 (en) * 2020-02-27 2021-09-02
CN113424124A (en) * 2019-04-29 2021-09-21 谷歌有限责任公司 Electrically powered computing device that automatically adjusts the orientation of the device location and/or interface based on automated assistant requests

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006088A1 (en) * 2014-07-10 2016-01-14 株式会社 東芝 Electronic device, method and program
JPWO2016006088A1 (en) * 2014-07-10 2017-04-27 株式会社東芝 Electronic apparatus, method and program
JP2016024590A (en) * 2014-07-18 2016-02-08 キャンバスマップル株式会社 Apparatus, program, and system for information search
JP2016024589A (en) * 2014-07-18 2016-02-08 キャンバスマップル株式会社 Apparatus, program, and system for information search
WO2018087967A1 (en) * 2016-11-08 2018-05-17 ソニー株式会社 Information processing device and information processing method
US11289099B2 (en) 2016-11-08 2022-03-29 Sony Corporation Information processing device and information processing method for determining a user type based on performed speech
JP6345327B1 (en) * 2017-09-07 2018-06-20 ヤフー株式会社 Voice extraction device, voice extraction method, and voice extraction program
JP2019045818A (en) * 2017-09-07 2019-03-22 ヤフー株式会社 Voice extraction device, voice extraction method and voice extraction program
JPWO2019073669A1 (en) * 2017-10-13 2020-10-01 ソニー株式会社 Information processing equipment, information processing methods, and programs
JP2020034897A (en) * 2018-08-02 2020-03-05 サウンドハウンド,インコーポレイテッド Visually presenting information relevant to natural language conversation
WO2020213115A1 (en) * 2019-04-18 2020-10-22 日本電信電話株式会社 Utterance image creation device, utterance image creation method, and program
JPWO2020213115A1 (en) * 2019-04-18 2020-10-22
JP7287459B2 (en) 2019-04-18 2023-06-06 日本電信電話株式会社 Speech imaging device, speech imaging method and program
CN111372004A (en) * 2019-04-25 2020-07-03 深圳市泰衡诺科技有限公司 Camera control method, mobile terminal and computer-readable storage medium
CN113424124A (en) * 2019-04-29 2021-09-21 谷歌有限责任公司 Electrically powered computing device that automatically adjusts the orientation of the device location and/or interface based on automated assistant requests
JP2022529868A (en) * 2019-04-29 2022-06-27 グーグル エルエルシー Motorized computing device that autonomously adjusts device location and / or interface orientation according to automated assistant requests
US11727931B2 (en) 2019-04-29 2023-08-15 Google Llc Motorized computing device that autonomously adjusts device location and/or orientation of interfaces according to automated assistant requests
JP7386876B2 (en) 2019-04-29 2023-11-27 グーグル エルエルシー A motorized computing device that autonomously adjusts device location and/or interface orientation according to automated assistant requests.
JPWO2021171449A1 (en) * 2020-02-27 2021-09-02
JP7163968B2 (en) 2020-02-27 2022-11-01 日本電気株式会社 SERVER DEVICE, CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT METHOD AND PROGRAM

Similar Documents

Publication Publication Date Title
JP2014013494A (en) Display control device, display system, display device, terminal device, display control method and program
TWI737965B (en) Method, electronic device, and non-transitory computer-readable storage medium for providing natural language interaction by a virtual assistant
JP6738445B2 (en) Long-distance extension of digital assistant service
US11837232B2 (en) Digital assistant interaction in a video communication session environment
US11183193B1 (en) Digital assistant hardware abstraction
US20230036798A1 (en) Systems and methods for providing search interface with contextual suggestions
US11638059B2 (en) Content playback on multiple devices
US11755276B2 (en) Reducing description length based on confidence
US11290834B2 (en) Determining head pose based on room reverberation
JP2019531538A (en) Wordflow annotation
KR20150138109A (en) Reducing the need for manual start/end-pointing and trigger phrases
CN109416591A (en) Image data for enhanced user interaction
WO2020240838A1 (en) Conversation control program, conversation control method, and information processing device
EP4352607A1 (en) Speech interpretation based on environmental context
US20240055017A1 (en) Multiple state digital assistant for continuous dialog
WO2020142681A1 (en) Content playback on multiple devices
US20230368812A1 (en) Determining whether speech input is intended for a digital assistant
JP6950708B2 (en) Information processing equipment, information processing methods, and information processing systems
CN117971154A (en) Multimodal response
WO2022266209A2 (en) Conversational and environmental transcriptions
US20190035420A1 (en) Information processing device, information processing method, and program
JP2013164642A (en) Retrieval means control device, retrieval result output device, and program
CN111816180B (en) Method, device, equipment, system and medium for controlling elevator based on voice
US11164576B2 (en) Multimodal responses
JP2006121264A (en) Motion picture processor, processing method and program