JP2008021216A - Information retrieval system - Google Patents

Information retrieval system Download PDF

Info

Publication number
JP2008021216A
JP2008021216A JP2006193982A JP2006193982A JP2008021216A JP 2008021216 A JP2008021216 A JP 2008021216A JP 2006193982 A JP2006193982 A JP 2006193982A JP 2006193982 A JP2006193982 A JP 2006193982A JP 2008021216 A JP2008021216 A JP 2008021216A
Authority
JP
Japan
Prior art keywords
user
data
attribute
value
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006193982A
Other languages
Japanese (ja)
Other versions
JP4707621B2 (en
Inventor
Takuo Ikeda
拓郎 池田
Toshiyuki Fukuoka
俊之 福岡
Hideshi Kitagawa
英志 北川
Kiyouko Okuyama
鏡子 奥山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006193982A priority Critical patent/JP4707621B2/en
Publication of JP2008021216A publication Critical patent/JP2008021216A/en
Application granted granted Critical
Publication of JP4707621B2 publication Critical patent/JP4707621B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To change a data selection method, according to the way of a user's response input operation to the operation of an interactive information retrieval system. <P>SOLUTION: The interactive information retrieval system comprises an interactive control means (50) for determining the next information to be received from an input information processing means, determining data to be presented to a user, in response to the information received from the input information processing means and determining the output information that should be supplied to an output information processing means, on the basis of attributes of the data; a retrieval condition determining means for determining the retrieval conditions; a data-retrieving means (30) for retrieving a database in accordance with the retrieval conditions; a data selecting means (72) for selecting data to be presented to the user, from the extracted data; a feature extracting means (60) for extracting the features of input information received by an input information processing means, with respect to presented output information; and a change attribute determining means (74) for determining which attribute values of the output information are to be changed, according to the extracted features. The retrieval condition determining means determines the retrieval conditions, on the basis of the changed attribute value. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ユーザと情報処理システムの間での対話によってデータを選択する対話型の情報検索システムに関し、特に、データベースの中からユーザの所望のデータを選択して提示するためのユーザ入力の処理を実現する対話型の情報検索システムおよびそのような情報検索システムを有する電子機器に関する。   The present invention relates to an interactive information retrieval system that selects data by interaction between a user and an information processing system, and in particular, processing of user input for selecting and presenting user-desired data from a database. The present invention relates to an interactive information search system that realizes the above and an electronic apparatus having such an information search system.

膨大なデータを含むデータベースからユーザが所望のデータを見つけ出すために、通常、ユーザは検索システムに検索条件を入力して検索を行う。検索システムは、データに付与されている属性と検索条件とを比較して、検索条件と一致するデータを検索結果としてユーザに提示する。多数のデータが検索結果として提示された場合は、ユーザは追加の検索条件を入力して、データの絞り込みを行うか、または検索条件を変更して再度検索を行う。   In order for a user to find desired data from a database including a large amount of data, the user usually performs a search by inputting a search condition into a search system. The search system compares the attribute assigned to the data with the search condition, and presents data that matches the search condition to the user as a search result. When a large number of data are presented as search results, the user inputs additional search conditions and narrows down the data, or changes the search conditions and searches again.

検索を支援するために、検索システムが追加の検索条件のための関連キーワードをユーザに提示し、または検索システムが自動的に検索条件を補足する手法が知られている。また、膨大なデータを含むデータベースから所望のデータを見つけ出すために、ユーザ自身が検索条件を入力するのではなく、検索システムが、ユーザの操作履歴に基づいて、ユーザの希望に適合しそうなデータを推薦する手法も知られている。   To assist the search, a technique is known in which the search system presents relevant keywords for additional search conditions to the user, or the search system automatically supplements the search conditions. In addition, in order to find desired data from a database containing a large amount of data, the search system does not input search conditions by itself, but the search system retrieves data that is likely to meet the user's wishes based on the user's operation history. The method of recommending is also known.

情報処理システムにおいて、ユーザに単に情報を提供するだけでなく、ユーザからの入力音声信号を処理して、対話形式で情報をユーザに提供することができる。それによって、ユーザは、例えば音楽再生のような様々な情報提供サービスを少ないキー操作で利用できる。そのために、通常、サービス・メニューの階層をたどって、提供されるサービスが切り替えられる。   In the information processing system, it is possible not only to provide information to the user, but also to process the input voice signal from the user and provide the information to the user in an interactive manner. Accordingly, the user can use various information providing services such as music playback with few key operations. For this purpose, the service to be provided is usually switched through the service menu hierarchy.

通常の対話型の情報処理システムでは、ユーザの所望のサービスを提供するためのそのシステムの動作が記述されたサービス・シナリオを処理することによって、ユーザに様々なサービスを提供する。対話型の情報処理システムは、サービス・シナリオに従って、ユーザとの間で対話的に情報のやりとりを行う。その際、ユーザの入力情報に応じてユーザに次の情報の入力を指示し案内することによってユーザとの間で対話を行う仮想的な人格をサービス・エージェントと呼ぶ。一般に、サービス・シナリオは状態遷移モデルで表現され、その各状態にはサービス・エージェントの出力情報が割り当てられ、各遷移にはユーザの入力情報の候補が割り当てられている。対話型の情報処理システムは、状態遷移モデルにおける現在の状態に割り当てられたサービス・エージェントの出力情報の内容を出力し、それに応答して入力されたユーザの入力情報に応じて、次の状態へと遷移し、これを繰り返すことによって対話が進行する。   In an ordinary interactive information processing system, various services are provided to a user by processing a service scenario in which an operation of the system for providing a user's desired service is described. An interactive information processing system interactively exchanges information with a user according to a service scenario. At this time, a virtual personality that interacts with the user by instructing and guiding the user to input the next information according to the input information of the user is called a service agent. In general, a service scenario is expressed by a state transition model, and output information of a service agent is assigned to each state, and a candidate of user input information is assigned to each transition. The interactive information processing system outputs the contents of the output information of the service agent assigned to the current state in the state transition model, and moves to the next state according to the input information of the user input in response thereto. And the dialogue proceeds by repeating this.

サービス・シナリオは、対話記述言語VoiceXMLのような言語によって記述される。ユーザの入力情報の項目の候補はSRGS(Speech Recognition Grammar Specification)のような文法記述言語によって記述される。対話型システムは、ユーザが入力した情報に従って、情報提供および機器操作などの様々なタスクを実行する。   The service scenario is described in a language such as the interaction description language VoiceXML. Candidates for user input information items are described in a grammar description language such as SRGS (Speech Recognition Grammar Specification). The interactive system performs various tasks such as information provision and device operation according to information input by the user.

ユーザの音声入力を受け付けるために音声認識技術が用いられる。音声認識技術では、音声認識モジュール(ASR、Automatic Speech Recognition)によって、所定の入力区間において入力されたユーザの入力音声をテキスト情報に変換する。音声認識モジュールは、指定された入力項目の候補を参照して、ユーザ入力が入力候補のいずれかと一致していると推定された場合に、それを認識結果とする。また、システムからユーザに対する音声を出力するために音声合成技術が用いられる。音声合成技術では、音声合成モジュール(TTS、Text To Speech)によって、所定の出力期間においてテキスト情報を自動的に出力音声に変換して出力する。ユーザは、対話型システムに直接的に結合された入力装置および出力装置だけでなく、固定電話機、携帯電話機、PDA等の移動体通信機器、およびカーナビゲーション装置のような情報処理機器を用いて、通信ネットワークを介して対話型システムに接続して、情報処理サービスを利用することができる。   Voice recognition technology is used to accept user voice input. In the speech recognition technology, a speech recognition module (ASR, Automatic Speech Recognition) converts user input speech input in a predetermined input section into text information. The speech recognition module refers to the designated input item candidate, and when it is estimated that the user input matches any of the input candidates, the speech recognition module regards it as a recognition result. In addition, a voice synthesis technique is used to output a voice to the user from the system. In the speech synthesis technology, text information is automatically converted into output speech and output in a predetermined output period by a speech synthesis module (TTS, Text To Speech). The user uses not only input devices and output devices directly coupled to the interactive system, but also mobile communication devices such as fixed phones, mobile phones, PDAs, and information processing devices such as car navigation devices, An information processing service can be used by connecting to an interactive system via a communication network.

特開2003−280976号公報(特許文献1)には、端末側に応じた画面提供システムが記載されている。その画面提供システムにおいて、サーバは、認証機能部と、プレゼンテーション機能部と、ルータ機能部と、パーソナルゼーション機能部と、画面表示機能部と、イベント処理機能部と、表示パターン処理機能部とを備えており、ユーザの端末のサイズ、ユーザの過去の利用形態に応じたページ(サービス画面)又はサービス項目をユーザに最も利用しやすい形で提供する。このとき、過去の履歴、スキップ条件に基づく画面を提供する。それによって、システムを新たに構築しなくても、ユーザが必要とする形態の画面を安価に提供できる。
特開2003−280976号公報
Japanese Patent Laid-Open No. 2003-280976 (Patent Document 1) describes a screen providing system according to the terminal side. In the screen providing system, the server includes an authentication function unit, a presentation function unit, a router function unit, a personalization function unit, a screen display function unit, an event processing function unit, and a display pattern processing function unit. In addition, a page (service screen) or service item corresponding to the size of the user's terminal and the user's past usage pattern is provided in a form that is most easily used by the user. At this time, a screen based on past history and skip conditions is provided. As a result, a screen in a form required by the user can be provided at low cost without constructing a new system.
JP 2003-280976 A

ユーザが膨大なデータの中から所望のデータを見つけ出すために、ユーザは、検索条件として入力すべきキーワードを知らなければならない。しかし、ユーザは適切なキーワードを知らないことが多い。また、例えばカーナビゲーション・システムおよび携帯電話のような、限られた数のキーのみが設けられているだけで完全なキーボードが設けられておらず、利用可能な入力手段が限定されている電子機器においては、検索条件を入力するためのユーザのキー操作の負担は大きい。特に、カーナビゲーション・システムの場合、運転中に検索条件を入力するのは操作に手間がかかり、しかも交通安全上非常に危険である。   In order for a user to find desired data from a vast amount of data, the user must know a keyword to be input as a search condition. However, the user often does not know the appropriate keyword. Also, electronic devices such as a car navigation system and a mobile phone, which are provided with only a limited number of keys, are not provided with a complete keyboard, and available input means are limited. However, the burden of the user's key operation for inputting the search condition is large. In particular, in the case of a car navigation system, inputting search conditions while driving is troublesome in operation and is very dangerous for traffic safety.

検索システムがユーザの要求に適合しそうなデータを推薦する手法では、ユーザが検索条件を入力する必要がないので、上述のような問題はない。しかし、データの推薦を行うには、ユーザの操作履歴を蓄積して、検索すべきデータに対するユーザの嗜好を学習する処理が必要であり、コストがかかる。また、ユーザの要求に適合するデータは、様々な状況によって変化するので、ユーザの操作履歴に基づいた推薦システムでは、状況の変化に充分に対応できない。   In the method in which the search system recommends data that is likely to meet the user's request, the user does not need to input search conditions, so there is no problem as described above. However, in order to recommend data, a process for accumulating the user's operation history and learning the user's preference with respect to the data to be searched is necessary, which is expensive. In addition, since the data that matches the user's request changes depending on various situations, the recommendation system based on the user's operation history cannot sufficiently cope with the change of the situation.

発明者たちは、検索システムにおいて、検索システムのデータ提示のための動作に対するユーザの応答入力操作のタイミングまたは応答入力音声の大きさに応じて選択すべきデータの検索方法を決定するように構成すればデータ検索システムの操作性が良くなる、と認識した。   The inventors are configured to determine a search method of data to be selected in the search system in accordance with the timing of the user's response input operation with respect to the data presentation operation of the search system or the response input sound volume. Recognized that the operability of the data retrieval system would be improved.

本発明の目的は、対話型情報検索システムの動作に対するユーザによる応答入力操作のしかたに応じてデータの選択のしかたを変えることである。   An object of the present invention is to change the way of selecting data in accordance with how a user inputs a response to the operation of the interactive information search system.

本発明の特徴によれば、対話型の情報検索システムは、それぞれ複数の属性を有する複数のデータを格納するデータベースと、ユーザからの入力情報を処理する入力情報処理手段と、システムからの出力情報を処理する出力情報処理手段と、その入力情報処理手段から次に受け付けるべき情報を決定し、その入力情報処理手段から受け付けた情報に応答して、ユーザに提示するデータを決定し、そのデータが有する属性に基づいて、その出力情報処理手段に供給すべき出力情報を決定する対話制御手段と、その対話制御手段の制御の下で、そのデータベースを検索するための検索条件を決定する検索条件決定手段と、その決定された検索条件に従ってそのデータベースを検索して、そのデータベースからその決定された検索条件を満たすデータを取り出すデータ検索手段と、その取り出されたデータの中からそのユーザに提示するデータを選択するデータ選択手段と、その出力情報処理手段によってそのユーザに提示された出力情報に対して、その入力情報処理手段が受け取ったそのユーザの入力情報の特徴を抽出する特徴抽出手段と、その抽出された特徴に応じて、そのユーザに提示するデータの複数の属性のうちのいずれの属性の値を変更するかを決定する変更属性決定手段と、を具えている。その検索条件決定手段は、その変更された属性の値に基づいて、そのデータベースを検索するための変更された検索条件を決定する。そのデータ検索手段は、その変更された検索条件に従ってそのデータベースを検索して、そのデータベースからその変更された検索条件を満たすデータを取り出す。   According to the features of the present invention, an interactive information search system includes a database storing a plurality of data each having a plurality of attributes, input information processing means for processing input information from a user, and output information from the system. Output information processing means for processing the information, and information to be received next from the input information processing means, and in response to the information received from the input information processing means, data to be presented to the user is determined. Dialog control means for determining output information to be supplied to the output information processing means based on the attributes possessed, and search condition determination for determining a search condition for searching the database under the control of the dialog control means The database is searched according to the means and the determined search condition, and data satisfying the determined search condition is searched from the database. Data retrieval means for retrieving data, data selection means for selecting data to be presented to the user from the retrieved data, and input information for the output information presented to the user by the output information processing means The feature extraction means for extracting the feature of the input information of the user received by the processing means, and the value of any of the plurality of attributes of the data presented to the user is changed according to the extracted feature Change attribute determining means for determining whether or not. The search condition determining means determines a changed search condition for searching the database based on the changed attribute value. The data search means searches the database according to the changed search condition, and retrieves data that satisfies the changed search condition from the database.

本発明は、また、上述の対話型の情報検索システムの機能を有する電子機器に関する。   The present invention also relates to an electronic apparatus having a function of the above-described interactive information search system.

本発明によれば、対話型情報検索システムの動作に対するユーザによる応答入力操作のしかたに応じてデータの選択のしかたを変えることができる。   According to the present invention, it is possible to change the way of selecting data in accordance with how the user inputs a response to the operation of the interactive information search system.

本発明の実施形態を、図面を参照して説明する。図面において、同様の構成要素には同じ参照番号が付されている。   Embodiments of the present invention will be described with reference to the drawings. In the drawings, similar components are given the same reference numerals.

図1は、本発明の原理による、対話型の情報検索システム100の基本構成を示している。情報検索システム100は、プロセッサ10およびメモリ12を具え、さらに、それぞれ複数の属性を有する複数のデータを格納するデータベース40、検索条件に従ってデータベース40を検索してデータベース40から検索条件を満たすデータを取り出すデータ検索部30、次に受け付けるべき情報を決定し、入力情報処理手段から受け付けた情報に応答して、ユーザに提示するデータを決定し、そのデータが有する属性に基づいて、出力情報処理部に供給すべき出力情報を決定する対話制御部50、入力情報処理部が受け取ったユーザの入力情報の特徴を抽出する却下操作特性抽出部60、データベース30を検索するための検索条件を生成する検索条件生成部70、取り出されたデータの中からそのユーザに提示するデータを選択するデータ選択部72、抽出された特徴に応じて、提示するデータの複数の属性のうちのいずれの属性の値を変更するかを決定する変更属性決定部74、システムからの出力情報を処理する出力処理部80、ディスプレイ82、スピーカ84、ユーザからの入力情報を処理する入力処理部90、複数のキー92およびマイク94を具えている。データ検索部30はデータベース40に接続されている。対話制御部50は、データ検索部30、却下操作特性抽出部60、検索条件生成部70、データ選択部72、変更属性決定部74、出力処理部80および入力処理部90に接続されている。出力処理部80は、ディスプレイ82およびスピーカ84に接続されている。キー92およびマイク94は、入力処理部90に接続されている。構成要素30、50、60、70〜74、80および90の機能は、メモリ12に格納されたプログラムに従ってプロセッサ10上に実装されてもよい。   FIG. 1 shows a basic configuration of an interactive information retrieval system 100 according to the principle of the present invention. The information retrieval system 100 includes a processor 10 and a memory 12. Further, the information retrieval system 100 retrieves data satisfying the retrieval condition from the database 40 by retrieving the database 40 according to the retrieval condition and the database 40 storing a plurality of data each having a plurality of attributes. The data search unit 30 determines information to be received next, determines data to be presented to the user in response to the information received from the input information processing means, and determines the data to be output to the output information processing unit based on the attributes of the data Dialog control unit 50 for determining output information to be supplied, rejection operation characteristic extraction unit 60 for extracting features of user input information received by the input information processing unit, and search conditions for generating a search condition for searching the database 30 The generation unit 70 selects data to be presented to the user from the retrieved data A data selection unit 72, a change attribute determination unit 74 that determines which attribute value among a plurality of attributes of data to be presented is changed according to the extracted features, and an output that processes output information from the system A processing unit 80, a display 82, a speaker 84, an input processing unit 90 that processes input information from a user, a plurality of keys 92, and a microphone 94 are provided. The data search unit 30 is connected to the database 40. The dialogue control unit 50 is connected to the data search unit 30, the rejection operation characteristic extraction unit 60, the search condition generation unit 70, the data selection unit 72, the change attribute determination unit 74, the output processing unit 80, and the input processing unit 90. The output processing unit 80 is connected to the display 82 and the speaker 84. The key 92 and the microphone 94 are connected to the input processing unit 90. The functions of the components 30, 50, 60, 70 to 74, 80, and 90 may be implemented on the processor 10 according to a program stored in the memory 12.

データベース40は、例えば音楽の曲のような検索対象となるデータを格納する。対話制御部50は、データ検索部30、却下操作特性抽出部60、検索条件生成部70、データ選択部72、変更属性決定部74、出力処理部80および入力処理部90を制御する。対話制御部50は、ユーザへ提示する出力情報を決定し、受け付けるユーザの入力情報を決定する。検索条件生成部70は、ユーザの入力情報に基づいてデータベース40を検索するための検索条件を生成する。データ検索部30は、検索条件生成部70で生成された検索条件に従って、データベース40を検索する。データ選択部72は、データ検索部30によって取り出された複数のデータの中からユーザに提示すべきデータを決定する。出力処理部80は、情報検索システム100からユーザへ提示すべき出力情報を出力処理してディスプレイ82またはスピーカ84に供給する。却下操作特性抽出部60は、情報検索システム100によって提示されたデータに対してユーザが却下する応答入力操作の特性を抽出する。変更属性決定部74は、却下操作特性抽出部60によって抽出された特性に応じて、ユーザに提示した或るデータの複数の属性のうちのいずれの属性の値(項目内容、名称、識別子)を変更して検索式を作成するかを決定する。入力処理部90は、キー92およびマイク94を介してユーザの操作によって入力された入力情報を受け取って入力処理する。   The database 40 stores data to be searched such as music songs. The dialogue control unit 50 controls the data search unit 30, the rejection operation characteristic extraction unit 60, the search condition generation unit 70, the data selection unit 72, the change attribute determination unit 74, the output processing unit 80, and the input processing unit 90. The dialogue control unit 50 determines output information to be presented to the user, and determines user input information to be received. The search condition generation unit 70 generates a search condition for searching the database 40 based on user input information. The data search unit 30 searches the database 40 according to the search conditions generated by the search condition generation unit 70. The data selection unit 72 determines data to be presented to the user from the plurality of data extracted by the data search unit 30. The output processing unit 80 outputs output information to be presented to the user from the information search system 100 and supplies the output information to the display 82 or the speaker 84. Rejection operation characteristic extraction unit 60 extracts response input operation characteristics that the user rejects for the data presented by information search system 100. The change attribute determination unit 74 determines any attribute value (item content, name, identifier) of a plurality of attributes of certain data presented to the user according to the characteristics extracted by the rejection operation characteristic extraction unit 60. Decide whether to change and create the search expression. The input processing unit 90 receives and processes input information input by a user operation via the key 92 and the microphone 94.

変更属性決定部74は、ユーザに提示した或るデータについて、それに反応してユーザが却下する際の操作入力の特性に基づいて、その提示した或るデータと次に提示すべきデータとの間の属性の値の差、類似度または相関性を決定する。それによって、ユーザが簡単な操作で所望のデータを効率的に検索することができる。ユーザが提示データを却下する場合の操作入力の特性として、出力処理部80が出力データを提示した後、ユーザによる却下の操作入力を行うまでの反応時間T、またはそれが却下の音声入力である場合には音圧レベルP(dB)を用いてもよい。ユーザの却下操作の反応時間Tは、ユーザの却下音声の反応時間であってもよい。   Based on the characteristics of the operation input when the user rejects certain data presented to the user in response to the certain data presented to the user, the change attribute determination unit 74 determines between the presented data and the data to be presented next. Determine the difference, similarity or correlation of attribute values. As a result, the user can efficiently search for desired data with a simple operation. As a characteristic of the operation input when the user rejects the presentation data, the reaction time T from when the output processing unit 80 presents the output data to when the user inputs the rejection operation, or the voice input for rejection. In this case, the sound pressure level P (dB) may be used. The reaction time T of the user's rejection operation may be the reaction time of the user's rejection voice.

以下、情報検索システム100の実施形態において、データベース40が楽曲データベースであり、そのデータベースに蓄積されている多数の楽曲データの中から特定の楽曲データを検索して、そのオーディオ・データストリームを取り出して再生し、それに対応する楽曲の音響をスピーカ84から発生する場合について説明する。   Hereinafter, in the embodiment of the information search system 100, the database 40 is a music database, and specific music data is searched from a large number of music data stored in the database, and the audio data stream is extracted. A case will be described in which playback is performed and the sound of the corresponding music is generated from the speaker 84.

図2は、本発明の実施形態による、対話型の情報検索システム102の構成を示している。情報検索システム102は、データ検索部30、データベース40、対話制御部50、却下操作特性抽出部60、検索条件生成部70、データ選択部72、変更属性決定部74、出力処理部80、ディスプレイ82、スピーカ84、入力処理部90、および複数のキー92を具えている。却下操作特性抽出部60は、却下操作反応時間計測部62を含んでいる。却下操作反応時間計測部62は、ディスプレイ82またはスピーカ84によってデータ(例えば、オーディオ・データストリームまたは属性の値)が提示された後、ユーザによってキー92の中の却下キーを押下することにより却下の操作入力を行うまでの反応時間を測定する。構成要素30、40、50、60、70〜74、80、82、84、90および92の機能および接続関係は、図1の場合と同様である。   FIG. 2 shows the configuration of an interactive information search system 102 according to an embodiment of the present invention. The information search system 102 includes a data search unit 30, a database 40, a dialog control unit 50, a rejection operation characteristic extraction unit 60, a search condition generation unit 70, a data selection unit 72, a change attribute determination unit 74, an output processing unit 80, and a display 82. , A speaker 84, an input processing unit 90, and a plurality of keys 92. Rejection operation characteristic extraction unit 60 includes a rejection operation reaction time measurement unit 62. The rejection operation response time measurement unit 62 displays the data (for example, the audio data stream or the attribute value) by the display 82 or the speaker 84 and then presses the rejection key in the key 92 by the user. Measure the reaction time until operation input. The functions and connection relationships of the components 30, 40, 50, 60, 70 to 74, 80, 82, 84, 90, and 92 are the same as those in FIG.

図3は、図2の情報検索システム102によって実行される情報検索のフローチャートを示している。ユーザは、情報検索システム102のキー92を操作して情報検索システム102を起動し、それによって図3のフローチャートが実行される。   FIG. 3 shows a flowchart of information search executed by the information search system 102 of FIG. The user operates the key 92 of the information search system 102 to activate the information search system 102, thereby executing the flowchart of FIG.

ステップ302において、入力処理部90は、ユーザのキー92の操作によって楽曲検索が要求されたかどうかを判定する。楽曲検索が要求されるまでステップ302が繰り返される。楽曲検索が要求された場合、手順はステップ304に進む。   In step 302, the input processing unit 90 determines whether or not music search is requested by the user's operation of the key 92. Step 302 is repeated until a music search is requested. If the music search is requested, the procedure proceeds to step 304.

ステップ304において、出力処理部80のメモリに前回最後に再生した曲の楽曲番号が保持されている場合は、出力処理部80は、その楽曲番号に対応する前回最後に再生した曲を楽曲データベース40から取り出してその再生を開始してスピーカ84から音響を発生させる。一方、ユーザが初めて情報検索システム102を利用する場合は、検索条件生成部70は、ランダムに任意の曲を取得するための検索条件(検索式)を生成し、データ検索部30はその検索条件に基づいて楽曲データベース40から曲を検索し、出力処理部80はその検索によって得られた曲を再生する。その検索条件は、例えば、テンポ、発売年、ジャンル、アーティスト、著作者、制作会社および/または発売元、等の条件、または楽曲番号を、乱数によりランダムに選択するものであればよい。   In step 304, if the memory number of the last played song is stored in the memory of the output processing unit 80, the output processing unit 80 sets the last played song corresponding to the song number to the song database 40. And playback is started, and sound is generated from the speaker 84. On the other hand, when the user uses the information search system 102 for the first time, the search condition generation unit 70 generates a search condition (search formula) for acquiring an arbitrary song at random, and the data search unit 30 selects the search condition. Based on the music database 40, the output processing unit 80 reproduces the music obtained by the search. The search condition may be, for example, a condition such as tempo, release year, genre, artist, author, production company and / or release source, or a condition in which a music number is randomly selected by a random number.

ステップ320において、入力処理部90は、ユーザによって却下操作がされたかどうかを判定する。ユーザは、キー92の中の却下キーを押下することによって、現在再生されている曲を却下することができる。ユーザによって却下操作がされなかったと判定された場合は、ステップ322において、入力処理部90は、ユーザによって終了要求があったかどうかを判定する。ユーザは、キー92の中の終了キーを押下することによって、情報検索システム102の動作を終了することができる。終了要求がなかったと判定された場合は、手順はステップ320に戻る。ユーザによって却下操作または終了要求がなされるまで、ステップ320および322が繰り返される。   In step 320, the input processing unit 90 determines whether or not a rejection operation has been performed by the user. The user can reject the currently played song by pressing the reject key in the key 92. When it is determined that the rejection operation has not been performed by the user, in step 322, the input processing unit 90 determines whether or not the user has requested termination. The user can end the operation of the information search system 102 by pressing the end key in the key 92. If it is determined that there is no termination request, the procedure returns to step 320. Steps 320 and 322 are repeated until a rejection operation or termination request is made by the user.

ステップ320においてユーザによって却下操作があったと判定された場合は、ステップ337において、却下操作反応時間計測部62は、ステップ304における曲の再生開始時点からユーザによる却下操作が行われた時点までの反応時間Tを算出する。ステップ338において、変更属性決定部74は、計測された反応時間Tの長さに応じて、再生中の曲に付与されている複数の属性のうちのいずれの属性の値(項目内容)を変更するかを決定する。ステップ340において、検索条件生成部70は、変更する属性に基づいて検索条件を生成する。ステップ342において、データ検索部30は、その検索条件に基づいて楽曲データベース40から条件を満たす曲を検索する。ステップ344において、データ検索部30は、検索結果として得られた曲を再生すべき曲として決定する。検索結果として複数の曲が得られた場合は、データ選択部72は、その中の1つの曲をランダムに選択して再生すべき曲として決定する。データ選択部72は、好ましくは、情報検索システム102の今回の起動開始後において複数のデータの中で最も長い時間選択されたことのないデータを優先的に順次選択するようにしてもよい。代替構成として、データ選択部72は、複数のデータの中で情報検索システム102の前回まで履歴的により頻繁に再生された曲に関するデータを優先して順次選択するようにしてもよい。その後、手順はステップ304に戻り、ステップ304において、出力処理部80はその決定された曲をメモリに保持して再生を開始する。   If it is determined in step 320 that the rejection operation has been performed by the user, in step 337, the rejection operation response time measurement unit 62 performs a response from the start of music reproduction in step 304 to the time when the rejection operation is performed by the user. Time T is calculated. In step 338, the change attribute determination unit 74 changes the value (item content) of any attribute among a plurality of attributes assigned to the song being played according to the length of the measured reaction time T. Decide what to do. In step 340, the search condition generation unit 70 generates a search condition based on the attribute to be changed. In step 342, the data search unit 30 searches the music database 40 for a song that satisfies the condition based on the search condition. In step 344, the data search unit 30 determines a song obtained as a search result as a song to be reproduced. When a plurality of songs are obtained as a search result, the data selection unit 72 randomly selects one of the songs and determines it as a song to be played. Preferably, the data selection unit 72 may preferentially select data that has not been selected for the longest time among a plurality of data after the start of the current activation of the information search system 102. As an alternative configuration, the data selection unit 72 may sequentially select data related to songs that have been reproduced more frequently historically until the previous time of the information search system 102 among a plurality of data. Thereafter, the procedure returns to step 304. In step 304, the output processing unit 80 holds the determined music piece in the memory and starts reproduction.

図4(A)は、図3のステップ337および338におけるユーザの却下操作の反応時間Tに応じた変更すべき属性の値の決定の方法を示している。図4(B)は、図3のステップ340〜344における変更前の属性の値に対する変更後の属性の値の決定の例を示している。   FIG. 4A shows a method of determining the value of the attribute to be changed according to the reaction time T of the user's rejection operation in steps 337 and 338 of FIG. FIG. 4B shows an example of determining the attribute value after the change with respect to the attribute value before the change in steps 340 to 344 in FIG. 3.

図4(A)を参照すると、却下操作反応時間計測部62は、曲の再生開始からユーザによる却下操作の発生までの経過時間Tを計測する。却下操作特性抽出部60は、ユーザによる却下操作の発生のタイミングT、即ちユーザの却下の反応時間Tが、曲の再生開始から時間閾値Tth1(例えば、1秒)を超えないか(T≦Tth1)、時間閾値Tth1を超えかつ時間閾値Tth1より長い時間閾値Tth2(例えば、2秒)を超えないか(Tth1<T≦Tth2)、時間閾値Tth2を超えたか(T>Tth2)、を判定する。時間閾値Tth1およびTth2は、ユーザによるキー92の操作によって調整可能である。   Referring to FIG. 4A, the rejection operation reaction time measurement unit 62 measures an elapsed time T from the start of music reproduction until the occurrence of a rejection operation by the user. The rejection operation characteristic extraction unit 60 determines whether the timing T of the rejection operation by the user, that is, the reaction time T of the rejection of the user does not exceed a time threshold Tth1 (for example, 1 second) from the start of music reproduction (T ≦ Tth1). ), Whether the time threshold Tth2 exceeding the time threshold Tth1 and longer than the time threshold Tth1 (for example, 2 seconds) is not exceeded (Tth1 <T ≦ Tth2), or whether the time threshold Tth2 is exceeded (T> Tth2) is determined. The time thresholds Tth1 and Tth2 can be adjusted by operating the key 92 by the user.

ユーザの却下の反応時間Tが時間閾値Tth1を超えない(T≦Tth1)場合、変更属性決定部74は、現在再生中の曲の複数の属性のうち3つの属性の値を変更することを決定する。ユーザの却下の反応時間Tが時間閾値Tth1を超え時間閾値Tth2を超えない(Tth1<T≦Tth2)場合、変更属性決定部74は、現在再生中の曲の複数の属性のうち2つの属性の値を変更することを決定する。ユーザの却下の反応時間Tが時間閾値Tth2を超えた(T>Tth2)場合、変更属性決定部74は、現在再生中の曲の複数の属性のうち1つの属性の値を変更することを決定する。このように複数の閾値を用いることによって、ユーザは、少ない回数の操作でより早く所望の曲に到達することができる。   When the reaction time T of the user's rejection does not exceed the time threshold Tth1 (T ≦ Tth1), the change attribute determination unit 74 determines to change the values of three attributes among the plurality of attributes of the currently playing song To do. When the user's rejection reaction time T exceeds the time threshold Tth1 and does not exceed the time threshold Tth2 (Tth1 <T ≦ Tth2), the change attribute determination unit 74 sets two attributes among the plurality of attributes of the currently playing song. Decide to change the value. When the user's rejection reaction time T exceeds the time threshold value Tth2 (T> Tth2), the change attribute determination unit 74 determines to change the value of one attribute among a plurality of attributes of the currently playing song. To do. By using a plurality of threshold values in this way, the user can reach a desired song earlier with a small number of operations.

図4(B)を参照すると、現在再生中の曲Aに付与されている属性が、例えば、“テンポ”、“発売年”および“ジャンル”であるとする。3つの属性の値を変更する場合には、変更属性決定部74は、その“テンポ”の値、その“発売年”の値およびその“ジャンル”の値(ジャンル名)を変更することを決定する。2つの属性の値を変更する場合には、変更属性決定部74は、その“テンポ”の値およびその発売年の値を変更することを決定する。1つの属性の値を変更する場合には、変更属性決定部74は、その“テンポ”の値を変更することを決定する。次いで、変更属性決定部74は、その変更された値に基づいて、現在再生中の曲Aの3つの属性、“テンポ”、“発売年”および“ジャンル”の値を更新する。検索条件生成部70は、その更新された3つの属性の値に基づいて検索条件を生成する。その結果、1つの属性“テンポ”の値を変更した結果として(BPM:920〜100)、曲Bが検索される。2つの属性“テンポ”および“発売年”の値を変更した結果として(BPM:920〜100、発売年:2000年)、曲Cが検索される。3つの属性“テンポ”、“発売年”および“テンポ”の値を変更した結果として(BPM:920〜100、発売年:2000年、ジャンル:ロック)、曲Dが検索される。   Referring to FIG. 4B, it is assumed that the attributes given to the currently reproduced song A are, for example, “tempo”, “release year”, and “genre”. When changing the values of the three attributes, the change attribute determination unit 74 determines to change the “tempo” value, the “release year” value, and the “genre” value (genre name). To do. When changing the values of the two attributes, the change attribute determination unit 74 determines to change the “tempo” value and the release year value. When changing the value of one attribute, the change attribute determination unit 74 determines to change the “tempo” value. Next, the change attribute determination unit 74 updates the values of the three attributes, “tempo”, “release year”, and “genre” of the currently playing song A based on the changed value. The search condition generation unit 70 generates a search condition based on the updated three attribute values. As a result, the song B is searched as a result of changing the value of one attribute “tempo” (BPM: 920 to 100). As a result of changing the values of the two attributes “tempo” and “release year” (BPM: 920 to 100, release year: 2000), the song C is searched. As a result of changing the values of the three attributes “tempo”, “release year”, and “tempo” (BPM: 920 to 100, release year: 2000, genre: rock), the song D is searched.

図5は、本発明の別の実施形態による、対話型の情報検索システム104の構成を示している。情報検索システム104は、データ検索部30、データベース40、対話制御部50、却下操作特性抽出部60、検索条件生成部70、データ選択部72、変更属性決定部74、通知属性決定部76、出力処理部80、ディスプレイ82、スピーカ84、入力処理部90、および複数のキー92を具えている。通知属性決定部76は、対話制御部50に接続されていて、再生中の曲に付与されている複数の属性の値の中のいずれの属性の値をユーザに通知するかを決定する。この場合、複数の属性は階層関係を有する。構成要素30、40、50、60、70〜74、80、82、84、90および92の機能および接続関係は、図2の場合と同様である。   FIG. 5 shows the configuration of an interactive information retrieval system 104 according to another embodiment of the present invention. The information search system 104 includes a data search unit 30, a database 40, a dialogue control unit 50, a rejection operation characteristic extraction unit 60, a search condition generation unit 70, a data selection unit 72, a change attribute determination unit 74, a notification attribute determination unit 76, and an output. A processing unit 80, a display 82, a speaker 84, an input processing unit 90, and a plurality of keys 92 are provided. The notification attribute determination unit 76 is connected to the dialogue control unit 50 and determines which attribute value among a plurality of attribute values assigned to the music being played back is notified to the user. In this case, the plurality of attributes have a hierarchical relationship. The functions and connection relationships of the components 30, 40, 50, 60, 70 to 74, 80, 82, 84, 90, and 92 are the same as those in FIG.

図6は、図5の情報検索システム104によって実行される情報検索の別のフローチャートを示している。ユーザは、情報検索システム104のキー92を操作して情報検索システム104を起動し、それによって図6のフローチャートが実行される。   FIG. 6 shows another flowchart of information search executed by the information search system 104 of FIG. The user operates the key 92 of the information search system 104 to activate the information search system 104, thereby executing the flowchart of FIG.

図6におけるステップ302〜304は、図3の場合と同様であり、その説明を省略する。   Steps 302 to 304 in FIG. 6 are the same as those in FIG.

ステップ306において、通知属性決定部76は、現在再生中のまたは再生しようとしている曲に付与されている複数の属性の値の中のいずれの属性の値をユーザに通知すべきかを決定する。ステップ308において、出力処理部80は、その決定された通知すべき属性の値を、スピーカ84を介して音声で通知する。そのために、出力処理部80は音声合成機能を含んでおり、属性の値の文字情報(例えば、ビートルズ)を音声に変換する。その後、手順はステップ320に進む。ステップ320および322は、図3の場合と同様である。   In step 306, the notification attribute determination unit 76 determines which attribute value among a plurality of attribute values assigned to the song currently being played or about to be played back to the user. In step 308, the output processing unit 80 notifies the determined attribute value to be notified by voice through the speaker 84. For this purpose, the output processing unit 80 includes a speech synthesis function, and converts character information (for example, Beatles) of attribute values into speech. Thereafter, the procedure proceeds to step 320. Steps 320 and 322 are the same as in FIG.

ステップ320において却下操作がされなかったと判定された場合は、手順はステップ322に進む。ステップ322において終了要求がなかったと判定された場合は、手順はステップ324に進む。ステップ324において、出力処理部80は、先に通知した属性の値の他に通知すべき属性の値があるかどうかを判定する。他に通知すべき属性の値があると判定された場合は、手順はステップ308に戻って、その決定された通知すべき別の属性の値を、スピーカ84を介して音声で通知する。   If it is determined in step 320 that the rejection operation has not been performed, the procedure proceeds to step 322. If it is determined in step 322 that there is no termination request, the procedure proceeds to step 324. In step 324, the output processing unit 80 determines whether there is an attribute value to be notified in addition to the previously notified attribute value. If it is determined that there are other attribute values to be notified, the procedure returns to step 308 to notify the determined value of another attribute to be notified via the speaker 84 by voice.

図6におけるステップ337〜344は、図3の場合と同様である。ステップ337において、却下操作反応時間計測部62は、ステップ308における属性の通知開始時点からユーザによる却下操作が行われた時点までの反応時間Tを算出する。ステップ338において、変更属性決定部74は、計測された反応時間Tの長さに応じて、再生中のまたは再生しようとしている曲に付与されている複数の属性のうちのいずれの属性の値(項目内容)を変更するかを決定し、即ち通知した属性の値を変更するかまたはそれより上位の属性の値を変更するかを決定する。ステップ340において、検索条件生成部70は、変更する属性に基づいて検索条件を生成する。   Steps 337 to 344 in FIG. 6 are the same as those in FIG. In step 337, the rejection operation reaction time measuring unit 62 calculates a reaction time T from the attribute notification start time in step 308 to the time when the rejection operation by the user is performed. In step 338, the change attribute determination unit 74 determines the value of any one of a plurality of attributes assigned to the song being played or to be played (in accordance with the measured length of the reaction time T ( It is determined whether to change the item contents), that is, whether to change the value of the notified attribute or to change the value of the higher attribute. In step 340, the search condition generation unit 70 generates a search condition based on the attribute to be changed.

図7(A)は、図6のステップ337および338におけるユーザの却下操作の反応時間Tに応じた変更すべき属性の値の決定の方法を示している。図7(B)は、図6のステップ340〜344における変更前の属性の値に対する変更後の属性の値の決定の例を示している。この場合、1つの時間閾値Tthが用いられるが、代替構成として複数の時間閾値を用いてもよい。   FIG. 7A shows a method of determining the value of the attribute to be changed according to the reaction time T of the user's rejection operation in steps 337 and 338 of FIG. FIG. 7B shows an example of determining the attribute value after the change with respect to the attribute value before the change in steps 340 to 344 in FIG. 6. In this case, one time threshold value Tth is used, but a plurality of time threshold values may be used as an alternative configuration.

図7(A)を参照すると、却下操作反応時間計測部62は、現在再生中のまたは再生しようとしている曲の或る属性の値の通知の開始からユーザによる却下操作の発生までの経過時間Tを計測する。却下操作抽出部60は、ユーザによる却下操作の発生のタイミング、即ちユーザの却下の反応時間Tが、或る属性の通知の開始から時間閾値Tth1(例えば、1秒)を超えないか(T≦Tth)、時間閾値Tthを超えたか(T>Tth)、を判定する。時間閾値Tthは、ユーザによるキー92の操作によって調整可能である。   Referring to FIG. 7A, the rejection operation response time measurement unit 62 determines an elapsed time T from the start of notification of a certain attribute value of a song that is currently being reproduced or about to be reproduced to the occurrence of a rejection operation by the user. Measure. The rejection operation extraction unit 60 determines whether the timing of occurrence of the rejection operation by the user, that is, the reaction time T of the rejection of the user does not exceed the time threshold Tth1 (for example, 1 second) from the start of notification of a certain attribute (T ≦ Tth), whether the time threshold Tth has been exceeded (T> Tth) is determined. The time threshold value Tth can be adjusted by operating the key 92 by the user.

ユーザの却下の反応時間Tが時間閾値Tthを超えない(T≦Tth)場合、変更属性決定部74は、現在再生中のまたは再生しようとしている曲に関する通知した属性より上位の属性の値を変更することを決定する。ユーザの却下の反応時間Tが時間閾値Tthを超えた(T>Tth)場合、変更属性決定部74は、その通知した属性の値を変更することを決定する。   If the user's rejection reaction time T does not exceed the time threshold Tth (T ≦ Tth), the change attribute determination unit 74 changes the value of the attribute higher than the notified attribute regarding the song currently being played or about to be played. Decide what to do. When the user's rejection reaction time T exceeds the time threshold Tth (T> Tth), the change attribute determination unit 74 determines to change the value of the notified attribute.

図7(B)を参照すると、現在再生中のまたは再生しようとしている曲Aに付与されている属性が、例えば、“ジャンル”、“アーティスト”および“曲”であるとする。これらの属性は階層関係を有する。この場合、ステップ306において、通知属性決定部76は、再生中のまたは再生しようとしている曲に付与されているその3つの属性のうちの2つの属性“アーティスト”および“曲”の値であるアーティスト名および曲名をユーザに通知することを決定する。ステップ308において、出力処理部80は、その決定された通知すべき2つの属性の値を、スピーカ84を介して音声で1つずつ順次通知する。通知されたアーティストの属性より上位の属性の値を変更する場合には、変更属性決定部74は、曲の上位の属性“ジャンル”の値を変更すること(例えば、値“ロックでないもの”)を決定し、下位の属性“アーティスト”および“曲”の値を任意にする。通知した属性の値を変更する場合には、変更属性決定部74は、属性“アーティスト”の値を変更すること(例えば、値“ビートルズでないもの”)を決定し、下位の属性“曲”の値を任意にする。検索条件生成部70は、その更新された属性の値または条件に基づいて検索条件を生成する。   Referring to FIG. 7B, it is assumed that the attributes given to the song A that is currently being played or to be played are, for example, “genre”, “artist”, and “song”. These attributes have a hierarchical relationship. In this case, in step 306, the notification attribute determination unit 76 determines that two attributes “artist” and “music” are values of the three attributes given to the song being played or about to be played. Decide to notify the user of the name and song name. In step 308, the output processing unit 80 sequentially notifies the determined two attribute values to be notified one by one through the speaker 84 by voice. When changing the value of the attribute higher than the notified artist's attribute, the change attribute determination unit 74 changes the value of the attribute “genre” higher than the song (for example, the value “non-rock”). And the values of the lower attributes “artist” and “song” are arbitrary. When changing the value of the notified attribute, the change attribute determination unit 74 determines to change the value of the attribute “artist” (for example, the value “not Beatles”), and the lower attribute “song”. Make the value arbitrary. The search condition generation unit 70 generates a search condition based on the updated attribute value or condition.

従って、例えば、属性“アーティスト”の値“ビートルズ”が通知された後で、ユーザにより却下キーが押下された場合、操作の反応時間Tが時間閾値Tthよりも長い場合は、属性“ジャンル”の値は維持して、通知した属性であるアーティストの値を変更して(例えば、値“ビートルズでないもの” に変更する)、別の曲を次に選択するよう決定する。一方、却下操作の反応時間Tが時間閾値Tthよりも短い場合は、通知した属性より上位の階層の属性である“ジャンル”の値を変更して(例えば、値“ロックでないもの”に変更する)、別の曲を次に選択するよう決定する。属性の値“アーティスト”が通知された後で、ユーザによる再生中のまたは再生しようとしている曲のその属性の値に対する却下操作がなかった場合は、その属性“アーティスト”の値すなわちアーティスト名はユーザの要求に適合していると判断し、下位の属性である“曲”の値すなわち曲名をその属性の別の値(例えば、値“イエスタデイ”)として通知する。以下、同様に処理される。   Therefore, for example, when the user presses the reject key after the value “Beatles” of the attribute “Artist” is notified, and the operation reaction time T is longer than the time threshold Tth, the attribute “Genre” Keep the value, change the value of the artist that is the notified attribute (for example, change it to the value “Non-Beatles”), and decide to select another song next. On the other hand, when the reaction time T of the rejection operation is shorter than the time threshold value Tth, the value of “genre” that is an attribute of a higher hierarchy than the notified attribute is changed (for example, changed to the value “non-locked”). ), Decide to select another song next. After the notification of the attribute value “artist”, if there is no rejection operation for the attribute value of the song being played or being played by the user, the value of the attribute “artist”, that is, the artist name is And the value of the subordinate attribute “Song”, that is, the name of the song, is notified as another value of the attribute (for example, the value “Yesterday”). Hereinafter, the same processing is performed.

さらに、例えば、属性“曲”の値“イエスタデイ”が通知された後で、ユーザにより却下キーが押下された場合、操作の反応時間Tが時間閾値Tthよりも長い場合は、それより上位の属性“アーティスト”の値は維持して、通知した属性である“曲”の値(曲名)を変更して(例えば、値“イエスタデイでないもの”に変更する)、別の曲を次に選択するよう決定する。一方、操作の反応時間Tが時間閾値Tthよりも短い場合は、通知した属性より上位の階層の属性である“アーティスト”の値を変更して(例えば、値“ビートルズでないもの”に変更する)、別の曲を次に選択するよう決定する。属性の値“ビートルズ”が通知された後で、ユーザによる再生中のまたは再生しようとしている曲の却下操作がなかった場合は、その曲のアーティスト名がユーザの要求に適合していると判断する。   Further, for example, when the user presses the reject key after the attribute “song” value “yesday” is notified, if the operation reaction time T is longer than the time threshold value Tth, the attribute higher than that is displayed. Keep the value of "Artist", change the value (song name) of the notified attribute "Song" (for example, change it to the value "Non yesterday"), and then select another song decide. On the other hand, when the reaction time T of the operation is shorter than the time threshold value Tth, the value of “artist”, which is an attribute at a higher level than the notified attribute, is changed (for example, the value is changed to the value “not Beatles”). Then, decide to select another song next. After the notification of the attribute value “Beatles”, if the user does not reject the song being played or is about to be played, it is determined that the artist name of the song meets the user's request. .

このように、曲の各属性の値を通知した後のユーザの反応時間に応じて、反応時間が短い場合にはそれより上位の属性の値を変更し、反応時間が長い場合は通知した属性の値を変更することを決定する手法は、ユーザの反応時間が短いほどユーザの拒絶の度合いが大きく、通知された属性の値とユーザの要求する属性の値との間の類似度または関連性が小さい傾向にあり、逆に、ユーザの反応時間が長いほどユーザの拒絶の度合いが小さく、通知された属性の値とユーザの要求する属性の値との間の類似度または関連性が大きい傾向にあるという、発明者たちの分析に基づいている。   In this way, depending on the reaction time of the user after notifying the value of each attribute of the song, if the reaction time is short, the higher attribute value is changed, and if the reaction time is long, the notified attribute The method of deciding to change the value of the user is that the shorter the user's reaction time, the greater the degree of rejection of the user, and the similarity or relevance between the notified attribute value and the attribute value requested by the user Tend to be small, and conversely, the longer the user's reaction time, the smaller the degree of rejection of the user, and the greater the similarity or relevance between the notified attribute value and the attribute value requested by the user This is based on the analysis of the inventors.

図8(A)は、図6のステップ337および338におけるユーザの却下操作の反応時間Tに応じた変更すべき属性の値の決定の別の方法を示している。図8(B)は、図6のステップ340〜344における変更後の属性の値の条件に基づく曲の決定の別の例を示している。   FIG. 8A shows another method of determining the value of the attribute to be changed according to the reaction time T of the user's rejection operation in steps 337 and 338 of FIG. FIG. 8B shows another example of song determination based on the attribute value condition after the change in steps 340 to 344 in FIG. 6.

図8(A)を参照すると、却下操作反応時間計測部62は、現在再生中のまたは再生しようとしている曲の或る属性の値の通知の開始からユーザによる却下操作の発生までの経過時間Tを計測する。却下操作抽出部60は、ユーザによる却下操作の発生のタイミング、即ちユーザの却下の反応時間Tが、或る属性の通知の開始から時間閾値Tth1(例えば、1秒)を超えないか(T≦Tth1)、時間閾値Tth1を超えかつ時間閾値Tth1より長い時間閾値Tth2(例えば、2秒)を超えないか(Tth1<T≦Tth2)、時間閾値Tth2を超えたか(T>Tth2)、を判定する。時間閾値Tth1およびTth2は、ユーザによるキー92の操作によって調整可能である。   Referring to FIG. 8A, the rejection operation response time measurement unit 62 determines an elapsed time T from the start of notification of a certain attribute value of a song that is currently being reproduced or about to be reproduced to the occurrence of a rejection operation by the user. Measure. The rejection operation extraction unit 60 determines whether the timing of occurrence of the rejection operation by the user, that is, the reaction time T of the rejection of the user does not exceed the time threshold Tth1 (for example, 1 second) from the start of notification of a certain attribute (T ≦ Tth1), whether it exceeds the time threshold Tth1 and does not exceed the time threshold Tth2 (for example, 2 seconds) longer than the time threshold Tth1 (Tth1 <T ≦ Tth2), or whether the time threshold Tth2 is exceeded (T> Tth2) . The time thresholds Tth1 and Tth2 can be adjusted by operating the key 92 by the user.

ユーザの却下の反応時間Tが時間閾値Tth1を超えない(T≦Tth1)場合、変更属性決定部74は、現在再生中のまたは再生しようとしている曲に関する通知した属性より2つ上位の属性の値を変更することを決定する。ユーザの却下の反応時間Tが時間閾値Tth1を超え時間閾値Tth2を超えない(Tth1<T≦Tth2)場合、変更属性決定部74は、その通知した属性より1つ上位の属性の値を変更することを決定する。ユーザの却下の反応時間Tが時間閾値Tth1を超えた(T>Tth2)場合、変更属性決定部74は、その通知した属性の値を変更することを決定する。   When the reaction time T of the rejection of the user does not exceed the time threshold Tth1 (T ≦ Tth1), the change attribute determination unit 74 has an attribute value that is two higher than the notified attribute regarding the song that is currently being played or is about to be played. Decide to change. When the user's rejection reaction time T exceeds the time threshold Tth1 and does not exceed the time threshold Tth2 (Tth1 <T ≦ Tth2), the change attribute determination unit 74 changes the value of the attribute one level higher than the notified attribute Decide that. When the user's rejection reaction time T exceeds the time threshold value Tth1 (T> Tth2), the change attribute determination unit 74 determines to change the value of the notified attribute.

図8(B)を参照すると、現在再生中のまたは再生しようとしている曲Aに付与されている属性が、例えば、“ジャンル”、“アーティスト”および“曲”であるとする。これらの属性は階層関係を有する。この場合、ステップ306において、通知属性決定部76は、再生中のまたは再生しようとしている曲に付与されているその3つの属性のうちの1つの属性の値、曲名をユーザに通知することを決定する。ステップ308において、出力処理部80は、その決定された通知すべき1つの属性の値を、スピーカ84を介して音声で通知する。通知した曲の属性より2つ上位の属性の値を変更する場合には、変更属性決定部74は、“曲”の2つ上位の属性“ジャンル”の値を変更すること(例えば、値“ロックでないもの”に変更すること)を決定し、下位の属性“アーティスト”および“曲”の値を任意にする。通知した曲の属性より1つ上位の属性の値を変更する場合には、変更属性決定部74は、属性“アーティスト”の値を変更すること(例えば、値“ビートルズでないもの”に変更すること)を決定し、下位の属性“曲”の値を任意にする。通知した属性の値を変更する場合には、変更属性決定部74は、属性“曲”の値(曲名)を変更すること(例えば、値“イエスタデイでないもの” に変更すること)を決定する。検索条件生成部70は、その更新された属性の条件または値に基づいて新しい検索条件を生成する。   Referring to FIG. 8B, it is assumed that the attributes given to the song A that is currently being played or to be played are, for example, “genre”, “artist”, and “song”. These attributes have a hierarchical relationship. In this case, in step 306, the notification attribute determination unit 76 determines to notify the user of the value of one of the three attributes assigned to the song being played or to be played, and the song name. To do. In step 308, the output processing unit 80 notifies the determined value of one attribute to be notified by voice through the speaker 84. When changing the value of the attribute that is two levels higher than the attribute of the notified song, the change attribute determination unit 74 changes the value of the attribute “genre” that is two levels higher than “song” (for example, the value “ And change the values of the lower attributes “artist” and “song” to be arbitrary. When changing the value of the attribute one level higher than the notified song attribute, the change attribute determination unit 74 changes the value of the attribute “artist” (for example, changes the value to “not Beatles”) ), And the value of the lower attribute “song” is made arbitrary. When changing the notified attribute value, the change attribute determination unit 74 determines to change the value (song name) of the attribute “song” (for example, to change to the value “not yesterday”). The search condition generation unit 70 generates a new search condition based on the updated attribute condition or value.

従って、曲が通知された後で、ユーザにより却下キーが押下された場合、操作の反応時間Tが時間閾値Tth2よりも長い場合は、属性“ジャンル”および“アーティスト”の値は維持して、通知した属性である“曲”の値(曲名)を変更して別の曲を次に選択するよう決定する。一方、操作の反応時間TがTth1より長くかつ時間閾値Tth2よりも短い場合は、通知した属性より1つ上位の“ジャンル”の値を変更して別の曲を次に選択するよう決定する。操作の反応時間TがTth1より短い場合は、通知した属性である“曲”の値を変更して別の曲を次に選択するよう決定する。曲名が通知された後で、ユーザによる再生中の曲の却下操作がなかった場合は、属性“曲”の値(曲名)はユーザの要求に合っていると判断し、下位の属性“曲”の値(曲名)を別の属性として通知する。以下、同様に処理される。   Therefore, if the user presses the reject key after the music is notified, and the operation reaction time T is longer than the time threshold Tth2, the values of the attributes “genre” and “artist” are maintained, The value (song name) of the notified attribute “Song” is changed and another song is selected to be selected next. On the other hand, if the reaction time T of the operation is longer than Tth1 and shorter than the time threshold value Tth2, the value of “genre” that is one higher than the notified attribute is changed and another song is selected to be selected next. When the reaction time T of the operation is shorter than Tth1, the value of the notified attribute “Song” is changed and another song is selected to be selected next. If the user does not reject the song being played after the song name is notified, it is determined that the value of the attribute “song” (song name) meets the user's request, and the lower attribute “song” Is notified as a separate attribute. Hereinafter, the same processing is performed.

図9は、本発明のさらに別の実施形態による、対話型の情報検索システム106の構成を示している。情報検索システム106は、データ検索部30、データベース40、対話制御部50、却下操作特性抽出部61、検索条件生成部70、データ選択部72、変更属性決定部74、通知属性決定部76、属性類似度決定部78、出力処理部80、ディスプレイ82、スピーカ84、入力処理部90、およびマイク94を具えている。この場合、図1の却下操作特性抽出部60の代わりに却下操作特性抽出部61が設けられている。構成要素30、40、50、70〜76、80、82、84、90および94の機能および接続関係は、図5および図1の場合と同様である。   FIG. 9 shows the configuration of an interactive information retrieval system 106 according to yet another embodiment of the present invention. The information search system 106 includes a data search unit 30, a database 40, a dialog control unit 50, a rejection operation characteristic extraction unit 61, a search condition generation unit 70, a data selection unit 72, a change attribute determination unit 74, a notification attribute determination unit 76, an attribute. A similarity determination unit 78, an output processing unit 80, a display 82, a speaker 84, an input processing unit 90, and a microphone 94 are provided. In this case, a rejection operation characteristic extraction unit 61 is provided instead of the rejection operation characteristic extraction unit 60 of FIG. The functions and connection relationships of the components 30, 40, 50, 70 to 76, 80, 82, 84, 90 and 94 are the same as those in FIGS.

却下操作特性抽出部61は、入力処理部84に接続されていて、音声レベル計測部64を含んでいる。却下操作反応時間計測部61は、さらに、却下操作反応時間計測部62を含んでいてもよい。属性類似度決定部78は、検索条件生成部70に接続されていて、ユーザの却下の音声の大きさに応じて通知した属性の値に関する変更前と変更後の値の間の類似度、例えば、高、中または低、を決定する。   Rejection operation characteristic extraction unit 61 is connected to input processing unit 84 and includes an audio level measurement unit 64. Rejection operation reaction time measurement unit 61 may further include a rejection operation reaction time measurement unit 62. The attribute similarity determination unit 78 is connected to the search condition generation unit 70, and the similarity between the pre-change value and the post-change value related to the attribute value notified according to the volume of voice rejected by the user, for example, Determine high, medium or low.

図10は、図9の情報検索システム106によって実行される情報検索のさらに別のフローチャートを示している。   FIG. 10 shows still another flowchart of information search executed by the information search system 106 of FIG.

ステップ302〜324は図6の場合と同様である。但し、ステップ320において、入力処理部90は、ユーザによって却下を表す音声が発せられたかどうかを判定する。ユーザは、マイク94を介して却下を表す音声を発することによって、それが入力処理部90内の音声認識部によって認識され、現在再生されている曲を却下することができる。その却下を表す音声は、例えば、“違う”、“ノー”、 “却下” または“拒否する”等であってもよい。   Steps 302 to 324 are the same as in FIG. However, in step 320, the input processing unit 90 determines whether or not a voice representing rejection is emitted by the user. The user utters a voice representing rejection through the microphone 94, which is recognized by the voice recognition unit in the input processing unit 90 and can reject the currently reproduced song. The voice indicating the rejection may be, for example, “No”, “No”, “Reject” or “Reject”.

ステップ320においてユーザによって却下操作があったと判定された場合は、ステップ334において、音声レベル計測部64は、却下を表す音声の大きさを算出する。ステップ336において、属性類似度決定部78は、その音声のレベルに応じて、ステップ308において通知した属性の値とユーザの要求する変更後の値の間の類似度を決定する。   If it is determined in step 320 that the user has performed a rejection operation, in step 334, the sound level measurement unit 64 calculates the volume of sound representing rejection. In step 336, the attribute similarity determination unit 78 determines the similarity between the attribute value notified in step 308 and the changed value requested by the user according to the sound level.

ステップ338において、データ選択部72は、通知された属性の値に対する決定された類似度に応じて、通知された属性の値と同じ属性における各値間の類似度を表す表(例えば、図12)に基づいて、その属性の変更後の値を選択する。変更属性決定部74は、現在再生中のまたは再生しようとしている曲に付与されている複数の属性のうちの対応する属性の値をその選択された値に変更し、それより下位の属性を任意にする。ステップ340〜344は図6の場合と同様である。通知された属性が最下位の“曲”でありその値が曲名である場合は、手順はステップ338〜342をとばしてステップ344に進んでもよい。この場合、ステップ344において、データ選択部72は、前回の検索条件により前回検索された曲の中から高い類似度のまたは低い類似度の別の曲をランダムに選択してもよい。   In step 338, the data selection unit 72 determines the similarity between values in the same attribute as the notified attribute value according to the determined similarity to the notified attribute value (for example, FIG. 12). ) To select the modified value for that attribute. The change attribute determination unit 74 changes the value of the corresponding attribute among a plurality of attributes assigned to the currently playing or about to be played back to the selected value, and arbitrarily selects a lower attribute. To. Steps 340 to 344 are the same as those in FIG. If the notified attribute is the lowest “song” and the value is the song name, the procedure may skip steps 338 to 342 and proceed to step 344. In this case, in step 344, the data selection unit 72 may randomly select another song having a high similarity or a low similarity from songs previously searched according to the previous search condition.

図11(A)は、図10のステップ336および338におけるユーザの却下音声のレベルPに応じた変更すべき属性の値の決定の方法を示している。図11(B)は、図10のステップ340〜344における変更後の属性の値の条件に基づく曲の決定の例を示している。   FIG. 11A shows a method of determining the value of the attribute to be changed according to the level P of the user's rejected voice in steps 336 and 338 of FIG. FIG. 11B shows an example of music determination based on the attribute value condition after the change in steps 340 to 344 of FIG.

図11(A)を参照すると、音声レベル計測部64は、属性の値を通知した後のユーザによる却下を表す音声のレベルPを計測する。却下操作抽出部61は、ユーザによる却下の音声のレベルPが、音声レベル閾値Pth(例えば、60dB)を超えないか(P≦Pth)、音声レベル閾値Pthを超えたか(P>Pth)、を判定する。音声レベル閾値Pthは、ユーザによるキー92の操作によって調整可能である。   Referring to FIG. 11A, the sound level measurement unit 64 measures a sound level P representing a rejection by the user after notifying the attribute value. The rejection operation extraction unit 61 determines whether the level P of the voice rejected by the user does not exceed the voice level threshold Pth (for example, 60 dB) (P ≦ Pth) or exceeds the voice level threshold Pth (P> Pth). judge. The sound level threshold value Pth can be adjusted by operating the key 92 by the user.

却下の音声の音声レベルPが音声レベル閾値Pthを超えない(P≦Pth)場合、属性類似度決定部78は、現在再生中のまたは再生しようとしている曲に関する通知した属性の値について高い類似度を決定する。却下の音声の音声レベルPが音声レベル閾値Pthを超えた(P>Pth)場合、属性類似度決定部78は、その通知した属性の値について低い類似度を決定する。   If the audio level P of the rejected audio does not exceed the audio level threshold Pth (P ≦ Pth), the attribute similarity determination unit 78 has a high similarity with respect to the value of the notified attribute related to the song currently being reproduced or about to be reproduced. To decide. When the voice level P of the rejected voice exceeds the voice level threshold value Pth (P> Pth), the attribute similarity determination unit 78 determines a low similarity for the notified attribute value.

図12は、データ選択部72に保持されている、例えば1つの属性“アーティスト”の各値すなわち各アーティスト名の間の類似度(0〜100)の表の例を示している。   FIG. 12 shows an example of a table of similarity (0 to 100) between each value of one attribute “artist”, that is, each artist name, held in the data selection unit 72, for example.

図11(B)を参照すると、データ選択部72および変更属性決定部74は、通知された属性の決定された類似度に応じて、図12に示されているような各値間の類似度を表す表に基づいて、再生中のまたは再生しようとしている曲に付与されている複数の属性の対応する属性の値を変更し、それより下位の属性の値を任意にする。その条件に基づいて検索条件が決定され、その検索条件に基づいてデータベース40が検索される。通知されたアーティスト名、例えば“ビートルズ”に対して、高い類似度が決定された場合、図12の表から類似度が90である“ストーンズ”が選択される。通知されたアーティスト名、例えば“ビートルズ”に対して、低い類似度が決定された場合、図12の表から類似度が20である“山田ハナコ”が選択される。   Referring to FIG. 11B, the data selection unit 72 and the change attribute determination unit 74 determine the similarity between values as shown in FIG. 12 according to the determined similarity of the notified attribute. On the basis of the table representing the above, the values of the corresponding attributes of the plurality of attributes assigned to the song being played or about to be played are changed, and the values of the lower attributes are made arbitrary. Search conditions are determined based on the conditions, and the database 40 is searched based on the search conditions. When a high similarity is determined for the notified artist name, for example, “Beatles”, “Stones” with a similarity of 90 is selected from the table of FIG. When a low similarity is determined for the notified artist name, for example, “Beatles”, “Yamada Hanako” having a similarity of 20 is selected from the table of FIG.

従って、アーティスト名が通知された後で、ユーザにより却下音声が発せられた場合、その音声のレベルPが音声レベル閾値Pthを超えない(P≦Pth)場合、属性“ジャンル”の値(ジャンル名)を維持して、通知した属性“アーティスト”の値(アーティスト名)を類似度の高いものに変更し、それより下位の属性“曲”の値(曲名)を任意にして、曲を選択する。一方、その音声のレベルPが音声レベル閾値Pthを超えた(P>Pth)場合、属性“ジャンル”の値は維持して、通知した属性“アーティスト”の値を類似度の低いものに変更し、それより下位の属性“曲”の値を任意にして、曲を選択する。このようにして、通知された上位の属性“ジャンル”から下位の属性“曲”までの各値について、順次、同様に処理される。   Therefore, when a rejection voice is issued by the user after the artist name is notified, if the voice level P does not exceed the voice level threshold Pth (P ≦ Pth), the value of the attribute “genre” (genre name) ), And change the value (artist name) of the notified attribute “artist” to one with a high degree of similarity, and select a song by arbitrarily setting the value (song name) of the lower attribute “song” . On the other hand, when the sound level P exceeds the sound level threshold value Pth (P> Pth), the value of the attribute “genre” is maintained and the value of the notified attribute “artist” is changed to a value with low similarity. Then, a song is selected by arbitrarily setting a value of the attribute “song” below it. In this way, each value from the notified higher attribute “genre” to the lower attribute “song” is sequentially processed in the same manner.

このようにして、検索システム106が上位の属性の値から下位の属性の値までを合成音声で順次提示するに従って、ユーザはその各値に対して却下の応答音声を発するだけで、容易に最終的に所望の曲に到達してその曲を再生することができる。   In this way, as the search system 106 sequentially presents the value of the higher attribute to the value of the lower attribute in the synthesized voice, the user can easily make a final response by simply issuing a rejection voice for each value. Thus, a desired song can be reached and played back.

図13(A)は、図10のステップ336および338におけるユーザの却下の音声のレベルに応じた変更すべき属性の値の決定の別の方法を示している。図13(B)は、図10のステップ340〜344における変更する属性、および、変更後の属性の値の決定方法に関する別の例を示している。   FIG. 13A shows another method of determining the value of the attribute to be changed according to the level of voice rejected by the user in steps 336 and 338 of FIG. FIG. 13B shows another example of the attribute change method in steps 340 to 344 in FIG. 10 and the method for determining the attribute value after the change.

図13(A)を参照すると、音声レベル計測部64は、属性を通知した後のユーザによる却下を表す音声のレベルPを計測する。却下操作抽出部61は、ユーザによる却下の音声のレベルPが、音圧レベル閾値Pth1(例えば、55dB)を超えないか(P≦Pth1)、音圧レベル閾値Pth2を超えかつ音圧レベル閾値Pth2(例えば、75dB)を超えないか(Pth1<P≦Pth2)、または音圧レベル閾値Pth2を超えたか(P>Pth2)を判定する。音圧レベル閾値Pth1およびPth2は、ユーザによるキー92の操作によって調整可能である。   Referring to FIG. 13A, the sound level measurement unit 64 measures a sound level P that represents a rejection by the user after notifying the attribute. The rejection operation extraction unit 61 determines whether the level P of the voice rejected by the user does not exceed the sound pressure level threshold Pth1 (for example, 55 dB) (P ≦ Pth1), exceeds the sound pressure level threshold Pth2, and the sound pressure level threshold Pth2 (For example, 75 dB) is not exceeded (Pth1 <P ≦ Pth2) or the sound pressure level threshold value Pth2 is exceeded (P> Pth2). The sound pressure level threshold values Pth1 and Pth2 can be adjusted by operating the key 92 by the user.

却下の音声の音圧レベルPが音圧レベル閾値Pth1を超えない(P≦Pth1)場合、属性類似度決定部78は、現在再生中のまたは再生しようとしている曲に関する通知した属性の値に対して高い類似度を決定する。却下の音声の音圧レベルPが音圧レベル閾値Pth1を超えかつ音圧レベル閾値Pth2を超えない(Pth1<P≦Pth2)場合、属性類似度決定部78は、その通知した属性の値に対して低い類似度を決定する。却下の音声の音圧レベルPが音圧レベル閾値Pth2を超えた(P>Pth2)場合、属性類似度決定部78は、その通知した属性より上位の属性の値を変更することを決定する。このように複数の閾値を用いることによって、ユーザは、少ない回数の操作または音声入力でより早く所望の曲に到達することができる。   When the sound pressure level P of the rejected voice does not exceed the sound pressure level threshold value Pth1 (P ≦ Pth1), the attribute similarity determination unit 78 determines the value of the attribute notified about the music currently being played or about to be played. Determine a high degree of similarity. When the sound pressure level P of the rejected voice exceeds the sound pressure level threshold value Pth1 and does not exceed the sound pressure level threshold value Pth2 (Pth1 <P ≦ Pth2), the attribute similarity determination unit 78 determines the value of the notified attribute. Low similarity. When the sound pressure level P of the rejected sound exceeds the sound pressure level threshold value Pth2 (P> Pth2), the attribute similarity determination unit 78 determines to change the value of the attribute higher than the notified attribute. By using a plurality of threshold values in this way, the user can reach a desired song earlier with a small number of operations or voice input.

データ選択部72および変更属性決定部74は、通知された属性の決定された類似度に応じて、図11の場合と同様に処理する。その通知した属性より上位の属性の値を変更することが決定された場合は、変更属性決定部74は、図7の上位の属性の値の変更の場合と同様に処理する。検索条件生成部70は、更新する属性に基づいて検索条件を生成する。   The data selection unit 72 and the change attribute determination unit 74 perform the same processing as in the case of FIG. 11 according to the determined similarity of the notified attribute. When it is determined to change the value of the higher attribute than the notified attribute, the change attribute determination unit 74 performs the same process as in the case of changing the value of the higher attribute in FIG. The search condition generation unit 70 generates a search condition based on the attribute to be updated.

図13(B)を参照すると、属性の値としてアーティスト名が通知された後で、ユーザにより却下音声が発せられた場合、その音声の音圧レベルPが音圧レベル閾値Pth1以下の場合は、属性“ジャンル”の値は維持して、通知した属性である“アーティスト”の値を変更してデータベース40を検索して、類似度の高い別のアーティストの曲を次に再生するよう決定する。一方、その音声の音圧レベルPが音圧レベル閾値Pth1より高くPth2以下である場合は、属性“ジャンル”の値は維持して、通知した属性である“アーティスト”の値を変更してデータベース40を検索して、類似度の低い別のアーティストの曲を次に再生するよう決定する。その音声の音圧レベルPが音圧レベル閾値Pth2より高い場合は、属性“ジャンル”の値を変更してデータベース40を検索して別のジャンルの曲を次に再生するよう決定する。また、通知された属性の値が“ジャンル”または“曲”の値である場合も、同様に処理される。   Referring to FIG. 13B, after the artist name is notified as the attribute value and the user makes a rejected sound, if the sound pressure level P of the sound is equal to or lower than the sound pressure level threshold Pth1, The value of the attribute “genre” is maintained, the value of the notified attribute “artist” is changed, and the database 40 is searched to determine that the music of another artist having a high similarity is to be reproduced next. On the other hand, when the sound pressure level P of the sound is higher than the sound pressure level threshold Pth1 and lower than or equal to Pth2, the value of the attribute “genre” is maintained and the value of the notified attribute “artist” is changed. 40 is searched and it is determined that the music of another artist having a low similarity is reproduced next. When the sound pressure level P of the sound is higher than the sound pressure level threshold value Pth2, the value of the attribute “genre” is changed and the database 40 is searched to determine to play the music of another genre next. The same processing is performed when the notified attribute value is the value of “genre” or “song”.

このように、曲の属性の値を通知した後のユーザの反応音声の大きさに応じて、音声が大きい場合にはそれより上位の属性の値を変更する、もしくは通知した属性の値を類似度の低いものに変更し、音声が小さい場合は通知した属性の値を類似度の高いものに変更するように決定する手法は、反応音声が大きいほど拒絶の度合いが大きく、通知された属性の値とユーザの要求する属性の値との間の類似度または関連性が小さい傾向にあり、逆に、反応音声が小さいほど拒絶の度合いが小さく、通知された属性の値とユーザの要求する属性の値との間の類似度または関連性が大きい傾向にあるという、発明者たちの分析に基づいている。   In this way, depending on the volume of the user's reaction voice after notifying the attribute value of the song, if the voice is loud, the value of the higher attribute is changed or the notified attribute value is similar When the voice is low, the method of deciding to change the value of the notified attribute to one with a high similarity is such that the higher the response voice, the greater the degree of rejection. The similarity or relevance between the value and the attribute value requested by the user tends to be small, and conversely, the smaller the response voice, the smaller the degree of rejection, and the attribute value notified and the attribute requested by the user Based on the inventors' analysis that the degree of similarity or relevance between the values of

図14は、図10のフローチャートを変形したものであり、図9の情報検索システム106によって実行される情報検索のさらに別のフローチャートを示している。この場合、ステップ320と334の間に、図6のステップ337と同様のステップ332が加えられている。ステップ332において、却下操作反応時間計測部62は、現在再生中のまたは再生しようとしている曲の属性の値の通知開始後からユーザによる却下操作が行われるまでの反応時間を算出する。この場合、却下操作はユーザによる却下音声の発生である。この場合、却下音声の反応時間Tと音圧レベルPの双方の特徴を考慮して類似度を決定する。   FIG. 14 is a modification of the flowchart of FIG. 10 and shows yet another flowchart of information search executed by the information search system 106 of FIG. In this case, step 332 similar to step 337 in FIG. 6 is added between steps 320 and 334. In step 332, the rejection operation response time measuring unit 62 calculates a reaction time from the start of notification of the attribute value of the song currently being played or about to be played until the user performs a rejection operation. In this case, the rejection operation is generation of a rejection voice by the user. In this case, the similarity is determined in consideration of the characteristics of both the reaction time T and the sound pressure level P of the rejected voice.

類似度を、S=αT+β/Pで表す。ここで、Tは却下音声の発生までの経過時間を表し、Pは却下音声の音圧レベルを表し、αおよびβは重み係数である。   The similarity is represented by S = αT + β / P. Here, T represents the elapsed time until the generation of the rejected voice, P represents the sound pressure level of the rejected voice, and α and β are weighting factors.

図15(A)は、図10のステップ336および338におけるユーザの却下音声の応答時間Tおよび音圧レベルPに応じた変更すべき属性の値の決定の別の方法を示している。図15(B)は、図14のステップ332〜344における変更後の属性の値に基づく曲の決定の別の例を示している。   FIG. 15A shows another method for determining the value of the attribute to be changed according to the response time T and the sound pressure level P of the user's rejected voice in steps 336 and 338 of FIG. FIG. 15B shows another example of song determination based on the changed attribute value in steps 332 to 344 of FIG.

図15(A)を参照すると、却下操作反応時間計測部62は属性の値を通知してからユーザによる却下音声の発生までの時間Tを計測し、音声レベル計測部64は属性の値を通知した後のユーザによる却下を表す音声の音圧レベルPを計測する。却下操作抽出部61は、類似度S(αT+β/P)が類似度閾値Sth未満か(S<Sth)またはSth以下であるか(S≧Sth)を判定する。類似度SがSth未満である(S<Sth)場合、属性類似度決定部78は、現在再生中のまたは再生しようとしている曲の通知した属性の値について低い類似度を決定する。類似度SがSth以上である(S≧Sth)場合、属性類似度決定部78は、現在再生中のまたは再生しようとしている曲の通知した属性の値について高い類似度を決定する。類似度閾値Sthは、ユーザによるキー92の操作によって調整可能である。   Referring to FIG. 15A, the rejection operation reaction time measurement unit 62 measures the time T from the notification of the attribute value to the generation of the rejection voice by the user, and the voice level measurement unit 64 notifies the attribute value. After that, the sound pressure level P of the voice representing the rejection by the user is measured. Rejection operation extraction unit 61 determines whether similarity S (αT + β / P) is less than similarity threshold Sth (S <Sth) or less than Sth (S ≧ Sth). When the similarity S is less than Sth (S <Sth), the attribute similarity determination unit 78 determines a low similarity for the attribute value notified of the currently playing or about to be played music. When the similarity S is equal to or greater than Sth (S ≧ Sth), the attribute similarity determination unit 78 determines a high similarity for the attribute value notified of the currently playing or about to be played music. The similarity threshold Sth can be adjusted by the operation of the key 92 by the user.

図15(B)を参照すると、図11(B)の場合と同様に、類似度Sに応じて、属性“アーティスト”の値(アーティスト名)が変更されて、データベース40が検索されて、再生すべき曲が決定される。   Referring to FIG. 15B, as in the case of FIG. 11B, the value (artist name) of the attribute “artist” is changed according to the similarity S, and the database 40 is searched for reproduction. The song to be decided is decided.

ユーザは、上述の情報検索システム100〜106の使用に慣れることによって、所望の属性値の変更に必要な自己の却下操作および却下音声の発生のタイミングおよび却下音声の大きさを学習するであろう。または、ユーザは、上述の情報検索システム100〜106の使用に慣れることによって、所望の属性値の変更に適した調整可能な閾値Tth、Tth1、Tth2、Pth、Pth1、Pth2、Sthの設定を、ユーザ自身が行う操作の特徴およびユーザ自身が発する音声の特徴に従って調整できるようになるであろう。   The user will learn the timing of the rejection operation and the generation of the rejection voice and the size of the rejection voice necessary for changing the desired attribute value by becoming accustomed to the use of the information search systems 100 to 106 described above. . Alternatively, the user can adjust the threshold values Tth, Tth1, Tth2, Pth, Pth1, Pth2, and Sth that can be adjusted to change the desired attribute value by becoming familiar with the use of the information search systems 100 to 106 described above. It will be possible to adjust according to the characteristics of the operation performed by the user himself and the characteristics of the sound emitted by the user himself.

以上説明した実施形態は典型例として挙げたに過ぎず、その各実施形態の構成要素を組み合わせること、その変形およびバリエーションは当業者にとって明らかであり、当業者であれば本発明の原理および請求の範囲に記載した発明の範囲を逸脱することなく上述の実施形態の種々の変形を行えることは明らかである。   The embodiments described above are merely given as typical examples, and it is obvious to those skilled in the art to combine the components of each embodiment, and variations and variations thereof will be apparent to those skilled in the art. Obviously, various modifications may be made to the above-described embodiments without departing from the scope of the invention as set forth in the scope.

以上の実施例を含む実施形態に関して、さらに以下の付記を開示する。
(付記1) それぞれ複数の属性を有する複数のデータを格納するデータベースと、
ユーザからの入力情報を処理する入力情報処理手段と、
システムからの出力情報を処理する出力情報処理手段と、
前記入力情報処理手段から次に受け付けるべき情報を決定し、前記入力情報処理手段から受け付けた情報に応答して、ユーザに提示するデータを決定し、前記データが有する属性に基づいて、前記出力情報処理手段に供給すべき出力情報を決定する対話制御手段と、
前記対話制御手段の制御の下で、前記データベースを検索するための検索条件を決定する検索条件決定手段と、
前記決定された検索条件に従って前記データベースを検索して、前記データベースから前記決定された検索条件を満たすデータを取り出すデータ検索手段と、
前記取り出されたデータの中から前記ユーザに提示するデータを選択するデータ選択手段と、
前記出力情報処理手段によって前記ユーザに提示された出力情報に対して、前記入力情報処理手段が受け取った前記ユーザの入力情報の特徴を抽出する特徴抽出手段と、
前記抽出された特徴に応じて、前記ユーザに提示するデータの複数の属性のうちのいずれの属性の値を変更するかを決定する変更属性決定手段と、
を具え、
前記検索条件決定手段は、前記変更された属性の値に基づいて、前記データベースを検索するための変更された検索条件を決定し、
前記データ検索手段は、前記変更された検索条件に従って前記データベースを検索して、前記データベースから前記変更された検索条件を満たすデータを取り出すものであることを特徴とする、対話型の情報検索システム。
(付記2) 前記出力情報処理手段は、前記データを再生処理して前記出力情報を生成するものであることを特徴とする、付記1に記載の対話型の情報検索システム。
(付記3) さらに、前記データ選択手段によって選択されたデータが有する複数の属性の中から出力情報に含める属性を選択する通知属性決定手段を具え、
前記出力情報処理手段は、前記選択された属性の値を、前記ユーザに音声で通知するものであることを特徴とする、請求項1に記載の対話型の情報検索システム。
(付記4) 前記特徴抽出手段は、前記ユーザに提示された出力情報に対して、前記入力情報処理手段が受け取った前記ユーザの拒否を表す入力情報の受信タイミングが所定の時間閾値を超えているかどうかに基づいて前記特徴を決定するものであることを特徴とする、付記1に記載の対話型の情報検索システム。
(付記5) 前記ユーザの入力情報はユーザの音声入力情報であり、
前記特徴抽出手段は、前記出力情報処理手段によって前記ユーザに提示された出力情報に対して、前記入力情報処理手段が受け取った前記ユーザの拒否を表す音声入力情報の受信タイミングまたは音声の大きさが所定の閾値を超えているかどうかに基づいて前記特徴を決定するものであることを特徴とする、付記1に記載の対話型の情報検索システム。
(付記6) さらに、前記特徴に基づいて前記出力情報処理手段によって前記ユーザに提示され拒否されたデータと次に前記ユーザに提示されるデータとの間の類似度を決定する類似度決定手段を具え、
前記データ選択手段は、前記取り出されたデータの中から前記決定された類似度に対応するデータを選択するものであることを特徴とする、付記1に記載の対話型の情報検索システム。
(付記7) 前記入力情報処理手段は前記ユーザの拒否を表す情報を単一の操作キーから受け取るものであることを特徴とする、付記1に記載の対話型の情報検索システム。
(付記8) 前記入力情報処理手段は、前記ユーザの拒否を表す情報を音声信号として受け取り、音声認識により前記音声信号を認識し前記音声信号の音圧レベルを決定するものであることを特徴とする、付記1に記載の対話型の情報検索システム。
(付記9) それぞれ複数の属性を有する複数のデータを格納するデータベースと、
ユーザからの入力情報を処理する入力情報処理手段と、
システムからの出力情報を処理する出力情報処理手段と、
前記入力情報処理手段から次に受け付けるべき情報を決定し、前記入力情報処理手段から受け付けた情報に応答して、ユーザに提示するデータを決定し、前記データが有する属性に基づいて、前記出力情報処理手段に供給すべき出力情報を決定する対話制御手段と、
前記対話制御手段の制御の下で、前記データベースを検索するための検索条件を決定する検索条件決定手段と、
前記決定された検索条件に従って前記データベースを検索して、前記データベースから前記決定された検索条件を満たすデータを取り出すデータ検索手段と、
前記取り出されたデータの中から前記ユーザに提示するデータを選択するデータ選択手段と、
前記出力情報処理手段によって前記ユーザに提示された出力情報に対して、前記入力情報処理手段が受け取った前記ユーザの入力情報の特徴を抽出する特徴抽出手段と、
前記抽出された特徴に応じて、前記ユーザに提示するデータの複数の属性のうちのいずれの属性の値を変更するかを決定する変更属性決定手段と、
を具え、
前記検索条件決定手段は、前記変更された属性の値に基づいて、前記データベースを検索するための検索条件を決定し、
前記データ検索手段は、前記変更された検索条件に従って前記データベースを検索して、前記データベースから前記変更された検索条件を満たすデータを取り出すものであることを特徴とする、対話型の情報検索機能を有する電子機器。
Regarding the embodiment including the above examples, the following additional notes are further disclosed.
(Supplementary Note 1) A database that stores a plurality of data each having a plurality of attributes;
Input information processing means for processing input information from the user;
Output information processing means for processing output information from the system;
The information to be received next from the input information processing means is determined, the data to be presented to the user is determined in response to the information received from the input information processing means, and the output information is based on the attribute of the data Dialog control means for determining output information to be supplied to the processing means;
Search condition determining means for determining a search condition for searching the database under the control of the dialog control means;
Data search means for searching the database according to the determined search condition and retrieving data satisfying the determined search condition from the database;
Data selection means for selecting data to be presented to the user from the retrieved data;
Feature extraction means for extracting features of the input information of the user received by the input information processing means for the output information presented to the user by the output information processing means;
Change attribute determining means for determining which attribute value of a plurality of attributes of data to be presented to the user is to be changed according to the extracted features;
With
The search condition determining means determines a changed search condition for searching the database based on the changed attribute value,
The interactive data search system, wherein the data search means searches the database according to the changed search condition, and retrieves the data satisfying the changed search condition from the database.
(Additional remark 2) The said output information processing means reproduces | regenerates the said data, and produces | generates the said output information, The interactive information search system of Additional remark 1 characterized by the above-mentioned.
(Additional remark 3) Furthermore, the notification attribute determination means which selects the attribute included in output information from the some attribute which the data selected by the said data selection means has is provided,
The interactive information search system according to claim 1, wherein the output information processing means notifies the user of the value of the selected attribute by voice.
(Supplementary Note 4) Whether the reception timing of the input information indicating the rejection of the user received by the input information processing means exceeds a predetermined time threshold with respect to the output information presented to the user, The interactive information search system according to appendix 1, wherein the feature is determined based on whether or not.
(Appendix 5) The user input information is user voice input information,
The feature extraction unit is configured such that, for the output information presented to the user by the output information processing unit, the reception timing or the volume of the voice input information indicating the rejection of the user received by the input information processing unit is The interactive information search system according to appendix 1, wherein the feature is determined based on whether or not a predetermined threshold is exceeded.
(Additional remark 6) Furthermore, the similarity determination means which determines the similarity between the data shown to the said user by the said output information processing means based on the said characteristic, and the data shown to the said user next Prepared,
The interactive information search system according to appendix 1, wherein the data selection means selects data corresponding to the determined similarity from the extracted data.
(Supplementary note 7) The interactive information search system according to Supplementary note 1, wherein the input information processing means receives information indicating rejection of the user from a single operation key.
(Additional remark 8) The said input information processing means receives the information showing the said user's rejection as an audio | voice signal, recognizes the said audio | voice signal by audio | voice recognition, and determines the sound pressure level of the said audio | voice signal, It is characterized by the above-mentioned. The interactive information search system according to appendix 1.
(Supplementary note 9) a database storing a plurality of data each having a plurality of attributes;
Input information processing means for processing input information from the user;
Output information processing means for processing output information from the system;
The information to be received next from the input information processing means is determined, the data to be presented to the user is determined in response to the information received from the input information processing means, and the output information is based on the attribute of the data Dialog control means for determining output information to be supplied to the processing means;
Search condition determining means for determining a search condition for searching the database under the control of the dialog control means;
Data search means for searching the database according to the determined search condition and retrieving data satisfying the determined search condition from the database;
Data selection means for selecting data to be presented to the user from the retrieved data;
Feature extraction means for extracting features of the input information of the user received by the input information processing means for the output information presented to the user by the output information processing means;
Change attribute determining means for determining which attribute value of a plurality of attributes of data to be presented to the user is to be changed according to the extracted features;
With
The search condition determining means determines a search condition for searching the database based on the changed attribute value,
The interactive data search function is characterized in that the data search means searches the database according to the changed search condition, and retrieves data satisfying the changed search condition from the database. Electronic equipment that has.

図1は、本発明の原理による対話型の情報検索システムの基本構成を示している。FIG. 1 shows a basic configuration of an interactive information retrieval system according to the principle of the present invention. 図2は、本発明の実施形態による対話型の情報検索システムの構成を示している。FIG. 2 shows a configuration of an interactive information search system according to an embodiment of the present invention. 図3は、図2の情報検索システムによって実行される情報検索のフローチャートを示している。FIG. 3 shows a flowchart of information retrieval executed by the information retrieval system of FIG. 図4(A)は、図3のステップ337および338におけるユーザの却下操作の反応時間に応じた変更すべき属性の値の決定の方法を示している。図4(B)は、図3のステップ340〜344における変更前の属性の値に対する変更後の属性の値の決定の例を示している。FIG. 4A shows a method of determining the value of the attribute to be changed according to the reaction time of the user's rejection operation in steps 337 and 338 of FIG. FIG. 4B shows an example of determining the attribute value after the change with respect to the attribute value before the change in steps 340 to 344 in FIG. 3. 図5は、本発明の別の実施形態による対話型の情報検索システムの構成を示している。FIG. 5 shows the configuration of an interactive information search system according to another embodiment of the present invention. 図6は、図5の情報検索システムによって実行される情報検索の別のフローチャートを示している。FIG. 6 shows another flowchart of information retrieval executed by the information retrieval system of FIG. 図7(A)は、図6のステップ337および338におけるユーザの却下操作の反応時間に応じた変更すべき属性の値の決定の方法を示している。図7(B)は、図6のステップ340〜344における変更前の属性の値に対する変更後の属性の値の決定の例を示している。FIG. 7A shows a method of determining the value of the attribute to be changed according to the reaction time of the user's rejection operation in steps 337 and 338 of FIG. FIG. 7B shows an example of determining the attribute value after the change with respect to the attribute value before the change in steps 340 to 344 in FIG. 6. 図8(A)は、図6のステップ337および338におけるユーザの却下操作の反応時間Tに応じた変更すべき属性の値の決定の別の方法を示している。図8(B)は、図6のステップ340〜344における変更後の属性の値の条件に基づく曲の決定の別の例を示している。FIG. 8A shows another method of determining the value of the attribute to be changed according to the reaction time T of the user's rejection operation in steps 337 and 338 of FIG. FIG. 8B shows another example of song determination based on the attribute value condition after the change in steps 340 to 344 in FIG. 6. 図9は、本発明のさらに別の実施形態による対話型の情報検索システムの構成を示している。FIG. 9 shows a configuration of an interactive information search system according to still another embodiment of the present invention. 図10は、図9の情報検索システムによって実行される情報検索のさらに別のフローチャートを示している。FIG. 10 shows still another flowchart of information search executed by the information search system of FIG. 図11(A)は、図10のステップ336および338におけるユーザの却下音声の電Pのレベルに応じた変更すべき属性の値の決定の方法を示している。図11(B)は、図10のステップ340〜344における変更後の属性の値の条件に基づく曲の決定の例を示している。FIG. 11A shows a method of determining the value of the attribute to be changed according to the level of the power P of the user's rejected voice in steps 336 and 338 of FIG. FIG. 11B shows an example of music determination based on the attribute value condition after the change in steps 340 to 344 of FIG. 図12は、データ選択部に保持されている1つの属性の値の間の類似度の表の例を示している。FIG. 12 shows an example of a similarity table between values of one attribute held in the data selection unit. 図13(A)は、図10のステップ336および338におけるユーザの却下音声の音圧レベルのレベルに応じた変更すべき属性の値の決定の別の方法を示している。図13(B)は、図10のステップ340〜344における変更後の属性の値に基づく曲の決定の別の例を示している。FIG. 13A shows another method of determining the value of the attribute to be changed according to the level of the sound pressure level of the user's rejected voice in steps 336 and 338 of FIG. FIG. 13B shows another example of song determination based on the changed attribute values in steps 340 to 344 in FIG. 図14は、図10のフローチャートを変形したものであり、図9の情報検索システムによって実行される情報検索のさらに別のフローチャートを示している。FIG. 14 is a modification of the flowchart of FIG. 10 and shows yet another flowchart of information search executed by the information search system of FIG. 図15(A)は、図10のステップ336および338におけるユーザの却下音声の応答時間および音圧レベルに応じた変更すべき属性の値の決定の別の方法を示している。図15(B)は、図14のステップ332〜344における変更後の属性の値に基づく曲の決定の別の例を示している。FIG. 15A shows another method of determining the value of the attribute to be changed according to the response time and sound pressure level of the user's rejected voice in steps 336 and 338 of FIG. FIG. 15B shows another example of song determination based on the changed attribute value in steps 332 to 344 of FIG.

符号の説明Explanation of symbols

100 情報検索システム
30 データ検索部
40 データベース
50 対話制御部
60 却下操作特性抽出部
70 検索条件生成部
72 データ選択部
74 変更属性決定部
80 出力情報処理部
82 ディスプレイ
84 スピーカ
90 入力情報処理部
92 キー
94 マイク
DESCRIPTION OF SYMBOLS 100 Information retrieval system 30 Data retrieval part 40 Database 50 Dialog control part 60 Rejection operation characteristic extraction part 70 Search condition production | generation part 72 Data selection part 74 Change attribute determination part 80 Output information processing part 82 Display 84 Speaker 90 Input information processing part 92 Key 94 microphone

Claims (5)

それぞれ複数の属性を有する複数のデータを格納するデータベースと、
ユーザからの入力情報を処理する入力情報処理手段と、
システムからの出力情報を処理する出力情報処理手段と、
前記入力情報処理手段から次に受け付けるべき情報を決定し、前記入力情報処理手段から受け付けた情報に応答して、ユーザに提示するデータを決定し、前記データが有する属性に基づいて、前記出力情報処理手段に供給すべき出力情報を決定する対話制御手段と、
前記対話制御手段の制御の下で、前記データベースを検索するための検索条件を決定する検索条件決定手段と、
前記決定された検索条件に従って前記データベースを検索して、前記データベースから前記決定された検索条件を満たすデータを取り出すデータ検索手段と、
前記取り出されたデータの中から前記ユーザに提示するデータを選択するデータ選択手段と、
前記出力情報処理手段によって前記ユーザに提示された出力情報に対して、前記入力情報処理手段が受け取った前記ユーザの入力情報の特徴を抽出する特徴抽出手段と、
前記抽出された特徴に応じて、前記ユーザに提示するデータが有する複数の属性のうちのいずれの属性の値を変更するかを決定する変更属性決定手段と、
を具え、
前記検索条件決定手段は、前記変更された属性の値に基づいて、前記データベースを検索するための検索条件を決定し、
前記データ検索手段は、前記変更された検索条件に従って前記データベースを検索して、前記データベースから前記変更された検索条件を満たすデータを取り出すものであることを特徴とする、対話型の情報検索システム。
A database storing a plurality of data each having a plurality of attributes;
Input information processing means for processing input information from the user;
Output information processing means for processing output information from the system;
The information to be received next from the input information processing means is determined, the data to be presented to the user is determined in response to the information received from the input information processing means, and the output information is based on the attribute of the data Dialog control means for determining output information to be supplied to the processing means;
Search condition determining means for determining a search condition for searching the database under the control of the dialog control means;
Data search means for searching the database according to the determined search condition and retrieving data satisfying the determined search condition from the database;
Data selection means for selecting data to be presented to the user from the retrieved data;
Feature extraction means for extracting features of the input information of the user received by the input information processing means for the output information presented to the user by the output information processing means;
Change attribute determination means for determining which attribute value among a plurality of attributes of data to be presented to the user is to be changed according to the extracted features;
With
The search condition determining means determines a search condition for searching the database based on the changed attribute value,
The interactive data search system, wherein the data search means searches the database according to the changed search condition, and retrieves the data satisfying the changed search condition from the database.
さらに、前記データ選択手段によって選択されたデータが有する複数の属性の中から出力情報に含める属性を選択する通知属性決定手段を具え、
前記出力情報処理手段は、前記選択された属性の値を、前記ユーザに音声で通知するものであることを特徴とする、請求項1に記載の対話型の情報検索システム。
Furthermore, it comprises notification attribute determining means for selecting an attribute to be included in the output information from a plurality of attributes of the data selected by the data selecting means,
The interactive information search system according to claim 1, wherein the output information processing means notifies the user of the value of the selected attribute by voice.
前記特徴抽出手段は、前記ユーザに提示された出力情報に対して、前記入力情報処理手段が受け取った前記ユーザの拒否を表す入力情報の受信タイミングが所定の時間閾値を超えているかどうかに基づいて前記特徴を決定するものであることを特徴とする、請求項1に記載の対話型の情報検索システム。   The feature extraction means is based on whether the reception timing of the input information indicating the rejection of the user received by the input information processing means exceeds a predetermined time threshold with respect to the output information presented to the user. The interactive information retrieval system according to claim 1, wherein the characteristic is determined. 前記ユーザの入力情報はユーザの音声入力情報であり、
前記特徴抽出手段は、前記出力情報処理手段によって前記ユーザに提示された出力情報に対して、前記入力情報処理手段が受け取った前記ユーザの拒否を表す音声入力情報の受信タイミングまたは音声の大きさが所定の閾値を超えているかどうかに基づいて前記特徴を決定するものであることを特徴とする、請求項1に記載の対話型の情報検索システム。
The user input information is user voice input information;
The feature extraction unit is configured such that, for the output information presented to the user by the output information processing unit, the reception timing or the volume of the voice input information indicating the rejection of the user received by the input information processing unit is The interactive information search system according to claim 1, wherein the feature is determined based on whether or not a predetermined threshold value is exceeded.
さらに、前記特徴に基づいて前記出力情報処理手段によって前記ユーザに提示され拒否されたデータと次に前記ユーザに提示されるデータとの間の類似度を決定する類似度決定手段を具え、
前記データ選択手段は、前記取り出されたデータの中から前記決定された類似度に対応するデータを選択するものであることを特徴とする、請求項1に記載の対話型の情報検索システム。
Furthermore, it comprises similarity determining means for determining the similarity between the data presented to the user and rejected by the output information processing means based on the features and the data presented to the user next.
2. The interactive information search system according to claim 1, wherein the data selection means selects data corresponding to the determined similarity from the extracted data.
JP2006193982A 2006-07-14 2006-07-14 Information retrieval system Expired - Fee Related JP4707621B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006193982A JP4707621B2 (en) 2006-07-14 2006-07-14 Information retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006193982A JP4707621B2 (en) 2006-07-14 2006-07-14 Information retrieval system

Publications (2)

Publication Number Publication Date
JP2008021216A true JP2008021216A (en) 2008-01-31
JP4707621B2 JP4707621B2 (en) 2011-06-22

Family

ID=39077088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006193982A Expired - Fee Related JP4707621B2 (en) 2006-07-14 2006-07-14 Information retrieval system

Country Status (1)

Country Link
JP (1) JP4707621B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018267A1 (en) * 2011-07-29 2013-02-07 パナソニック株式会社 Presentation control device and presentation control method
JP2014027981A (en) * 2012-07-31 2014-02-13 Konami Digital Entertainment Co Ltd Game control device, game control method, program, game system, lottery device
JP2015069608A (en) * 2013-10-01 2015-04-13 Kddi株式会社 Program for progressing search interactively with user, server, and method
US9387584B2 (en) 2011-11-16 2016-07-12 Nidec Sankyo Corporation Industrial robot
JP2018092617A (en) * 2016-12-06 2018-06-14 パナソニックIpマネジメント株式会社 Proposal candidate presentation device and proposal candidate presentation method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128409A (en) * 1995-09-01 1997-05-16 Ricoh Co Ltd Device and method for retrieving data and information storage medium
JP2003016093A (en) * 2001-06-27 2003-01-17 Nec Corp Apparatus, system, method and program for information delivery
JP2003030232A (en) * 2001-07-13 2003-01-31 Nissho:Kk Method for distributing information in network
WO2004109544A1 (en) * 2003-06-04 2004-12-16 Sony Netservices Gmbh Content recommendation device with user feedback
JP2005135519A (en) * 2003-10-30 2005-05-26 Fujitsu Ten Ltd Music reproducing unit
JP2005275601A (en) * 2004-03-23 2005-10-06 Fujitsu Ltd Information retrieval system with voice
JP2006185189A (en) * 2004-12-27 2006-07-13 Denso It Laboratory Inc User support device and user support method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128409A (en) * 1995-09-01 1997-05-16 Ricoh Co Ltd Device and method for retrieving data and information storage medium
JP2003016093A (en) * 2001-06-27 2003-01-17 Nec Corp Apparatus, system, method and program for information delivery
JP2003030232A (en) * 2001-07-13 2003-01-31 Nissho:Kk Method for distributing information in network
WO2004109544A1 (en) * 2003-06-04 2004-12-16 Sony Netservices Gmbh Content recommendation device with user feedback
JP2005135519A (en) * 2003-10-30 2005-05-26 Fujitsu Ten Ltd Music reproducing unit
JP2005275601A (en) * 2004-03-23 2005-10-06 Fujitsu Ltd Information retrieval system with voice
JP2006185189A (en) * 2004-12-27 2006-07-13 Denso It Laboratory Inc User support device and user support method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
西山 敏雄: "検索属性の優先順位に基づく自然語対話処理の代替案応答手法", NTT R&D 第39巻 第5号, vol. 第39巻 第5号, JPN6010070864, 10 May 1990 (1990-05-10), JP, pages 793 - 802, ISSN: 0001873013 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018267A1 (en) * 2011-07-29 2013-02-07 パナソニック株式会社 Presentation control device and presentation control method
JPWO2013018267A1 (en) * 2011-07-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Presentation control apparatus and presentation control method
CN103181180B (en) * 2011-07-29 2017-03-29 松下电器(美国)知识产权公司 Prompting control device and prompting control method
US9387584B2 (en) 2011-11-16 2016-07-12 Nidec Sankyo Corporation Industrial robot
US9399285B2 (en) 2011-11-16 2016-07-26 Nidec Sankyo Corporation Industrial robot with hollow section
JP2014027981A (en) * 2012-07-31 2014-02-13 Konami Digital Entertainment Co Ltd Game control device, game control method, program, game system, lottery device
JP2015069608A (en) * 2013-10-01 2015-04-13 Kddi株式会社 Program for progressing search interactively with user, server, and method
JP2018092617A (en) * 2016-12-06 2018-06-14 パナソニックIpマネジメント株式会社 Proposal candidate presentation device and proposal candidate presentation method

Also Published As

Publication number Publication date
JP4707621B2 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
US9190052B2 (en) Systems and methods for providing information discovery and retrieval
US8965764B2 (en) Electronic apparatus and voice recognition method for the same
US20060224260A1 (en) Scan shuffle for building playlists
CN102024013A (en) System and method for activating functions including a first function and a second function
EP2302621A1 (en) Speech processing apparatus, speech processing method and program
JP2004347943A (en) Data processor, musical piece reproducing apparatus, control program for data processor, and control program for musical piece reproducing apparatus
JP4707621B2 (en) Information retrieval system
US9012755B2 (en) Method and apparatus for storing/searching for music
JP2003255992A (en) Interactive system and method for controlling the same
JP2009042968A (en) Information selection system, information selection method, and program for information selection
JP2009210790A (en) Music selection singer analysis and recommendation device, its method, and program
KR20110053397A (en) Method for searching multimedia file by using search keyword and portable device thereof
JP6772916B2 (en) Dialogue device and dialogue method
JP5589426B2 (en) Content providing system, content providing method, and content providing program
JP2013092912A (en) Information processing device, information processing method, and program
KR100702059B1 (en) Ubiquitous music information retrieval system and method based on query pool with feedback of customer characteristics
JP6630628B2 (en) Karaoke system, recommended music presentation program
JP2019101148A (en) Communication karaoke system
JP2006276560A (en) Music playback device and music playback method
KR101576683B1 (en) Method and apparatus for playing audio file comprising history storage
JP2004145161A (en) Speech database registration processing method, speech generation source recognizing method, speech generation section retrieving method, speech database registration processing device, speech generation source recognizing device, speech generation section retrieving device, program therefor, and recording medium for same program
JP6859204B2 (en) Karaoke song recommendation system
JP2011095498A (en) On-vehicle information processing device and on-vehicle information processing method
US20220391438A1 (en) Information processing apparatus, information processing method, and program
JP6587459B2 (en) Song introduction system in karaoke intro

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110315

LAPS Cancellation because of no payment of annual fees