JP2007164725A - Event determination method, voice data processor, event determination system and computer program - Google Patents

Event determination method, voice data processor, event determination system and computer program Download PDF

Info

Publication number
JP2007164725A
JP2007164725A JP2005363939A JP2005363939A JP2007164725A JP 2007164725 A JP2007164725 A JP 2007164725A JP 2005363939 A JP2005363939 A JP 2005363939A JP 2005363939 A JP2005363939 A JP 2005363939A JP 2007164725 A JP2007164725 A JP 2007164725A
Authority
JP
Japan
Prior art keywords
event
weight
data
voice data
search data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005363939A
Other languages
Japanese (ja)
Inventor
Mika Yoshida
美香 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xing Inc
Original Assignee
Xing Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xing Inc filed Critical Xing Inc
Priority to JP2005363939A priority Critical patent/JP2007164725A/en
Publication of JP2007164725A publication Critical patent/JP2007164725A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an event determination method, capable of easily determining an event only by inputting voice data through portable terminals by a plurality of users. <P>SOLUTION: The voice data processor 1 stores voice data transmitted from the plurality of users 0001-0003 in association with identification information of the users. The processor generates a plurality of search data based on the stored voice data. The processor determines weights of the voice data based on the generated search data, and extracts voice data corresponding to identification information the determined weight of which is a predetermined weight or more. The processor extracts and determines an event using the search data corresponding to the extracted voice data from an event database storing search data in association with events. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、受信した音声データを処理してイベントを決定するイベント決定方法、音声データ処理装置、イベント決定システム及びコンピュータを音声データ処理装置として機能させるためのコンピュータプログラムに関する。   The present invention relates to an event determination method, an audio data processing device, an event determination system, and a computer program for causing a computer to function as an audio data processing device.

近年、コミュニケーションツールとして携帯電話機等の携帯端末機が用いられている。ユーザは携帯端末機を用いて他のユーザと連絡し、今後行うイベント等を決定することができる。イベントを決定するにあたり、これを支援する行動プラン提供システムが知られている(例えば、特許文献1)。この行動プラン提供システムは、ユーザが時間、場所及び予算を入力し、センターはこの入力された時間、場所及び予算を考慮してユーザに行動プランを提供するものである。   In recent years, mobile terminals such as mobile phones have been used as communication tools. The user can use the mobile terminal to contact other users and determine an event or the like to be performed in the future. In determining an event, an action plan providing system for supporting the event is known (for example, Patent Document 1). In this action plan providing system, the user inputs time, place and budget, and the center provides the action plan to the user in consideration of the inputted time, place and budget.

また、特許文献2に開示されたエージェント装置は、自動車に設置され、車両に関する情報、時間及び場所等を取得して、観光地またはレストラン等の推薦を行う。また、音声認識に関する技術として特許文献3が知られている。
特開2003−6365号公報 特開2000−266551号公報 特開2003−44498号公報
In addition, the agent device disclosed in Patent Document 2 is installed in an automobile, acquires information about the vehicle, time, place, and the like, and recommends a sightseeing spot or a restaurant. Patent Document 3 is known as a technique related to speech recognition.
JP 2003-6365 A JP 2000-266551 A JP 2003-44498 A

しかしながら、特許文献1及び2に開示された技術はいずれも、時間、場所、及び予算等を機器に入力してその結果を得る必要があり、処理が煩雑になるという問題があった。特に、ユーザの数が多くなればなるほど、イベントの決定処理は複雑となることから、簡易な方法で複数のユーザの意志が反映されたイベント決定方法の作成が要請されていた。   However, the techniques disclosed in Patent Documents 1 and 2 both require time, place, budget, and the like to be input to the device to obtain the result, which has a problem of complicated processing. In particular, as the number of users increases, the event determination process becomes more complicated. Therefore, it has been requested to create an event determination method that reflects the intentions of a plurality of users by a simple method.

また、複数のユーザの意志を反映させてイベントを決定する場合、多数派のユーザの利便性を最も考慮する必要はあるが、少数派の利便性をも考慮してイベントを決定する必要がある。   Also, when determining an event that reflects the will of multiple users, it is necessary to consider the convenience of the majority user most, but it is necessary to determine the event also considering the convenience of the minority .

本発明は斯かる事情に鑑みてなされたものであり、複数のユーザから送信された音声データを解析して重み付け処理し、その結果に応じてイベントを決定することにより、複数のユーザが携帯端末機でそれぞれ音声データを入力するのみで、簡易にイベントを決定することが可能なイベント決定方法、音声データ処理装置、イベント決定システム及びコンピュータを音声データ処理装置として機能させるためのコンピュータプログラムを提供することにある。   The present invention has been made in view of such circumstances, and by analyzing and weighting audio data transmitted from a plurality of users and determining an event in accordance with the result, the plurality of users can make a portable terminal. Provided are an event determination method, an audio data processing device, an event determination system, and a computer program for causing a computer to function as an audio data processing device, which can easily determine an event simply by inputting audio data respectively on a machine There is.

本発明の他の目的は、ユーザの位置情報を取得し、この取得した位置情報を重み付けに考慮することにより、複数のユーザにとって利便性の高い地域に係るイベントを決定することが可能な音声データ処理装置等を提供することにある。   Another object of the present invention is to acquire user position information, and by considering the acquired position information in weighting, audio data capable of determining an event related to a region that is convenient for a plurality of users. It is to provide a processing apparatus and the like.

本発明の他の目的は、位置情報に基づいてイベントに対する優先順位を決定することにより、少数派のイベントへの参加を容易にすることが可能な音声データ処理装置等を提供することにある。   Another object of the present invention is to provide an audio data processing device and the like that can facilitate participation in a minority event by determining a priority order for the event based on position information.

本発明の他の目的は、決定したイベントをユーザの携帯端末機へ送信することにより、複数のユーザが決定されたイベントを容易に把握することが可能なイベント決定システムを提供することにある。   Another object of the present invention is to provide an event determination system capable of easily grasping an event determined by a plurality of users by transmitting the determined event to the user's portable terminal.

本発明の他の目的は、携帯端末機へ決定したイベントの状態を示す状態情報を送信することにより、イベントの実行を確実に行うことが可能なイベント決定システムを提供することにある。   Another object of the present invention is to provide an event determination system capable of reliably executing an event by transmitting state information indicating the determined event state to a portable terminal.

本発明に係るイベント決定方法は、受信した音声データを処理してイベントを決定するイベント決定方法において、複数のユーザから送信された音声データをユーザの識別情報に対応付けて識別情報記憶部に記憶するステップと、記憶した音声データに基づき、制御部により複数の検索データを生成する生成ステップと、生成した検索データに基づき、前記制御部により前記音声データの重みを決定する重み決定ステップと、所定の重み以上の識別情報に対応する音声データを前記制御部により抽出する抽出ステップと、イベントに対応付けて検索データを記憶したイベントデータベースから、前記抽出した音声データに対応する検索データを用いて、前記制御部によりイベントを決定するイベント決定ステップとを備えることを特徴とする。   The event determination method according to the present invention is an event determination method in which received audio data is processed to determine an event, and audio data transmitted from a plurality of users is stored in an identification information storage unit in association with user identification information. A step of generating a plurality of search data by the control unit based on the stored voice data, a weight determination step of determining a weight of the voice data by the control unit based on the generated search data, and a predetermined step Using the search step corresponding to the extracted voice data from the extraction step of extracting the voice data corresponding to the identification information equal to or greater than the weight by the control unit, and the event database storing the search data corresponding to the event, An event determination step of determining an event by the control unit

本発明に係る音声データ処理装置は、受信した音声データを処理する音声データ処理装置において、複数のユーザから送信された音声データをユーザの識別情報に対応付けて識別情報記憶部に記憶する手段と、記憶した音声データに基づき、複数の検索データを生成する生成手段と、生成した検索データに基づき前記音声データの重みを決定する重み決定手段と、所定の重み以上の識別情報に対応する音声データを抽出する抽出手段と、イベントに対応付けて検索データを記憶したイベントデータベースから、前記抽出した音声データに対応する検索データを用いてイベントを決定するイベント決定手段とを備えることを特徴とする。   The voice data processing device according to the present invention is a voice data processing device for processing received voice data, and stores voice data transmitted from a plurality of users in association with user identification information in an identification information storage unit. Generating means for generating a plurality of search data based on the stored voice data; weight determining means for determining the weight of the voice data based on the generated search data; and voice data corresponding to identification information greater than a predetermined weight And an event determining means for determining an event using search data corresponding to the extracted voice data from an event database storing search data in association with the event.

本発明に係る音声データ処理装置は、音声データを送信したユーザの位置情報を受信する手段と、受信した位置情報を前記識別情報及び音声データに対応付けて前記識別情報記憶部に記憶する手段とをさらに備え、前記重み決定手段は、前記生成手段により生成した検索データ及び前記記憶した位置情報に基づき前記音声データの重みを決定するよう構成してあることを特徴とする。   The voice data processing device according to the present invention includes means for receiving position information of a user who has transmitted voice data, means for storing the received position information in the identification information storage unit in association with the identification information and voice data, and The weight determination means is configured to determine the weight of the audio data based on the search data generated by the generation means and the stored position information.

本発明に係る音声データ処理装置は、前記イベントデータベースは、イベントに対応付けて検索データ及び位置情報が記憶されており、前記イベント決定手段により決定したイベントに対応する位置情報を前記イベントデータベースから読み出す手段と、該読み出した位置情報に基づき、前記イベント決定手段により決定したイベントの優先順位を決定する優先順位決定手段とをさらに備えることを特徴とする。   In the audio data processing device according to the present invention, the event database stores search data and position information in association with an event, and reads position information corresponding to the event determined by the event determination means from the event database. And a priority order determining means for determining the priority order of the event determined by the event determining means based on the read position information.

本発明に係る音声データ処理装置は、前記重み決定手段は、前記識別情報記憶部に記憶した音声データの音量レベル及び前記生成手段により生成した検索データに基づき前記音声データの重みを決定するよう構成してあることを特徴とする。   The audio data processing apparatus according to the present invention is configured such that the weight determining means determines the weight of the audio data based on the volume level of the audio data stored in the identification information storage unit and the search data generated by the generating means. It is characterized by being.

本発明に係る音声データ処理装置は、前記重み決定手段は、検索データに対応付けて重みを記憶した重みデータベースから、前記生成手段により生成した検索データに対応する重みを読み出し、該読み出した重み及び前記識別情報記憶部に記憶した音声データに基づき重みを決定するよう構成してあることを特徴とする。   In the audio data processing device according to the present invention, the weight determining means reads a weight corresponding to the search data generated by the generating means from a weight database storing weights in association with the search data, and the read weight and The weight is determined based on the voice data stored in the identification information storage unit.

本発明に係るイベント決定システムは、携帯端末機と該携帯端末機に通信網を介して接続される前述のいずれかの音声データ処理装置により構成されるイベント決定システムにおいて、前記イベント決定手段により決定したイベントを前記携帯端末機へ送信する手段を備えることを特徴とする。   The event determination system according to the present invention is an event determination system comprising a mobile terminal and any one of the above-described audio data processing devices connected to the mobile terminal via a communication network. And a means for transmitting the event to the portable terminal.

本発明に係るイベント決定システムは、携帯端末機と該携帯端末機に通信網を介して接続される前述の音声データ処理装置により構成されるイベント決定システムにおいて、前記イベント決定手段により決定したイベントを前記優先順位決定手段により決定したイベントの優先順位に従い並び替える手段と、該並び替えたイベントを前記携帯端末機へ送信する手段とを備えることを特徴とする。   The event determination system according to the present invention is an event determination system including the mobile terminal and the audio data processing apparatus connected to the mobile terminal via a communication network. And a means for rearranging according to the priority order of the event determined by the priority order determining means, and a means for transmitting the rearranged event to the portable terminal.

本発明に係るイベント決定システムは、前記イベントデータベースは、イベントの状態を示す状態情報を記憶しており、前記音声データ処理装置は前記イベント決定手段により決定したイベントに対応する状態情報を読み出して携帯端末機へ送信する手段をさらに備えることを特徴とする。   In the event determination system according to the present invention, the event database stores state information indicating an event state, and the audio data processing device reads out state information corresponding to the event determined by the event determination means and The apparatus further comprises means for transmitting to the terminal.

本発明に係るコンピュータプログラムは、コンピュータに、受信した音声データを処理させてイベントを決定させるコンピュータプログラムにおいて、コンピュータの制御部に、複数のユーザから送信された音声データをユーザの識別情報に対応付けて記憶した識別情報記憶部から音声データを読み出させ、該読み出させた音声データに基づき、複数の検索データを生成させる生成ステップと、コンピュータの制御部に、前記生成させた検索データに基づき、前記音声データの重みを決定させる重み決定ステップと、コンピュータの制御部に、所定の重み以上の識別情報に対応する音声データを抽出させる抽出ステップと、コンピュータの制御部に、イベントに対応付けて検索データを記憶したイベントデータベースから、前記抽出した音声データに対応する検索データを用いて、イベントを決定させるイベント決定ステップとを備えることを特徴とする。   The computer program according to the present invention is a computer program that causes a computer to process received audio data and determine an event, and associates audio data transmitted from a plurality of users with user identification information in a computer control unit. And generating a plurality of search data based on the read voice data, and generating a plurality of search data on the basis of the generated search data. A weight determination step for determining the weight of the voice data, an extraction step for causing the computer control unit to extract voice data corresponding to identification information having a predetermined weight or more, and a control unit for the computer in association with the event. The extracted voice from the event database storing the search data Using the search data corresponding to the over data, characterized by comprising an event determining step of determining an event.

本発明にあっては、音声データ処理装置は、複数のユーザから送信された音声データをユーザの識別情報に対応付けて識別情報記憶部に記憶する。記憶した音声データに基づき、音声データ処理装置は複数の検索データを生成する。そして、生成した検索データに基づき音声データの重みを決定する。この決定した重みが所定の重み以上の識別情報に対応する音声データを抽出する。最後に、イベントに対応付けて検索データを記憶したイベントデータベースから、抽出した音声データに対応する検索データを用いてイベントを決定する。つまり、音声データ及び音声データから生成される検索データを解析することにより、複数のユーザの音声データの重みを決定し、この重みに応じてイベントを決定するので、複数のユーザは単に音声データを入力するだけで、各ユーザの意志が反映されたイベントが決定される。   In the present invention, the voice data processing apparatus stores voice data transmitted from a plurality of users in the identification information storage unit in association with the user identification information. Based on the stored voice data, the voice data processing device generates a plurality of search data. Then, the weight of the voice data is determined based on the generated search data. The voice data corresponding to the identification information whose determined weight is equal to or greater than the predetermined weight is extracted. Finally, the event is determined using the search data corresponding to the extracted voice data from the event database storing the search data in association with the event. That is, by analyzing the voice data and the search data generated from the voice data, the weight of the voice data of the plurality of users is determined, and the event is determined according to this weight. An event that reflects the will of each user is determined simply by inputting.

本発明にあっては、音声データ処理装置は音声データを送信したユーザの位置情報を受信する。この受信した位置情報をユーザの識別情報及び音声データに対応付けて識別情報記憶部に記憶する。そして生成した検索データ及び記憶した位置情報に基づき音声データの重みを決定する。つまり、検索データに加えて、携帯端末機から得られるユーザの位置情報をも考慮してイベントを決定するようにしたので、複数のユーザの利便性の良いイベントを決定することが可能となる。   In the present invention, the audio data processing device receives the position information of the user who transmitted the audio data. The received position information is stored in the identification information storage unit in association with the user identification information and voice data. Then, the weight of the voice data is determined based on the generated search data and the stored position information. In other words, in addition to the search data, the event is determined in consideration of the user position information obtained from the mobile terminal, so it is possible to determine an event that is convenient for a plurality of users.

本発明にあっては、識別情報記憶部に記憶した音声データの音量レベル及び生成した検索データに基づき音声データの重みを決定するので、大声で意見を主張したユーザ等の意見がより反映されるようになり、よりきめ細かなイベント決定が可能となる。   In the present invention, since the weight of the voice data is determined based on the volume level of the voice data stored in the identification information storage unit and the generated search data, the opinion of the user who claimed the voice loudly is reflected more. As a result, more detailed event determination is possible.

本発明にあっては、検索データに対応付けて重みを記憶した重みデータベースから、生成した検索データに対応する重みを読み出す。つまり、音声データから生成される複数の検索データ毎に重みを付与しておき、該当する重みを読み出す。そして読み出した重み及び識別情報記憶部に記憶した音声データに基づき重みを決定するので、検索データに応じたきめ細かなイベント決定が可能となる。   In the present invention, the weight corresponding to the generated search data is read from the weight database that stores the weight in association with the search data. That is, a weight is assigned to each of a plurality of search data generated from voice data, and the corresponding weight is read out. Since the weight is determined based on the read weight and the voice data stored in the identification information storage unit, fine event determination according to the search data can be performed.

本発明にあっては、イベント決定システムは、複数の携帯端末機と各携帯端末機に通信網を介して接続される音声データ処理装置により構成される。決定したイベントは音声データ処理装置から各携帯端末機へ送信されるので、各ユーザは音声データを入力した携帯端末機を通じて容易にイベント決定の結果を知ることが可能となる。   In the present invention, the event determination system includes a plurality of portable terminals and an audio data processing apparatus connected to each portable terminal via a communication network. Since the determined event is transmitted from the voice data processing apparatus to each portable terminal, each user can easily know the result of the event determination through the portable terminal that has input the voice data.

本発明にあっては、イベントデータベースは、イベントに対応付けて検索データ及び位置情報を記憶している。イベントが決定した場合、決定したイベントに対応する位置情報をイベントデータベースから読み出す。そして、読み出した位置情報に基づき、決定したイベントの優先順位を決定し、イベントを優先順位に従い並び替える。その後、その並び替えたイベント順に結果を携帯端末機へ送信するので、位置情報を考慮したイベントが順に表示される。これにより、遠隔地にいるユーザの利便性をも考慮したイベントに係る情報が携帯端末機へ提供される。   In the present invention, the event database stores search data and position information in association with events. When the event is determined, position information corresponding to the determined event is read from the event database. Then, the priority order of the determined event is determined based on the read position information, and the event is rearranged according to the priority order. Thereafter, since the result is transmitted to the mobile terminal in the order of the rearranged events, the events considering the position information are displayed in order. As a result, information related to the event taking into account the convenience of the user in the remote location is provided to the portable terminal.

本発明にあっては、イベントデータベースは、イベントの状態を示す状態情報を記憶している。音声データ処理装置は決定したイベントに対応する状態情報を読み出して携帯端末機へ送信するので、イベントの状態を、イベント実行前にユーザは把握することができる。   In the present invention, the event database stores state information indicating the state of the event. Since the audio data processing device reads out the state information corresponding to the determined event and transmits it to the mobile terminal, the user can grasp the state of the event before executing the event.

本発明にあっては、音声データから生成される検索データを解析することにより、複数のユーザの音声データの重みを決定し、この重みに応じてイベントを決定するので、複数のユーザは単に音声データを入力するだけで、各ユーザの意志が反映されたイベントが決定される。   In the present invention, the weight of the voice data of a plurality of users is determined by analyzing the search data generated from the voice data, and the event is determined according to this weight. By simply inputting data, an event reflecting the will of each user is determined.

本発明にあっては、検索データに加えて、携帯端末機から得られるユーザの位置情報をも考慮してイベントを決定するようので、複数のユーザの利便性の良いイベントを決定することが可能となる。   In the present invention, events are determined in consideration of user location information obtained from the mobile terminal in addition to the search data, so it is possible to determine events that are convenient for multiple users. It becomes.

本発明にあっては、識別情報記憶部に記憶した音声データの音量レベル及び生成した検索データに基づき音声データの重みを決定するので、大声で意見を主張したユーザ等の意見がより反映されるようになり、よりきめ細かなイベント決定が可能となる。   In the present invention, since the weight of the voice data is determined based on the volume level of the voice data stored in the identification information storage unit and the generated search data, the opinion of the user who claimed the voice loudly is reflected more. As a result, more detailed event determination is possible.

本発明にあっては、音声データから生成される複数の検索データ毎に重みを付与しておき、該当する重みを読み出す。そして読み出した重み及び識別情報記憶部に記憶した音声データに基づき重みを決定するので、検索データに応じたきめ細かなイベント決定が可能となる。   In the present invention, a weight is assigned to each of a plurality of search data generated from voice data, and the corresponding weight is read out. Since the weight is determined based on the read weight and the voice data stored in the identification information storage unit, fine event determination according to the search data can be performed.

本発明にあっては、決定したイベントを音声データ処理装置から各携帯端末機へ送信するので、各ユーザは音声データを入力した携帯端末機を通じて容易にイベント決定の結果を知ることが可能となる。   In the present invention, since the determined event is transmitted from the voice data processing device to each portable terminal, each user can easily know the result of the event determination through the portable terminal that has input the voice data. .

本発明にあっては、決定したイベントの優先順位に従い並び替え、その並び替えたイベントを携帯端末機へ送信するので、位置情報を考慮したイベントが順に配置される。これにより、遠隔地にいるユーザの利便性をも考慮したイベントに係る情報が携帯端末機へ提供される。   In the present invention, the rearranged events are rearranged according to the priority order of the determined events, and the rearranged events are transmitted to the mobile terminal, so that the events considering the position information are arranged in order. As a result, information related to the event taking into account the convenience of the user in the remote location is provided to the portable terminal.

本発明にあっては、イベントデータベースは、イベントの状態を示す状態情報を記憶している。音声データ処理装置は決定したイベントに対応する状態情報を読み出して携帯端末機へ送信するので、イベントの状態を、イベント実行前にユーザは把握することができる。また、状態に応じてイベントの確定または中止を実行することができ、より確実に複数ユーザ間でのイベントの運営が容易となる等、本発明は優れた効果を奏する。   In the present invention, the event database stores state information indicating the state of the event. Since the audio data processing device reads out the state information corresponding to the determined event and transmits it to the mobile terminal, the user can grasp the state of the event before executing the event. In addition, the present invention has an excellent effect that the event can be confirmed or stopped depending on the state, and the event can be easily managed among a plurality of users.

実施の形態1
図1は本発明に係るイベント決定システムの概要を示す模式図である。図1においてSはイベント決定システムであり、音声データ処理装置1、携帯端末機2,2,2及び通信網を含んで構成される。本実施の形態においては決定するイベントとして、レストランの決定であるものとして説明する。以下ではイベント決定システムSをレストラン決定システムSと読み替えて説明する。なお、イベントの決定は各ユーザが希望するレストランの決定に限るものではなく、各ユーザが希望するスポーツ(サッカー、テニスまたはゴルフ)の決定、または各ユーザが希望する目的地(観光先、宿泊先等)の決定等であっても良い。
Embodiment 1
FIG. 1 is a schematic diagram showing an outline of an event determination system according to the present invention. In FIG. 1, S is an event determination system, which includes an audio data processing device 1, portable terminals 2, 2, 2 and a communication network. In the present embodiment, it is assumed that the event to be determined is a restaurant determination. Hereinafter, the event determination system S will be described as the restaurant determination system S. The determination of the event is not limited to the determination of the restaurant desired by each user, but the determination of the sport (soccer, tennis or golf) desired by each user, or the destination desired by each user (tourist destination, accommodation) Etc.).

図1において1は音声データ処理装置であり、例えばサーバコンピュータが用いられる。以下では音声データ処理装置1をサーバコンピュータ1であるものとして説明する。サーバコンピュータ1にはインターネットまたは携帯電話網から構成される通信網Nを介して携帯端末機2,2,2が無線により通信可能に接続されている。携帯端末機2は携帯電話機、PDA(Personal Digital Assistance)、またはゲーム機等が用いられる。以下では携帯端末機2を携帯電話機2であるものとして説明する。複数のユーザは携帯電話機2を用いて、レストランを決定するにあたり、現在の気分を音声入力する。携帯電話機2から入力された音声データはサーバコンピュータ1へ送信される。なお、本実施の形態においては各ユーザが各々の携帯電話機2を用いて音声を入力する形態につき説明するが、一の携帯電話機2に複数のユーザが音声を別々に入力するようにしても良い。   In FIG. 1, reference numeral 1 denotes an audio data processing apparatus, for example, a server computer. In the following description, it is assumed that the audio data processing device 1 is the server computer 1. Mobile terminals 2, 2, and 2 are connected to the server computer 1 through a communication network N composed of the Internet or a mobile phone network so that they can communicate wirelessly. The mobile terminal 2 is a mobile phone, a PDA (Personal Digital Assistance), a game machine, or the like. In the following description, it is assumed that the mobile terminal 2 is the mobile phone 2. A plurality of users use the mobile phone 2 to input the current mood by voice when determining a restaurant. Audio data input from the mobile phone 2 is transmitted to the server computer 1. In this embodiment, each user inputs a voice using each mobile phone 2. However, a plurality of users may input voices to one mobile phone 2 separately. .

携帯電話機2はGPS(Global Positioning System)機能による位置情報または基地局に係る位置情報をサーバコンピュータ1へ送信する。本実施例ではユーザ0001及びユーザ0002が同じエリアにおいて通信を行い、ユーザ0003が異なるエリアで通信を開始している例を示す。サーバコンピュータ1はこれらの送信された音声データ及び位置情報を用いて後述する処理により最適なレストランを決定し、決定したレストランの情報を携帯電話機2へ送信する。   The mobile phone 2 transmits position information based on a GPS (Global Positioning System) function or position information related to the base station to the server computer 1. In this embodiment, an example is shown in which a user 0001 and a user 0002 communicate in the same area, and a user 0003 starts communication in different areas. The server computer 1 determines the optimum restaurant by the process described later using the transmitted audio data and position information, and transmits the determined restaurant information to the mobile phone 2.

図2はサーバコンピュータ1のハードウェア構成を示すブロック図である。サーバコンピュータ1は、制御部としてのCPU(Central Processing Unit)11,RAM(Random Access Memory)12、入力部13、表示部14、通信部16及び記憶部15を含んで構成される。CPU11は、バス17を介してサーバコンピュータ1のハードウェア各部と接続されていて、それらを制御すると共に、記憶部15に格納された制御プログラムに従って、種々のソフトウェア的機能を実行する。制御プログラムは、C言語等のプログラミング言語で記述されている。   FIG. 2 is a block diagram showing a hardware configuration of the server computer 1. The server computer 1 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, an input unit 13, a display unit 14, a communication unit 16, and a storage unit 15 as control units. The CPU 11 is connected to each hardware unit of the server computer 1 via the bus 17 and controls them, and executes various software functions according to a control program stored in the storage unit 15. The control program is described in a programming language such as C language.

表示部14は例えば液晶ディスプレイ等であり、入力部13はキーボード及びマウス等から構成される。通信部16はモデムまたはLANカード等であり、携帯電話機2との間で情報を送受信する。記憶部15は例えばハードディスクで構成され、内部には上述した制御プログラム、識別情報記憶部151、レストランデータベース152(イベントデータベース152)及び重みデータベース153が記憶されている。なお、識別情報記憶部151、レストランデータベース152及び重みデータベース153の詳細については後述する。なお、記憶部15に記憶されている識別情報記憶部151、レストランデータベース152及び重みデータベース153は必ずしもサーバコンピュータ1内に設ける必要はなく図示しないデータベースコンピュータに記憶するようにしても良い。   The display unit 14 is, for example, a liquid crystal display, and the input unit 13 includes a keyboard and a mouse. The communication unit 16 is a modem or a LAN card and transmits / receives information to / from the mobile phone 2. The storage unit 15 is constituted by, for example, a hard disk, and stores therein the above-described control program, the identification information storage unit 151, the restaurant database 152 (event database 152), and the weight database 153. Details of the identification information storage unit 151, the restaurant database 152, and the weight database 153 will be described later. The identification information storage unit 151, the restaurant database 152, and the weight database 153 stored in the storage unit 15 are not necessarily provided in the server computer 1 and may be stored in a database computer (not shown).

図3は携帯電話機2のハードウェア構成を示すブロック図である。携帯電話機2は、制御部としてのCPU21,RAM22、入力部23、表示部24、通信部26、マイク28、スピーカ29、GPS受信機210及び記憶部25を含んで構成される。CPU21は、バス27を介して携帯電話機2のハードウェア各部と接続されていて、それらを制御すると共に、記憶部25に格納された制御プログラムに従って、種々のソフトウェア的機能を実行する。   FIG. 3 is a block diagram showing a hardware configuration of the mobile phone 2. The cellular phone 2 includes a CPU 21, a RAM 22, an input unit 23, a display unit 24, a communication unit 26, a microphone 28, a speaker 29, a GPS receiver 210, and a storage unit 25 as control units. The CPU 21 is connected to the hardware units of the mobile phone 2 via the bus 27, controls them, and executes various software functions according to the control program stored in the storage unit 25.

表示部24は例えば液晶ディスプレイ等であり、入力部23はプッシュボタン等により構成される。なお、タッチパネルのように表示部24と入力部23とを一体的に構成するようにしても良い。スピーカ29は音声データを出力する。マイク28はユーザから入力された音声信号を電気信号へ変換する。変換後の電気信号は図示しないA/D変換器によりデジタルデータへ変換されてCPU21へ出力される。通信部26は高周波送受信部及びアンテナ等を備え、音声データ及び文字データ等を含む各種データの送受信を行う。GPS受信機210はGPS衛星から送信される現在地の座標値等の位置情報を受信する。   The display unit 24 is, for example, a liquid crystal display, and the input unit 23 is configured by a push button or the like. In addition, you may make it comprise the display part 24 and the input part 23 integrally like a touchscreen. The speaker 29 outputs audio data. The microphone 28 converts an audio signal input from the user into an electric signal. The converted electrical signal is converted into digital data by an A / D converter (not shown) and output to the CPU 21. The communication unit 26 includes a high-frequency transmission / reception unit, an antenna, and the like, and performs transmission / reception of various data including voice data and character data. The GPS receiver 210 receives position information such as a coordinate value of the current location transmitted from a GPS satellite.

図4は識別情報記憶部151のレコードレイアウトを示す説明図である。携帯電話機2とサーバコンピュータ1との間で通信が確立した場合、送受信されるデータ及び音声データが識別情報記憶部151に記憶される。識別情報記憶部151はグループIDフィールド、ユーザIDフィールド、メールアドレスフィールド、音声データフィールド、検索データフィールド、音量レベルフィールド、座標フィールド及びエリアフィールドを含む位置情報フィールド並びに重みフィールドを含んで構成される。グループIDフィールドには、複数のユーザからなるグループを特定するための識別情報が記憶されており、グループ毎に特定の番号が付与される。またユーザIDフィールドには、音声を入力するユーザを特定するための識別情報(以下、ユーザIDという)が、ユーザ毎に記憶されている。本実施例においては、グループID「1」にはユーザID「0001」、「0002」及び「0003」のユーザがレストラン決定のためレストラン決定システムSに参加している。   FIG. 4 is an explanatory diagram showing a record layout of the identification information storage unit 151. When communication is established between the mobile phone 2 and the server computer 1, transmitted / received data and audio data are stored in the identification information storage unit 151. The identification information storage unit 151 includes a group ID field, a user ID field, a mail address field, a voice data field, a search data field, a volume level field, a position information field including a coordinate field and an area field, and a weight field. The group ID field stores identification information for specifying a group of a plurality of users, and a specific number is assigned to each group. In the user ID field, identification information (hereinafter referred to as a user ID) for specifying a user who inputs voice is stored for each user. In the present embodiment, the user IDs “0001”, “0002”, and “0003” belong to the group ID “1” participate in the restaurant determination system S for restaurant determination.

図5は携帯電話機2の表示部24に表示される画面のイメージを示す説明図である。ユーザはレストラン決定システムSに参加する場合、携帯電話機2の入力部23を操作して、サーバコンピュータ1との通信を確立し、イベント決定システムSに係るトップページにアクセスする。図5(a)はトップページのイメージを示す説明図である。図5(a)の画面は、サーバコンピュータ1の記憶部15に、URL(Uniform Resource Locator)に対応づけられて記憶されており、携帯電話機2のリクエストに従い、cHTML(Compact Hyper Text Markup Language)形式等で携帯電話機2に送信される。携帯電話機2のCPU21は送信された画面を表示部24へ表示する。   FIG. 5 is an explanatory diagram showing an image of a screen displayed on the display unit 24 of the mobile phone 2. When the user participates in the restaurant determination system S, the user operates the input unit 23 of the mobile phone 2 to establish communication with the server computer 1 and accesses the top page related to the event determination system S. FIG. 5A is an explanatory diagram showing an image of the top page. The screen of FIG. 5A is stored in the storage unit 15 of the server computer 1 in association with a URL (Uniform Resource Locator), and is in cHTML (Compact Hyper Text Markup Language) format according to a request from the mobile phone 2. Or the like is transmitted to the mobile phone 2. The CPU 21 of the mobile phone 2 displays the transmitted screen on the display unit 24.

図5(a)に示すように、トップページではユーザID及びパスワードを入力する画面が表示される。本実施の形態においては、レストラン決定システムSは会員制としており、予め、ユーザID、パスワード、グループID及びメールアドレス等が対応づけられて記憶部15の識別情報記憶部151に記憶されている。ユーザはユーザID及びパスワードを入力し、レストラン決定システムSへログインする。サーバコンピュータ1のCPU11は送信されたユーザID及びパスワードに基づき認証を行う。なお、図2の識別情報記憶部151にはパスワードを図示していないが、ユーザIDに対応づけて各ユーザのパスワードが記憶されている。   As shown in FIG. 5A, a screen for inputting a user ID and a password is displayed on the top page. In the present embodiment, the restaurant determination system S is a membership system, and a user ID, a password, a group ID, a mail address, and the like are associated with each other and stored in advance in the identification information storage unit 151 of the storage unit 15. The user inputs the user ID and password and logs in to the restaurant determination system S. The CPU 11 of the server computer 1 performs authentication based on the transmitted user ID and password. In addition, although the password is not illustrated in the identification information storage unit 151 of FIG. 2, the password of each user is stored in association with the user ID.

CPU11は送信されたユーザIDをもとに、識別情報記憶部151を検索し、そのユーザが属するグループID及びメールアドレスを読み出す。そして読み出したグループID及びメールアドレス並びにユーザIDを記述したcHTML文書を作成して携帯電話機2へ送信する。携帯電話機2のCPU21は、送信されたcHTMLを図5(b)の如く表示する。図5(b)には、グループID「1」、ユーザID「0001」及びメールアドレス「0001@XYX.com」等のユーザ0001を特定するための情報が表示される。このグループには、他にユーザ0002及びユーザ0003が存在し、同様に携帯電話機2からログインすることにより、レストラン決定システムSに参加することができる。   The CPU 11 searches the identification information storage unit 151 based on the transmitted user ID, and reads the group ID and mail address to which the user belongs. Then, a cHTML document in which the read group ID, mail address, and user ID are described is created and transmitted to the mobile phone 2. The CPU 21 of the mobile phone 2 displays the transmitted cHTML as shown in FIG. In FIG. 5B, information for specifying the user 0001 such as the group ID “1”, the user ID “0001”, and the mail address “0001@XYX.com” is displayed. In this group, there are a user 0002 and a user 0003. Similarly, by logging in from the mobile phone 2, the user can participate in the restaurant determination system S.

図5(b)に示すように、表示部24には、「ようこそ、音声入力開始をクリックして今の気持ちをしゃべって下さい。」とする音声入力を促す文字が表示され、ユーザは入力部23を操作して音声入力開始ボタン51をクリックする。携帯電話機2のCPU21は音声入力の開始信号を入力部23から受け付けた場合、マイク28から集音を開始する。マイク28から入力された音声は電気信号に変換され、増幅された後図示しないA/D変換器を経て、デジタル化された音声データとしてCPU21へ出力される。CPU21は出力された音声データをサーバコンピュータ1へ送信する。ユーザは入力部23を適宜操作して集音を停止する。   As shown in FIG. 5 (b), the display unit 24 displays characters prompting voice input such as "Welcome, click on voice input start and talk about your present feeling." 23 is clicked and the voice input start button 51 is clicked. When receiving a voice input start signal from the input unit 23, the CPU 21 of the mobile phone 2 starts collecting sound from the microphone 28. The sound input from the microphone 28 is converted into an electric signal, amplified, and then output to the CPU 21 as digitized sound data through an A / D converter (not shown). The CPU 21 transmits the output audio data to the server computer 1. The user appropriately operates the input unit 23 to stop sound collection.

図4の音声データフィールドには、携帯電話機2から送信された音声データが、ユーザIDに対応づけて記憶されている。サーバコンピュータ1のCPU11は、送信された音声データをユーザIDに対応づけて記憶する。ユーザ0001は「甘いものは嫌!」と音声を入力し、ユーザ0002は「静かな店がいいかな」と音声を入力し、ユーザ0003は「和食がいい」と音声をそれぞれ入力した。メールアドレスフィールドには各ユーザIDに対応させて各ユーザのメールアドレスが記憶されている。   In the audio data field of FIG. 4, audio data transmitted from the mobile phone 2 is stored in association with the user ID. The CPU 11 of the server computer 1 stores the transmitted voice data in association with the user ID. The user 0001 inputs a voice saying “I don't like sweet food!”, The user 0002 inputs a voice saying “I want a quiet shop”, and the user 0003 inputs a voice saying “Japanese food is good”. In the mail address field, the mail address of each user is stored in association with each user ID.

検索データフィールドには、音声データから生成される複数の検索データが、ユーザIDに対応づけて記憶されている。CPU11は、検索データの生成のため以下の処理を行う。すなわち、音声データを受信したCPU11は、音声認識プログラムを起動し、音声データをテキストデータへ変換する。そして後述する重みデータベース153(図7参照)に記憶された検索データと比較を行い、一致する検索データが存在する場合、そのテキストデータから、それぞれの検索データを生成する。例えば音声データ「甘いものは嫌!」である場合、テキストデータ「甘いものは嫌」へ変換され、その後、重みデータベース153に存在する「甘い」「もの」及び「嫌」とのマッチングにより、「甘い」「もの」及び「嫌」からなる複数の検索データが抽出される。なお、音声認識処理に関しては特許文献3に記述されている。   In the search data field, a plurality of search data generated from the voice data is stored in association with the user ID. The CPU 11 performs the following processing to generate search data. In other words, the CPU 11 that has received the voice data activates a voice recognition program and converts the voice data into text data. Then, comparison is made with search data stored in a weight database 153 (see FIG. 7), which will be described later, and when there is matching search data, each search data is generated from the text data. For example, in the case of voice data “I don't like sweet things!”, The text data is converted to “I do n’t like sweet things”, and after matching with “sweet”, “things” and “dislikes” existing in the weight database 153, “ A plurality of search data consisting of “sweet”, “thing” and “dislike” are extracted. The voice recognition process is described in Patent Document 3.

音量レベルフィールドには各検索データに対応する音量レベルが記憶されている。CPU21は各検索データに対応する音声データの音量レベルを計測し、検索データに対応させて音量レベルフィールドに記憶する。本例では「甘い」が音量レベル「1.0」、「もの」も同じく音量レベル「1.0」、「嫌」が音量レベル「1.5」となっている。音量レベルは数値が高い程レベルが高いことを示す。なお、本実施の形態においては音声データの音量レベルの強弱を計測することにしているが、これに限るものではなく、例えば、音声データを高速フーリエ変換等により周波数解析し、音声の強弱を計測するようにしても良い。   A volume level corresponding to each search data is stored in the volume level field. The CPU 21 measures the volume level of the audio data corresponding to each search data and stores it in the volume level field corresponding to the search data. In this example, “sweet” has a volume level “1.0”, “mono” has a volume level “1.0”, and “dislike” has a volume level “1.5”. The higher the numerical value, the higher the level. In this embodiment, the volume level of audio data is measured. However, the present invention is not limited to this. For example, the frequency of audio data is analyzed by fast Fourier transform or the like to measure the intensity of audio. You may make it do.

位置情報フィールドはユーザが通信を行っている位置に関する情報が記憶されており、本実施の形態においては地図上の2次元座標値を示す座標フィールド、及び、座標値近辺のエリアを示すエリアフィールドから構成される。携帯電話機2のGPS受信機210は受信した座標のデータをCPU21へ出力し、CPU21は図4において説明したレストラン決定システムSの開始に伴い、座標のデータをサーバコンピュータ1へ送信する。サーバコンピュータ1のCPU11はこの送信された座標のデータを座標フィールドに記憶する。例えば、ユーザ0001の座標は(Xa−1、Yb−1)となる。なお、GPS機能を有さない携帯電話機2の場合は、レストラン決定システムSへのログイン時に使用している電波基地局の座標のデータをかわりに活用すればよい。   The position information field stores information related to the position at which the user is communicating. In this embodiment, the position information field includes a coordinate field indicating a two-dimensional coordinate value on the map and an area field indicating an area near the coordinate value. Composed. The GPS receiver 210 of the mobile phone 2 outputs the received coordinate data to the CPU 21, and the CPU 21 transmits the coordinate data to the server computer 1 with the start of the restaurant determination system S described with reference to FIG. The CPU 11 of the server computer 1 stores the transmitted coordinate data in the coordinate field. For example, the coordinates of the user 0001 are (Xa-1, Yb-1). In the case of the mobile phone 2 having no GPS function, the coordinate data of the radio base station used at the time of logging in to the restaurant determination system S may be used instead.

CPU11は記憶部15に図示しない地図データベースを有している。この地図データベースは座標のデータに対応づけて最寄り駅、高速道路出口、最寄りのビル等のエリアデータが記憶されている。CPU11は座標のデータを基に地図データベースを検索し、対応するエリアデータを読み出して、エリアフィールドに記憶する。本実施例においては、ユーザ0001及びユーザ0002は同じエリア「JR渋谷駅」に位置していると判断され、ユーザ0003は、一人離れたエリア「地下鉄新橋駅」に位置していると判断される。   The CPU 11 has a map database (not shown) in the storage unit 15. This map database stores area data such as the nearest station, expressway exit, and nearest building in association with the coordinate data. The CPU 11 searches the map database based on the coordinate data, reads the corresponding area data, and stores it in the area field. In this embodiment, it is determined that the user 0001 and the user 0002 are located in the same area “JR Shibuya Station”, and the user 0003 is determined to be located in the area “Subway Shimbashi Station” that is one person apart. .

重みフィールドには音声データ及び検索データ、さらには位置情報を考慮して各ユーザの入力した音声に対する重みが決定される。この重み決定処理の手順については後述する。決定された重みは、ユーザIDに対応づけて記憶され、例えばユーザ0001の重みは8.2と記憶されており、ユーザ0002の重みは7.2と記憶されており、ユーザ0003の重みは4.3と記憶されている。   In the weight field, the weight for the voice input by each user is determined in consideration of the voice data, the search data, and the position information. The procedure of the weight determination process will be described later. The determined weight is stored in association with the user ID. For example, the weight of the user 0001 is stored as 8.2, the weight of the user 0002 is stored as 7.2, and the weight of the user 0003 is 4 .3 is stored.

図6はレストランデータベース152のレコードレイアウトを示す説明図である。レストランデータベース152はレストランフィールド、ジャンルフィールド及び形容詞フィールドを含む検索データフィールド、座標フィールド、エリアフィールド及びアクセスフィールドを含む位置情報フィールド、並びに状態情報フィールドを含んで構成される。これらの各種情報は各レストランから提供される情報をもとに作成され、情報の入力はオペレータが入力部13から行うほか、図示しないコンピュータから送信される情報を通信部16から受信してCPU11の指示により記憶部15のレストランデータベース152に書き込むようにしても良い。   FIG. 6 is an explanatory diagram showing a record layout of the restaurant database 152. The restaurant database 152 includes a search data field including a restaurant field, a genre field, and an adjective field, a position information field including a coordinate field, an area field, and an access field, and a state information field. These various types of information are created based on information provided by each restaurant, and the operator inputs information from the input unit 13 or receives information transmitted from a computer (not shown) from the communication unit 16 and receives information from the CPU 11. You may make it write in the restaurant database 152 of the memory | storage part 15 by instruction | indication.

レストランフィールドには、ユーザが選択することが可能なレストラン名が記憶されている。検索データフィールドには、レストランを検索する場合に用いる検索データが記憶されており、本実施の形態においてはレストランのジャンル及び形容詞を検索データとしている。例えば、ジャンルフィールドにはレストランのジャンル「和食」、「アジア」、「アイスクリーム」等が記憶されており、形容詞フィールドにはレストランの特徴である形容詞「辛い」、「高い、さっぱり」、「甘い、冷たい」等が記憶されている。これらの検索データは説明を簡略化するためにこれらに例示をとどめているが、この他、禁煙席の有無、タイプ(ファミリー向け、カップル向け、宴会向け等)、予算(3000円まで、5000円まで等)等の様々なレストランを検索するためのデータを用いて良い。   In the restaurant field, restaurant names that can be selected by the user are stored. In the search data field, search data used when searching for a restaurant is stored, and in this embodiment, the genre and adjective of the restaurant are used as search data. For example, the genre field stores restaurant genres such as “Japanese food”, “Asia”, “ice cream”, etc., and the adjective field has the adjectives “spicy”, “high, refreshing”, “sweet” "Cold" is stored. These search data are only given as examples to simplify the explanation, but in addition, the presence / absence of non-smoking seats, type (for families, couples, banquets, etc.), budget (up to 3000 yen, 5000 yen) The data for searching various restaurants such as up to etc. may be used.

位置情報フィールドにはレストランの所在地を示す情報が記憶されており、本実施の形態においては、レストランの位置を、座標、エリア及びアクセスの情報により特定している。座標フィールドには、レストランの2次元地図上の座標値が記憶されており、図4において説明した座標フィールドと座標軸中心を同じくするものである。エリアフィールドにはレストランが位置するエリアの情報を記憶しており、最寄りの駅及び路線、目印となるポイント(ホテル、著名な建築物、観光地点、各種施設)、高速道路インターチェンジ名等が記憶されている。アクセスフィールドには、エリアフィールドに記憶されたエリアからの所要時間が記憶されている。例えば「激辛カレー屋」は「JR渋谷駅」から1分のところに位置している。   Information indicating the location of the restaurant is stored in the position information field, and in the present embodiment, the position of the restaurant is specified by coordinates, area, and access information. In the coordinate field, coordinate values on a two-dimensional map of the restaurant are stored, and the coordinate field and the coordinate axis center described in FIG. 4 are the same. Information on the area where the restaurant is located is stored in the area field, and the nearest station and line, landmark points (hotels, famous buildings, sightseeing spots, various facilities), expressway interchange names, etc. are stored. ing. The access field stores the required time from the area stored in the area field. For example, “Spicy Curry Shop” is located 1 minute from “JR Shibuya Station”.

状態情報フィールドにはレストランが利用可能であるか否かの情報が記憶されている。本実施の形態においては、○印は、検索当日において該当するレストランが予約可能であること、または営業日であることを示し、×印は検索当日において、該当するレストランが満員により予約不可能または定休日等により利用不可能であることを示している。この状態情報は、レストランからの連絡を受けてオペレータが入力部13からレストランデータベース152に記憶するようにしても良いし、レストランの予約状況及び開店状況を管理する図示しないコンピュータから、サーバコンピュータ1へ状態情報を送信し、レストランデータベース152に逐次記憶するようにしても良い。なお、本実施の形態においては、日毎の状態情報を示しているが、時間毎(18時〜19時の状態、19時〜20時の状態等)にきめ細かく状態情報を管理するようにしても良く、さらに検索当日だけではなく、複数日にわたってレストランの状態情報を管理するようにしても良い。   Information on whether or not the restaurant is available is stored in the state information field. In the present embodiment, a circle indicates that the corresponding restaurant can be reserved on the search day, or a business day, and a cross indicates that the corresponding restaurant cannot be reserved due to fullness on the search day. It indicates that it cannot be used due to regular holidays. The state information may be stored in the restaurant database 152 by the operator from the input unit 13 upon receiving a notification from the restaurant, or from the computer (not shown) that manages the restaurant reservation status and the store opening status to the server computer 1. The status information may be transmitted and sequentially stored in the restaurant database 152. In the present embodiment, the status information for each day is shown, but the status information may be managed finely every hour (from 18:00 to 19:00, from 19:00 to 20:00, etc.). It is also possible to manage the restaurant status information over a plurality of days, not just on the search day.

図7は重みデータベース153のレコードレイアウトを示す説明図である。重みデータベース153は検索データフィールド、分類フィールド、条件フィールド及び重みフィールドを含んで構成される。検索データフィールドには、ユーザから入力された音声データにかかる検索データを検出するための用語集である検索データが記憶されている。例えば、「うるさい」、「あかるい」、「店」、「食べる」、「おいしい」等が記憶されている。なお、図7に示す検索データは一例であり、この他に検索データを用意しても良い。分類フィールドには検索データに対応づけて品詞等の検索データの分類が記憶されている。例えば、検索データ「うるさい」には分類「形容詞」が、検索データ「お茶」には分類「名詞」が、検索データ「嫌」には分類「主張」がそれぞれ記憶されている。   FIG. 7 is an explanatory diagram showing a record layout of the weight database 153. The weight database 153 includes a search data field, a classification field, a condition field, and a weight field. The search data field stores search data that is a glossary for detecting search data related to voice data input by the user. For example, “noisy”, “red light”, “store”, “eat”, “delicious”, etc. are stored. Note that the search data shown in FIG. 7 is an example, and other search data may be prepared. The classification field stores the classification of search data such as parts of speech in association with the search data. For example, a classification “adjective” is stored in the search data “noisy”, a classification “noun” is stored in the search data “tea”, and a classification “claim” is stored in the search data “dislike”.

条件フィールドには、検索データに対応づけて、検索条件が記憶されている。例えば、検索データ「嫌」には条件「前後の形容詞または名詞の反対語を抽出」と記憶されている。本実施の形態においては、例示として、分類「主張」に属する特定の用語に「条件」を設定している。これは、例えば「嫌」、「駄目」等の主張を意図する用語は「いい」、「かな」等の主張を意図する用語に対して、否定を意味することから、条件として「前後の形容詞または名詞の反対語を抽出」を設定している。例をあげると、ユーザ0001が「甘いものは嫌」と発声した場合、検索データ「甘い」「もの」「嫌」が生成され、「嫌」の前に存在する形容詞「甘い」及び名詞「もの」の反対語「辛い」が、図示しない辞書データベースから抽出される。「もの」の反対語は存在しないと判断され、ユーザ0001は「辛い」「もの」を希望していると判断される。また重みフィールドには、所定の検索データに対応させて重みが記憶されている。例えば検索データ「嫌」は重み「4」、検索データ「かな」は重み「2」と記憶されている。   In the condition field, search conditions are stored in association with the search data. For example, the search data “dislike” stores the condition “extract previous and next adjectives or antonyms of nouns”. In the present embodiment, as an example, “condition” is set for a specific term belonging to the classification “claim”. This is because, for example, a term intended to claim "dislike", "no use", etc. means denial of a term intended to claim "good", "kana", etc. Or, "Extract nouns for nouns" is set. For example, if the user 0001 utters "I don't like sweet things", search data "sweet", "things", and "dislike" are generated, and the adjective "sweet" and the noun "things" that exist before "dislike" Is extracted from a dictionary database (not shown). It is determined that an antonym of “thing” does not exist, and it is determined that the user 0001 desires “spicy” “thing”. The weight field stores a weight corresponding to predetermined search data. For example, search data “dislike” is stored as weight “4”, and search data “kana” is stored as weight “2”.

図8は検索データの生成及び重み決定処理の手順を説明する説明図である。ユーザがマイク28を通じて音声データ「甘いものは嫌」と入力した場合、この音声データはサーバコンピュータ1により受信され、CPU11は、この音声データ「甘いものは嫌」から検索データを生成する。CPU11は音声データを音声認識ソフトウェアにより「甘い」「もの」「は」「嫌」を認識しテキストデータとする。そしてこのテキストデータ「甘い」、「もの」、「は」、「嫌」を基に、重みデータベース153の検索データフィールドを検索し、検索データ「甘い」、「もの」及び、「嫌」を抽出し、検索データの生成を終了する。CPU11は生成した検索データを、ユーザIDに対応付けて識別情報記憶部151の検索データフィールドに記憶する。   FIG. 8 is an explanatory diagram for explaining the procedure of search data generation and weight determination processing. When the user inputs voice data “I don't like sweet things” through the microphone 28, the voice data is received by the server computer 1, and the CPU 11 generates search data from the voice data “I don't like sweet things”. The CPU 11 recognizes “sweet”, “thing”, “ha”, and “dislike” by using voice recognition software, and converts it into text data. Based on the text data “sweet”, “thing”, “ha”, “dislike”, the search data field of the weight database 153 is searched, and the search data “sweet”, “thing”, and “dislike” are extracted. Then, the generation of the search data is finished. The CPU 11 stores the generated search data in the search data field of the identification information storage unit 151 in association with the user ID.

続いて、CPU11は生成した検索データをもとに、対応する重みを重みデータベース153から抽出する。本例では、検索データ「嫌」に対応する重み「4」が抽出される。CPU11は音量レベルを考慮して重みを算出すべく、この抽出した検索データに係る重みに、識別情報記憶部151を参照して音量レベルを乗じる。本例では「嫌」の重み4に「嫌」の音量レベル「1.5」を乗じて重み「6.0」を得る。同様に、音声データ「静かな店がいいかな」について、CPU11は、重みデータベース153を参照し、検索データ「静か」、「店」、「いい」、「かな」を生成し、対応する検索データの重み、「いい」に関し「3」及び「かな」に関し「2」を得る。CPU11は識別情報記憶部151の音量レベルフィールドに記憶した音量レベルを参照して、「いい」に関する「3×1.0」と「かな」に関する「2×1.1」とを加算して、重み5.2を得る。   Subsequently, the CPU 11 extracts the corresponding weight from the weight database 153 based on the generated search data. In this example, the weight “4” corresponding to the search data “dislike” is extracted. The CPU 11 multiplies the weight related to the extracted search data by the volume level with reference to the identification information storage unit 151 in order to calculate the weight in consideration of the volume level. In this example, the weight “6.0” is obtained by multiplying the weight level “1.5” of “dislike” by the weight 4 of “dislike”. Similarly, the CPU 11 refers to the weight database 153 for the voice data “Is quiet store good?”, Generates search data “quiet”, “store”, “good”, “kana”, and corresponding search data. , “3” for “good” and “2” for “kana”. The CPU 11 refers to the volume level stored in the volume level field of the identification information storage unit 151 and adds “3 × 1.0” related to “good” and “2 × 1.1” related to “kana”. A weight of 5.2 is obtained.

音声データの例「和食がいい」については、検索データ「和食」及び「いい」が生成され、検索データ「いい」の重み「3」に音量レベル1.1を乗じて重み「3.3」を得る。このように、検索データ及びユーザが発した音声データに係る音量レベルに基づき、重みを算出することができ、ユーザ0001の重みは「6.0」、ユーザ0002の重みは「5.2」及びユーザ0003の重みは「3.3」となる。   For the audio data example “Japanese food is good”, search data “Japanese food” and “good” are generated, and the weight “3.3” is obtained by multiplying the weight “3” of the search data “good” by the volume level 1.1. Get. In this way, the weight can be calculated based on the volume level of the search data and the voice data generated by the user, the weight of the user 0001 is “6.0”, the weight of the user 0002 is “5.2”, and The weight of the user 0003 is “3.3”.

続いて、位置情報を考慮した重み算出処理について説明する。本実施例においては、多数のユーザが存在するエリアの重みが大きくなるよう処理している。CPU11は識別情報記憶部151のエリアフィールドを参照し、ユーザ数の多いエリア順にソートし、ユーザ数の多いエリア順に高い重みを加算する処理を行う。本例では、ユーザ0001及び0002の2人がエリア「JR渋谷駅」であり、ユーザ0003の1人が「地下鉄新橋駅」である。この場合例えば、多数のユーザが位置するエリア「JR渋谷駅」について、重み「2」を加算し、1人しかいないエリア「地下鉄新橋駅」については重み「1」を加算する。その結果、ユーザ0001の重みは「6.0+2.0で8.0」、ユーザ0002の重みは「5.2+2.0で7.2」、ユーザ0003の重みは「3.3+1.0で4.3」となる。なお、この加算例は一例であり、逆に多数のユーザが位置するエリアの重みを低く設定して、この重みを加算または乗算するようにしても良い。   Subsequently, a weight calculation process taking position information into consideration will be described. In the present embodiment, processing is performed so as to increase the weight of an area where there are many users. The CPU 11 refers to the area field of the identification information storage unit 151, sorts in order of areas with the largest number of users, and performs processing of adding higher weights in the order of areas with the larger number of users. In this example, two users 0001 and 0002 are the area “JR Shibuya Station”, and one user 0003 is “Subway Shimbashi Station”. In this case, for example, a weight “2” is added to an area “JR Shibuya Station” where many users are located, and a weight “1” is added to an area “Subway Shimbashi Station” where there is only one user. As a result, the weight of the user 0001 is “6.0 + 2.0 and 8.0”, the user 0002 is “5.2 + 2.0 and 7.2”, and the user 0003 is “3.3 + 1.0 and 4”. .3 ". This addition example is an example, and conversely, the weight of an area where a large number of users are located may be set low, and this weight may be added or multiplied.

CPU11は、最終的に決定された重みを比較し、所定以上の重みを持つもの、例えば、最も大きい重みを有するユーザの音声データにかかる検索データを抽出する。本実施例においては「甘い」、「もの」及び「嫌」が抽出される。そして、CPU11は重みデータベース153の条件フィールドを参照し、必要に応じて反対語を抽出する。本例では条件「前後の形容詞または名詞の反対語を抽出」とあるので、最終的には検索データは「辛い」「もの」となる。そして、CPU11はこの検索データ及びユーザの位置情報をもとに、レストランデータベース152の検索データフィールド及びエリアフィールドを検索し、対応するレストランを抽出する。本例では検索データ「辛い」及びエリア「JR渋谷駅」をアンド条件で満たすレストラン「激辛カレー屋」、「A韓国料理屋」、「D担々麺」及び「Fタイ料理」が抽出される。なお、ユーザ0003の重みが最も大きい場合、検索データ「和食」「いい」及びエリア「地下鉄新橋駅」をアンド条件で満たすレストラン「C居酒屋」が抽出される。   The CPU 11 compares the finally determined weights, and extracts search data relating to the user's voice data having the largest weight, for example, the user having the largest weight. In this embodiment, “sweet”, “thing”, and “dislike” are extracted. Then, the CPU 11 refers to the condition field of the weight database 153 and extracts an antonym as necessary. In this example, since the condition “extract the adjectives before and after the adjectives or nouns” is extracted, the search data finally becomes “spicy” “thing”. Then, the CPU 11 searches the search data field and the area field of the restaurant database 152 based on the search data and the user position information, and extracts the corresponding restaurant. In this example, the restaurants “Spicy Curry”, “A Korean Restaurant”, “D Dandan Noodle” and “F Thai Cuisine” that satisfy the search data “Spicy” and the area “JR Shibuya Station” under the AND condition are extracted. When the weight of the user 0003 is the largest, the restaurant “C Izakaya” that satisfies the search data “Japanese food” “Good” and the area “Subway Shimbashi Station” under the AND condition is extracted.

CPU11はエリア外に位置する少数派ユーザのアクセスを考慮して、位置情報に基づき抽出したレストランのソートを行う。このソートはレストランデータベース152のアクセスフィールドに基づき行う。CPU11はレストランデータベース152のアクセスフィールドの数値が低いもの順に抽出したレストランを並び替える。本例ではアクセス「1分」の「激辛カレー屋」、アクセス「3分」の「D担々麺」、アクセス「5分」の「Fタイ料理」、アクセス「7分」の「A韓国料理屋」順にソートされる。CPU11は、このソート順に抽出したレストラン及びアクセスの情報を各ユーザの携帯電話機2へ、送信する。この情報の送信は、識別情報記億部151に記憶した電子メールアドレスを参照して電子メールの携帯により送信すればよい。   The CPU 11 sorts the restaurants extracted based on the position information in consideration of the access of minority users located outside the area. This sorting is performed based on the access field of the restaurant database 152. The CPU 11 rearranges the restaurants extracted in descending order of the access field values in the restaurant database 152. In this example, access “1 minute” “very spicy curry restaurant”, access “3 minutes” “D Tandan noodles”, access “5 minutes” “F Thai food”, access “7 minutes” “A Korean restaurant” Sorted in order. The CPU 11 transmits the restaurant and access information extracted in this sort order to the mobile phone 2 of each user. This information may be transmitted by referring to the e-mail address stored in the identification information storage unit 151 by e-mail carrying.

図9は携帯電話機2の表示部24に表示される検索結果一覧のイメージを示す説明図である。図に示すように、サーバコンピュータ1のCPU11によりソートされた順に検索されたレストラン「激辛カレー屋」、「D担々麺」、「Fタイ料理」及び「A韓国料理屋」が表示される。このレストラン名に対応させてアクセスの情報が併記される。これにより、アクセスしやすい順にレストランが表示され、遠隔地にいる少人数派のユーザに配慮した、システムの構築が可能となる。   FIG. 9 is an explanatory diagram showing an image of a search result list displayed on the display unit 24 of the mobile phone 2. As shown in the figure, the restaurants “very spicy curry restaurant”, “D Dandan noodles”, “F Thai food” and “A Korean restaurant” searched in the order sorted by the CPU 11 of the server computer 1 are displayed. Access information is written in association with the restaurant name. As a result, the restaurants are displayed in the order in which they are easily accessible, and it is possible to construct a system in consideration of a small group of users in remote locations.

サーバコンピュータ1の記憶部15には、各レストランの営業時間、電話番号、地図、予算、おすすめメニュー等が記憶された図示しないデータベースが設けられており、CPU11はレストランの情報の送信と共に、このデータベースの各レストランの情報へアクセスするためのハイパーリンクを併せて送信するようにしても良い。サーバコンピュータ1のCPU11はこれらの情報をcHTML形式で送信し、携帯電話機2のCPU21はこれを解析して、図9の如くレストラン、レストランのハイパーリンク及びアクセスの情報を列記する。   The storage unit 15 of the server computer 1 is provided with a database (not shown) in which business hours, telephone numbers, maps, budgets, recommended menus, etc. of each restaurant are stored. You may make it transmit the hyperlink for accessing the information of each restaurant of this. The CPU 11 of the server computer 1 transmits these pieces of information in the cHTML format, and the CPU 21 of the mobile phone 2 analyzes this information and lists restaurant and restaurant hyperlinks and access information as shown in FIG.

さらに、各レストランが満席であるか等の状態情報を提供するようにしても良い。CPU11は抽出されたレストランに対応する「状態情報」をレストランデータベース152から抽出し、状態情報が「×」と記憶されているものに関しては「満席」のテキストデータをレストラン名に併せて列記するようcHTMLを記述する。CPU11はこの状態情報を含むレストランの情報を携帯電話機2へ送信し、携帯電話機2のCPU21はこれを解析して図9の如く状態情報を表示する。図9の例においては状態情報が「×」である「Fタイ料理」は「満席」と表示される。なお、本実施の形態においては状態情報として「満席」のみを表示するようにしているが、状態情報フィールドに「○」と記憶されているものに関しては「予約可」または「利用可」等の情報を付加しても良い。さらに、状態情報をよりきめ細かく規定し、「閉店」、「特別サービス中」等の情報を提供するようにしても良い。これにより、検索したにもかかわらず、満席により利用できないという不具合を回避することができる。   Further, status information such as whether each restaurant is full may be provided. The CPU 11 extracts “state information” corresponding to the extracted restaurant from the restaurant database 152, and for those in which the state information is stored as “x”, the text data of “full” is listed together with the restaurant name. Describes cHTML. The CPU 11 transmits restaurant information including the state information to the mobile phone 2, and the CPU 21 of the mobile phone 2 analyzes the information and displays the state information as shown in FIG. In the example of FIG. 9, “F Thai food” whose status information is “×” is displayed as “full”. In the present embodiment, only “full” is displayed as the status information. However, “reservation possible” or “usable” etc. are stored for those stored in the status information field as “O”. Information may be added. Further, the state information may be defined more finely, and information such as “Closed” and “During special service” may be provided. As a result, it is possible to avoid the problem of being unable to use due to full seats despite the search.

図10は音声データを記憶する際の処理手順を示すフローチャートである。ユーザの携帯電話機2からサーバコンピュータ1へレストラン決定システムSの利用要求があった場合、CPU11は記憶部15に記憶したログイン画面を読み出し、携帯電話機2へ送信する。携帯電話機2の表示部24には図5の如くログイン画面が表示される。携帯電話機2からユーザID及びパスワードが送信された場合、サーバコンピュータ1のCPU11は送信されたユーザID及びパスワードを受け付ける(ステップS101)。CPU11はこの送信されたユーザID及びパスワードが記憶部15に予め記憶されたユーザID及びパスワードと一致するか否か正当性を判断する(ステップS102)。CPU11は正当でないと判断した場合(ステップS102でNO)、処理を終了する。CPU11は正当であると判断した場合(ステップS102でYES)、識別情報記憶部151に記憶したユーザIDに対応するグループID及び記憶部15に記憶した音声入力画面を読み出して、携帯電話機2へ送信する(ステップS103)。   FIG. 10 is a flowchart showing a processing procedure when audio data is stored. When the user's cellular phone 2 requests the server computer 1 to use the restaurant determination system S, the CPU 11 reads the login screen stored in the storage unit 15 and transmits it to the cellular phone 2. A login screen is displayed on the display unit 24 of the mobile phone 2 as shown in FIG. When the user ID and password are transmitted from the mobile phone 2, the CPU 11 of the server computer 1 accepts the transmitted user ID and password (step S101). The CPU 11 determines whether or not the transmitted user ID and password match the user ID and password stored in advance in the storage unit 15 (step S102). If the CPU 11 determines that it is not valid (NO in step S102), the process ends. If the CPU 11 determines that it is valid (YES in step S102), the group ID corresponding to the user ID stored in the identification information storage unit 151 and the voice input screen stored in the storage unit 15 are read and transmitted to the mobile phone 2. (Step S103).

携帯電話機2の表示部24には送信されたグループID及び音声入力開始ボタン51を含む音声入力画面が図5(b)の如く表示される。ユーザは携帯電話機2の入力部23から音声入力開始ボタン51を操作し、マイク28を通じて音声の入力を行う。マイク28から集音された音声信号は、CPU21によりデジタル化され、音声データがサーバコンピュータ1へ送信される。サーバコンピュータ1は送信された音声データを受け付ける(ステップS104)。CPU11は送信された音声データから音量レベルを抽出する。CPU11は送信された音声データ及び抽出した音量レベルをユーザIDに対応付けて識別情報記憶部151に記憶する(ステップS105)。   A voice input screen including the transmitted group ID and the voice input start button 51 is displayed on the display unit 24 of the mobile phone 2 as shown in FIG. The user operates the voice input start button 51 from the input unit 23 of the mobile phone 2 and inputs voice through the microphone 28. The audio signal collected from the microphone 28 is digitized by the CPU 21, and the audio data is transmitted to the server computer 1. The server computer 1 accepts the transmitted audio data (step S104). The CPU 11 extracts the volume level from the transmitted audio data. The CPU 11 stores the transmitted audio data and the extracted volume level in the identification information storage unit 151 in association with the user ID (step S105).

CPU11は携帯電話機2に対し位置情報を送信するよう要求する。携帯電話機2のCPU21はこの取得要求を受けてGPS受信機210から得られる携帯電話機2の現在の座標の情報を位置情報として送信する。サーバコンピュータ1のCPU11はこの送信された位置情報を受信する(ステップS106)。CPU11はこの受信した位置情報である座標の情報を識別情報記憶部151の座標フィールドに、ユーザIDに対応付けて記憶する(ステップS107)。さらにCPU11は記憶部15の図示しない地図データベースを参照し、送信された座標に対応するエリアを検索し、検索したエリアの情報を、ユーザIDに対応付けて、識別情報記憶部151のエリアフィールドに記憶する。以上の処理により、ユーザIDに対応付けて、音声データ、音量レベル、座標及びエリアの各種情報が識別情報記憶部151に記憶される。   The CPU 11 requests the mobile phone 2 to transmit position information. In response to this acquisition request, the CPU 21 of the mobile phone 2 transmits information on the current coordinates of the mobile phone 2 obtained from the GPS receiver 210 as position information. The CPU 11 of the server computer 1 receives the transmitted position information (step S106). The CPU 11 stores the received coordinate information, which is position information, in the coordinate field of the identification information storage unit 151 in association with the user ID (step S107). Further, the CPU 11 refers to a map database (not shown) in the storage unit 15 to search for an area corresponding to the transmitted coordinates, and associates the searched area information with the user ID in the area field of the identification information storage unit 151. Remember. Through the above processing, various types of information such as voice data, volume level, coordinates, and area are stored in the identification information storage unit 151 in association with the user ID.

CPU11は識別情報記憶部151に記憶されたグループ内の他の電子メールアドレスを読み出す(ステップS108)。本実施例においてはイベント決定システムSを開始したユーザ0001以外のユーザ0002及びユーザ0003の電子メールアドレスを読み出す。CPU11はこの読み出した電子メールアドレス宛に、レストラン決定システムSへの参加を呼びかける電子メールを生成して送信する(ステップS109)。   The CPU 11 reads out another email address in the group stored in the identification information storage unit 151 (step S108). In this embodiment, the e-mail addresses of the users 0002 other than the user 0001 who started the event determination system S and the user 0003 are read. The CPU 11 generates and transmits an e-mail calling for participation in the restaurant determination system S to the read e-mail address (step S109).

図11は参加を呼びかける電子メールの例を示す説明図である。サーバコンピュータ1のCPU11は記憶部15に記憶した参加を呼びかける文面を読み出し、cHTML形式でユーザ0002及びユーザ0003宛へ電子メールを送信する。ユーザ0003の携帯電話機2の表示部24には図11に示す文面及び音声入力開始ボタン51が表示される。ユーザ0003は音声入力開始ボタン51を、入力部23を通じて操作し、マイク28から音声を入力する。なお、本実施の形態においては各ユーザへ文面及び音声入力開始ボタン51を含むHTML形式の電子メールを送信しているが、所定のURLを含むテキスト形式の電子メールを送信し、このURLへアクセスさせることにより、音声入力開始ボタン51を表示して音声の入力を行わせても良い。   FIG. 11 is an explanatory diagram showing an example of an e-mail calling for participation. The CPU 11 of the server computer 1 reads the text calling for participation stored in the storage unit 15 and transmits an e-mail to the user 0002 and the user 0003 in the cHTML format. The text and voice input start button 51 shown in FIG. 11 is displayed on the display unit 24 of the mobile phone 2 of the user 0003. The user 0003 operates the voice input start button 51 through the input unit 23 and inputs voice from the microphone 28. In the present embodiment, an HTML-format e-mail including a text and a voice input start button 51 is transmitted to each user. However, a text-format e-mail including a predetermined URL is transmitted to access this URL. By doing so, the voice input start button 51 may be displayed to input voice.

CPU11は他のユーザから送信された音声データを受け付け(ステップS1010)、この音声データ及び送信された音声データの音量レベルを識別情報記憶部151に他のユーザのユーザIDに対応付けて記憶する(ステップS1011)。さらに、CPU11は他のユーザの携帯電話機2に対し位置情報を送信するよう要求する。携帯電話機2のCPU21はこの取得要求を受けてGPS受信機210から得られる携帯電話機2の現在の座標の情報を位置情報として送信する。サーバコンピュータ1のCPU11はこの送信された位置情報を受け付け、上述の処理と同様に座標及びエリアを含む位置情報を他のユーザのユーザIDに対応付けて、識別情報記憶部151に記憶する(ステップS1012)。このようにして、レストラン決定システムSへ参加を希望する他のユーザの音声データ、音量レベル、座標及びエリアの各種情報が識別情報記憶部151に記憶される。   The CPU 11 accepts audio data transmitted from another user (step S1010), and stores the audio data and the volume level of the transmitted audio data in the identification information storage unit 151 in association with the user ID of the other user ( Step S1011). Further, the CPU 11 requests the other user's mobile phone 2 to transmit the position information. In response to this acquisition request, the CPU 21 of the mobile phone 2 transmits information on the current coordinates of the mobile phone 2 obtained from the GPS receiver 210 as position information. The CPU 11 of the server computer 1 receives the transmitted position information, and stores the position information including the coordinates and the area in the identification information storage unit 151 in association with the user IDs of other users in the same manner as in the above-described process (step S1). S1012). In this way, the voice data, volume level, coordinates, and various types of area information of other users who wish to participate in the restaurant determination system S are stored in the identification information storage unit 151.

CPU11は所定時間を経過したか否かを判断する(ステップS1013)。CPU11は所定時間を経過していないと判断した場合(ステップS1013でNO)、ステップS1010へ移行し、グループ内の他のユーザからの音声データを受け付けるべく待機する。一方、CPU11は所定時間を経過したと判断した場合(ステップS1013でYES)、レストラン決定システムSの処理をさらに進めるべく処理を終了する。なお、複数のユーザが一の携帯電話機2を共有している場合は、一のユーザの音声データ、音量レベル及び位置情報の記憶(ステップS105及び107)が終了した場合に、ステップS101へ移行し、他のユーザの音声データの受け付け、つまりステップS104以降の処理を行うようにすればよい。   The CPU 11 determines whether or not a predetermined time has elapsed (step S1013). If the CPU 11 determines that the predetermined time has not elapsed (NO in step S1013), the CPU 11 proceeds to step S1010 and waits to accept voice data from other users in the group. On the other hand, if the CPU 11 determines that the predetermined time has elapsed (YES in step S1013), the process ends to further proceed with the process of the restaurant determination system S. When a plurality of users share one mobile phone 2, the process proceeds to step S101 when the storage of the voice data, volume level, and position information (steps S105 and 107) of one user is completed. The reception of the voice data of other users, that is, the processing after step S104 may be performed.

図12は検索データの生成処理の手順を示すフローチャートである。サーバコンピュータ1のCPU11は識別情報記憶部151に記憶した音声データを読み出す(ステップS121)。CPU11は記憶部15に記憶した音声認識ソフトウェアを起動し、音声データをテキストデータへ変換する(ステップS122)。CPU11は変換されたテキストデータをもとに、重みデータベース153を参照し、検索データを生成する(ステップS123)。具体的にはCPU11はテキストデータの文言と、重みデータベース153の検索データフィールドに記憶された検索データとを比較し、一致する検索データが存在する場合は、それを抽出して検索データとする。CPU11は生成した検索データをユーザIDに対応付けて識別情報記憶部151に記憶する(ステップS124)。以上の処理を同一グループ内に存在する全てのユーザIDに係る音声データに対して繰り返し行う。   FIG. 12 is a flowchart showing a procedure of search data generation processing. The CPU 11 of the server computer 1 reads the audio data stored in the identification information storage unit 151 (step S121). CPU11 starts the speech recognition software memorize | stored in the memory | storage part 15, and converts audio | voice data into text data (step S122). The CPU 11 refers to the weight database 153 based on the converted text data and generates search data (step S123). Specifically, the CPU 11 compares the text data text and the search data stored in the search data field of the weight database 153, and if there is matching search data, extracts it as search data. The CPU 11 stores the generated search data in the identification information storage unit 151 in association with the user ID (step S124). The above processing is repeated for audio data related to all user IDs existing in the same group.

図13は重み決定処理の手順を示すフローチャートである。サーバコンピュータ1のCPU11は重みを決定するために、識別情報記憶部151の検索データフィールドから、検索データを読み出す(ステップS131)。CPU11は重みデータベース153を参照し、読み出した検索データに対応する重みが存在するか否かを判断する(ステップS132)。重みが存在しないとCPU11が判断した場合(ステップS132でNO)、例えば、検索データ「静か」には対応する重みが存在しないと判断し、ステップS133〜S135の処理をスキップしステップS136へ移行する。   FIG. 13 is a flowchart showing the procedure of the weight determination process. The CPU 11 of the server computer 1 reads the search data from the search data field of the identification information storage unit 151 in order to determine the weight (step S131). The CPU 11 refers to the weight database 153 and determines whether there is a weight corresponding to the read search data (step S132). When the CPU 11 determines that there is no weight (NO in step S132), for example, it is determined that there is no corresponding weight for the search data “quiet”, and the processing of steps S133 to S135 is skipped and the process proceeds to step S136. .

重みが存在するとCPU11が判断した場合(ステップS132でYES)、検索データに対応する重みを読み出す(ステップS133)。例えば検索データ「いい」に関しては重み「3」が読み出される。CPU11は音量レベルを重み決定処理に考慮すべく、この検索データに対応する音量レベルを、識別情報記憶部151を参照して読み出す(ステップS134)。CPU11は検索データに対応する重みに読み出した音量レベルを乗じる(ステップS135)。例えば、検索データ「いい」の重み「3」には音量レベル「1.0」が乗じられ、重みは「3.0」となる。なお本実施の形態においては音量レベルを乗じているが、加算する等しても良い。   If the CPU 11 determines that there is a weight (YES in step S132), the weight corresponding to the search data is read (step S133). For example, the weight “3” is read for the search data “good”. The CPU 11 reads the volume level corresponding to this search data with reference to the identification information storage unit 151 in order to consider the volume level in the weight determination process (step S134). The CPU 11 multiplies the read sound volume level by the weight corresponding to the search data (step S135). For example, the weight “3” of the search data “good” is multiplied by the volume level “1.0”, and the weight becomes “3.0”. In this embodiment, the sound volume level is multiplied, but it may be added.

CPU11は全ての検索データについて重みを算出したか否かを判断する(ステップS136)。CPU11は全ての検索データについて算出を行っていない場合(ステップS136でNO)、ステップS131へ移行しステップS131〜S136の処理を繰り返す。例えば、検索データ「かな」についての重み算出処理を続いて行う。CPU11は全ての検索データについて算出したと判断した場合(ステップS136でYES)、ステップS135において算出した全ての重み合計値を算出する(ステップS137)。例えば検索データ「いい」及び「かな」については重み「5.2」となる。   The CPU 11 determines whether or not weights have been calculated for all search data (step S136). If the CPU 11 has not calculated all the search data (NO in step S136), the CPU 11 proceeds to step S131 and repeats the processes in steps S131 to S136. For example, the weight calculation process for the search data “Kana” is subsequently performed. When the CPU 11 determines that the calculation has been performed for all the search data (YES in step S136), the CPU 11 calculates all the weight total values calculated in step S135 (step S137). For example, the search data “good” and “kana” have the weight “5.2”.

以上により、音声データに係る検索データ及び音量レベルに基づく重みの算出が実行される。続いて、位置情報を考慮した重み算出処理の手順を述べる。CPU11は識別情報記憶部151を参照し、同一エリアの数を算出する(ステップS138)。図4の例ではエリア「JR渋谷駅」が同一エリア数「2」と算出され、エリア「地下鉄新橋駅」が同一エリア数「1」と算出される。CPU11はこのエリア数に応じて重みを加算する(ステップS139)。すなわち、ユーザ0001及びユーザ0002の場合、同一エリア数が「2」であり、ステップS137で求めた重みにエリア数「2」が加算され最終的な重みが算出される。この処理をユーザ毎に実行することにより全てのユーザの重みが算出される。なお、ユーザ0003の場合、同一エリア数が「1」であり、ステップS137で求めた重みにエリア数「1」が加算され最終的な重みが算出される。これら算出された重みはユーザIDに対応付けて識別情報記憶部151の重みフィールドに記憶される。なお、重みの決定は、少なくとも検索データに基づき行えば良く、より精度を高めるべく、音量レベル、または位置情報を適宜組み合わせればよい。   Thus, the calculation of the weight based on the search data related to the audio data and the sound volume level is executed. Subsequently, a procedure of weight calculation processing in consideration of position information will be described. The CPU 11 refers to the identification information storage unit 151 and calculates the number of the same areas (step S138). In the example of FIG. 4, the area “JR Shibuya Station” is calculated as the same area number “2”, and the area “Subway Shimbashi Station” is calculated as the same area number “1”. The CPU 11 adds a weight according to the number of areas (step S139). That is, in the case of the user 0001 and the user 0002, the same area number is “2”, and the area number “2” is added to the weight obtained in step S137 to calculate the final weight. By executing this process for each user, the weights of all users are calculated. In the case of the user 0003, the number of identical areas is “1”, and the final weight is calculated by adding the number of areas “1” to the weight obtained in step S137. These calculated weights are stored in the weight field of the identification information storage unit 151 in association with the user ID. The weight may be determined based on at least the search data, and the volume level or the position information may be appropriately combined to improve the accuracy.

図14はイベント決定処理の手順を示すフローチャートである。CPU11はレストランを決定するグループ内のユーザの重みを、識別情報記憶部151から読み出す(ステップS141)。CPU11は所定の重み以上のユーザIDに対応する音声データを抽出する(ステップS142)。この処理は例えば、予め閾値を設けておき、その閾値を超える重みを持つユーザの音声データを抽出するほか、最も大きい重みを持つユーザの音声データを抽出、または上位数%のユーザの音声データを抽出するようにしても良い。本例では重みの最も大きいユーザ0001の音声データが抽出されている。   FIG. 14 is a flowchart showing the procedure of the event determination process. CPU11 reads the weight of the user in the group which determines a restaurant from the identification information memory | storage part 151 (step S141). CPU11 extracts the audio | voice data corresponding to user ID more than predetermined weight (step S142). In this process, for example, a threshold value is set in advance and voice data of a user having a weight exceeding the threshold value is extracted, voice data of a user having the largest weight is extracted, or voice data of the top few percent of users is extracted. You may make it extract. In this example, the voice data of the user 0001 having the largest weight is extracted.

CPU11は抽出した音声データに対応する検索データを識別情報記憶部151から読み出し(ステップS143)、重みデータベース153を検索して検索データに対応する条件が存在するか否かを判断する(ステップS144)。CPU11は検索データに対応する条件が存在すると判断した場合(ステップS144でYES)、条件に従い検索データの反対語を抽出する(ステップS145)。この反対語の抽出は図示しない辞書データベースを参照して行う。そして抽出した反対語に従い検索データを再生成する(ステップS146)。本例においては、検索データ「嫌」に条件が記述されており、前の検索データ「甘い」の反対語「辛い」が抽出され、検索データ「辛い」「もの」が再生成される。   The CPU 11 reads the search data corresponding to the extracted voice data from the identification information storage unit 151 (step S143), searches the weight database 153, and determines whether there is a condition corresponding to the search data (step S144). . If the CPU 11 determines that a condition corresponding to the search data exists (YES in step S144), the CPU 11 extracts an antonym of the search data according to the condition (step S145). The extraction of the opposite word is performed with reference to a dictionary database (not shown). Then, search data is regenerated according to the extracted antonym (step S146). In this example, a condition is described in the search data “dislike”, the antonym “spicy” of the previous search data “sweet” is extracted, and the search data “spicy” “thing” is regenerated.

ステップS146の処理後、またはステップS144において、CPU11が検索データに対応する条件が存在しないと判断した場合(ステップS144でNO)、識別情報記憶部151の重みフィールド及びエリアフィールドを検索し、重みが最大のユーザのエリアを読み出す(ステップS147)。本実施の形態においては重みが最大のユーザはユーザ0001であり、そのエリアは「JR渋谷駅」である。   After the process of step S146 or in step S144, if the CPU 11 determines that there is no condition corresponding to the search data (NO in step S144), the weight field and area field of the identification information storage unit 151 are searched and the weight is The maximum user area is read (step S147). In the present embodiment, the user with the largest weight is the user 0001, and the area is “JR Shibuya Station”.

CPU11はステップS143で読み出した検索データまたはステップS146で再生成した検索データ、及び、ステップS147において読み出したエリアに基づき、レストランデータベース152からレストランを決定する(ステップS148)。具体的には、CPU11はレストランデータベース152において検索データ及びエリアをアンド条件で満たすレストランを抽出する。その結果、本例では、検索データ「辛い」及びエリア「JR渋谷駅」をアンド条件で満たすレストラン「激辛カレー屋」、「A韓国料理屋」、「D担々麺」及び「Fタイ料理」が抽出される。   The CPU 11 determines a restaurant from the restaurant database 152 based on the search data read in step S143 or the search data regenerated in step S146 and the area read in step S147 (step S148). Specifically, the CPU 11 extracts a restaurant that satisfies the search data and the area under the AND condition in the restaurant database 152. As a result, in this example, the restaurants “Spicy Curry”, “A Korean Restaurant”, “D Dandan Noodles”, and “F Thai Cuisine” that satisfy the search data “Spicy” and the area “JR Shibuya Station” under AND conditions are extracted. Is done.

さらにCPU11は決定したレストランに対応するアクセスの情報をレストランデータベース152のアクセスフィールドから読み出す(ステップS149)。CPU11は読み出したアクセスの情報が小さい順に、ステップS148にて決定したレストランの優先順位を決定する(ステップS1410)。CPU11は決定した優先順位に従い、ステップS148で決定したレストランの並び替えを行う(ステップS1411)本例では、「激辛カレー屋(1分)」、「D担々麺(3分)」、「Fタイ料理(5分)」及び「A韓国料理屋(7分)」と並び替えられる。   Further, the CPU 11 reads out access information corresponding to the determined restaurant from the access field of the restaurant database 152 (step S149). The CPU 11 determines the priority order of the restaurants determined in step S148 in ascending order of read access information (step S1410). In accordance with the determined priority order, the CPU 11 rearranges the restaurants determined in step S148 (step S1411). In this example, “very hot curry restaurant (1 minute)”, “D Dandan noodles (3 minutes)”, “F Thai food” (5 minutes) "and" A Korean restaurant (7 minutes) ".

図15は決定したレストランの情報を携帯電話機2へ送信する際の手順を示すフローチャートである。まず、CPU11はステップS148で決定したレストランを読み出し(ステップS151)、ステップS1411で行った処理と同じように、優先順位に従いレストランの並び替えを行う(ステップS152)。CPU11はこの並び替えされたレストランの、詳細情報(地図、営業時間、メニュー等)を記憶したWebページへアクセスするためのハイパーリンクをレストラン毎に記述する(ステップS153)。   FIG. 15 is a flowchart showing a procedure for transmitting the determined restaurant information to the mobile phone 2. First, the CPU 11 reads out the restaurant determined in step S148 (step S151), and rearranges the restaurants according to the priority order in the same manner as the processing performed in step S1411 (step S152). The CPU 11 describes, for each restaurant, a hyperlink for accessing the Web page storing the detailed information (map, business hours, menu, etc.) of the rearranged restaurants (step S153).

CPU11はレストランに対応する位置情報(アクセスの情報)及び状態情報をレストランデータベース152から読み出し(ステップS154)、並び替えたレストラン、ハイパーリンク、位置情報及び状態情報を含むcHTML文章を作成する(ステップS155)。なお、本例では状態情報が「×」の場合に、状態情報が「満席」と表示されるcHTML文章が記述される。CPU11はグループ内の各ユーザのメールアドレス宛へ、作成したレストラン及び状態情報を含むcHTML文章を携帯電話機2へ送信する(ステップS156)。なお、本実施の形態においては、並び替え処理を行っているが、簡易なシステムとする場合は並び替えせずに決定したレストランの情報を送信するようにしても良い。   The CPU 11 reads position information (access information) and state information corresponding to the restaurant from the restaurant database 152 (step S154), and creates cHTML text including the sorted restaurant, hyperlink, position information, and state information (step S155). ). In this example, when the state information is “x”, a cHTML sentence in which the state information is displayed as “full” is described. The CPU 11 transmits cHTML text including the created restaurant and status information to the mobile phone 2 to the mail address of each user in the group (step S156). In the present embodiment, rearrangement processing is performed. However, in the case of a simple system, information on the determined restaurant may be transmitted without rearranging.

携帯電話機2はこの送信されたcHTML文章を受信し(ステップS157)、携帯電話機2のCPU21は受信したcHTML文章を表示部24に表示する(ステップS158)。このように、複数のユーザが携帯電話機2から現在の気持ちを音声で入力することにより、サーバコンピュータ1がユーザの音声及び位置を考慮して、予約可否を含めて最適なレストランを表示し、しかも、少数派のユーザをも考慮して決定したレストランの表示を行うことが可能となる。   The mobile phone 2 receives the transmitted cHTML text (step S157), and the CPU 21 of the mobile phone 2 displays the received cHTML text on the display unit 24 (step S158). As described above, when a plurality of users input their current feelings from the mobile phone 2 by voice, the server computer 1 displays the optimum restaurant including whether or not reservation is possible in consideration of the voice and position of the user, It is possible to display a restaurant determined in consideration of minority users.

実施の形態2
図16は実施の形態2に係るサーバコンピュータ1の構成を示すブロック図である。実施の形態2に係るサーバコンピュータ1を動作させるためのコンピュータプログラムは、本実施の形態2のように、CD−ROM、MO、またはDVD−ROM等の可搬型記録媒体1Aで提供することも可能である。さらに、コンピュータプログラムを、通信網Nを介して図示しないサーバコンピュータからダウンロードすることも可能である。以下に、その内容を説明する。
Embodiment 2
FIG. 16 is a block diagram showing a configuration of the server computer 1 according to the second embodiment. The computer program for operating the server computer 1 according to the second embodiment can be provided by a portable recording medium 1A such as a CD-ROM, MO, or DVD-ROM as in the second embodiment. It is. Further, the computer program can be downloaded from a server computer (not shown) via the communication network N. The contents will be described below.

図16に示すサーバコンピュータ1の図示しないリーダ/ライタに、音声データを記憶させ、検索データを生成させ、重みを決定させ、音声データを抽出させ、イベントを決定させるコンピュータプログラムが記録された可搬型記録媒体1A(CD−ROM、MO又はDVD−ROM等)を、挿入して記憶部15の制御プログラム内にこのプログラムをインストールする。または、かかるプログラムを、通信部16を介して外部の図示しないサーバコンピュータからダウンロードし、記憶部15にインストールするようにしても良い。かかるプログラムはRAM12にロードして実行される。これにより、上述のような本発明のサーバコンピュータ1として機能する。   A portable computer recorded with a computer program for storing voice data in a reader / writer (not shown) of the server computer 1 shown in FIG. 16, generating search data, determining weight, extracting voice data, and determining an event. The recording medium 1A (CD-ROM, MO, DVD-ROM or the like) is inserted, and this program is installed in the control program of the storage unit 15. Alternatively, such a program may be downloaded from an external server computer (not shown) via the communication unit 16 and installed in the storage unit 15. Such a program is loaded into the RAM 12 and executed. Thereby, it functions as the server computer 1 of the present invention as described above.

本実施の形態2は以上の如き構成としてあり、その他の構成及び作用は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。   The second embodiment is configured as described above, and the other configurations and operations are the same as those of the first embodiment. Therefore, corresponding parts are denoted by the same reference numerals, and detailed description thereof is omitted.

本発明に係るイベント決定システムの概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the event determination system which concerns on this invention. サーバコンピュータのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a server computer. 携帯電話機のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a mobile telephone. 識別情報記憶部のレコードレイアウトを示す説明図である。It is explanatory drawing which shows the record layout of an identification information storage part. 携帯電話機の表示部に表示される画面のイメージを示す説明図である。It is explanatory drawing which shows the image of the screen displayed on the display part of a mobile telephone. レストランデータベースのレコードレイアウトを示す説明図である。It is explanatory drawing which shows the record layout of a restaurant database. 重みデータベースのレコードレイアウトを示す説明図である。It is explanatory drawing which shows the record layout of a weight database. 検索データの生成及び重み決定処理の手順を説明する説明図である。It is explanatory drawing explaining the procedure of the production | generation of search data, and a weight determination process. 携帯電話機の表示部に表示される検索結果一覧のイメージを示す説明図である。It is explanatory drawing which shows the image of the search result list displayed on the display part of a mobile telephone. 音声データを記憶する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of memorize | storing audio | voice data. 参加を呼びかける電子メールの例を示す説明図である。It is explanatory drawing which shows the example of the email which invites participation. 検索データの生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the production | generation process of search data. 重み決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a weight determination process. イベント決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an event determination process. 決定したレストランの情報を携帯電話機へ送信する際の手順を示すフローチャートである。It is a flowchart which shows the procedure at the time of transmitting the information of the decided restaurant to a mobile telephone. 実施の形態2に係るサーバコンピュータの構成を示すブロック図である。6 is a block diagram illustrating a configuration of a server computer according to Embodiment 2. FIG.

符号の説明Explanation of symbols

1 サーバコンピュータ(音声データ処理装置)
1A 記録媒体
2 携帯電話機(携帯端末機)
11 CPU(制御部)
13 入力部
14 表示部
15 記憶部
16 通信部
21 CPU(制御部)
23 入力部
24 表示部
25 記憶部
26 通信部
28 マイク
29 スピーカ
151 識別情報記憶部
152 レストランデータベース(イベントデータベース)
153 重みデータベース
210 GPS受信機
N 通信網
S レストラン決定システム(イベント決定システム)
1 Server computer (voice data processing device)
1A Recording medium 2 Mobile phone (mobile terminal)
11 CPU (control unit)
13 Input unit 14 Display unit 15 Storage unit 16 Communication unit 21 CPU (Control unit)
23 Input Unit 24 Display Unit 25 Storage Unit 26 Communication Unit 28 Microphone 29 Speaker 151 Identification Information Storage Unit 152 Restaurant Database (Event Database)
153 Weight database 210 GPS receiver N Communication network S Restaurant determination system (event determination system)

Claims (10)

受信した音声データを処理してイベントを決定するイベント決定方法において、
複数のユーザから送信された音声データをユーザの識別情報に対応付けて識別情報記憶部に記憶するステップと、
記憶した音声データに基づき、制御部により複数の検索データを生成する生成ステップと、
生成した検索データに基づき、前記制御部により前記音声データの重みを決定する重み決定ステップと、
所定の重み以上の識別情報に対応する音声データを前記制御部により抽出する抽出ステップと、
イベントに対応付けて検索データを記憶したイベントデータベースから、前記抽出した音声データに対応する検索データを用いて、前記制御部によりイベントを決定するイベント決定ステップと
を備えることを特徴とするイベント決定方法。
In the event determination method that processes received audio data and determines an event,
Storing voice data transmitted from a plurality of users in the identification information storage unit in association with the identification information of the users;
A generation step of generating a plurality of search data by the control unit based on the stored voice data;
A weight determination step of determining a weight of the voice data by the control unit based on the generated search data;
An extraction step of extracting voice data corresponding to identification information of a predetermined weight or more by the control unit;
An event determination method comprising: an event determination step of determining an event by the control unit using search data corresponding to the extracted voice data from an event database storing search data in association with an event. .
受信した音声データを処理する音声データ処理装置において、
複数のユーザから送信された音声データをユーザの識別情報に対応付けて識別情報記憶部に記憶する手段と、
記憶した音声データに基づき、複数の検索データを生成する生成手段と、
生成した検索データに基づき前記音声データの重みを決定する重み決定手段と、
所定の重み以上の識別情報に対応する音声データを抽出する抽出手段と、
イベントに対応付けて検索データを記憶したイベントデータベースから、前記抽出した音声データに対応する検索データを用いてイベントを決定するイベント決定手段と
を備えることを特徴とする音声データ処理装置。
In an audio data processing device that processes received audio data,
Means for storing voice data transmitted from a plurality of users in the identification information storage unit in association with the identification information of the users;
Generating means for generating a plurality of search data based on the stored voice data;
Weight determining means for determining the weight of the voice data based on the generated search data;
Extraction means for extracting voice data corresponding to identification information having a predetermined weight or more;
An audio data processing apparatus comprising: event determination means for determining an event from an event database storing search data in association with an event, using search data corresponding to the extracted audio data.
音声データを送信したユーザの位置情報を受信する手段と、
受信した位置情報を前記識別情報及び音声データに対応付けて前記識別情報記憶部に記憶する手段とをさらに備え、
前記重み決定手段は、前記生成手段により生成した検索データ及び前記記憶した位置情報に基づき前記音声データの重みを決定するよう構成してあることを特徴とする請求項2に記載の音声データ処理装置。
Means for receiving location information of the user who transmitted the audio data;
Means for storing the received position information in the identification information storage unit in association with the identification information and the voice data;
3. The audio data processing apparatus according to claim 2, wherein the weight determination unit is configured to determine a weight of the audio data based on the search data generated by the generation unit and the stored position information. .
前記イベントデータベースは、イベントに対応付けて検索データ及び位置情報が記憶されており、
前記イベント決定手段により決定したイベントに対応する位置情報を前記イベントデータベースから読み出す手段と、
該読み出した位置情報に基づき、前記イベント決定手段により決定したイベントの優先順位を決定する優先順位決定手段と
をさらに備えることを特徴とする請求項3に記載の音声データ処理装置。
The event database stores search data and position information in association with events,
Means for reading position information corresponding to the event determined by the event determination means from the event database;
The audio data processing apparatus according to claim 3, further comprising priority order determining means for determining a priority order of the event determined by the event determining means based on the read position information.
前記重み決定手段は、前記識別情報記憶部に記憶した音声データの音量レベル及び前記生成手段により生成した検索データに基づき前記音声データの重みを決定するよう構成してあることを特徴とする請求項2乃至4のいずれか一つに記載の音声データ処理装置。   The weight determination unit is configured to determine a weight of the voice data based on a volume level of voice data stored in the identification information storage unit and search data generated by the generation unit. The audio data processing device according to any one of 2 to 4. 前記重み決定手段は、検索データに対応付けて重みを記憶した重みデータベースから、前記生成手段により生成した検索データに対応する重みを読み出し、該読み出した重み及び前記識別情報記憶部に記憶した音声データに基づき重みを決定するよう構成してあることを特徴とする請求項2乃至4のいずれか一つに記載の音声データ処理装置。   The weight determination means reads a weight corresponding to the search data generated by the generation means from a weight database storing weights in association with the search data, and the read weight and voice data stored in the identification information storage unit The audio data processing apparatus according to claim 2, wherein the weight is determined based on the frequency. 携帯端末機と該携帯端末機に通信網を介して接続される請求項2または3に記載の音声データ処理装置により構成されるイベント決定システムにおいて、
前記イベント決定手段により決定したイベントを前記携帯端末機へ送信する手段
を備えることを特徴とするイベント決定システム。
In the event determination system comprised by the audio | voice data processing apparatus of Claim 2 or 3 connected to a portable terminal and this portable terminal via a communication network,
An event determination system comprising: means for transmitting an event determined by the event determination means to the portable terminal.
携帯端末機と該携帯端末機に通信網を介して接続される請求項4に記載の音声データ処理装置により構成されるイベント決定システムにおいて、
前記イベント決定手段により決定したイベントを前記優先順位決定手段により決定したイベントの優先順位に従い並び替える手段と、
該並び替えたイベントを前記携帯端末機へ送信する手段と
を備えることを特徴とするイベント決定システム。
In the event determination system comprised by the audio | voice data processing apparatus of Claim 4 connected to a portable terminal device and this portable terminal device via a communication network,
Means for rearranging the events determined by the event determining means according to the priority order of the events determined by the priority determining means;
Means for transmitting the rearranged event to the portable terminal.
前記イベントデータベースは、イベントの状態を示す状態情報を記憶しており、
前記音声データ処理装置は前記イベント決定手段により決定したイベントに対応する状態情報を読み出して携帯端末機へ送信する手段をさらに備えることを特徴とする請求項7または8に記載のイベント決定システム。
The event database stores state information indicating an event state,
9. The event determination system according to claim 7, wherein the audio data processing device further includes means for reading out state information corresponding to the event determined by the event determination means and transmitting the state information to the portable terminal.
コンピュータに、受信した音声データを処理させてイベントを決定させるコンピュータプログラムにおいて、
コンピュータの制御部に、複数のユーザから送信された音声データをユーザの識別情報に対応付けて記憶した識別情報記憶部から音声データを読み出させ、該読み出させた音声データに基づき、複数の検索データを生成させる生成ステップと、
コンピュータの制御部に、前記生成させた検索データに基づき、前記音声データの重みを決定させる重み決定ステップと、
コンピュータの制御部に、所定の重み以上の識別情報に対応する音声データを抽出させる抽出ステップと、
コンピュータの制御部に、イベントに対応付けて検索データを記憶したイベントデータベースから、前記抽出した音声データに対応する検索データを用いて、イベントを決定させるイベント決定ステップと
を備えることを特徴とするコンピュータプログラム。
In a computer program that causes a computer to process received audio data and determine an event,
The control unit of the computer is caused to read the audio data from the identification information storage unit that stores the audio data transmitted from the plurality of users in association with the user identification information, and based on the read audio data, A generation step for generating search data;
A weight determination step of causing a control unit of a computer to determine a weight of the voice data based on the generated search data;
An extraction step for causing the control unit of the computer to extract audio data corresponding to identification information of a predetermined weight or more;
An event determination step of causing the control unit of the computer to determine an event from an event database storing the search data in association with the event, using the search data corresponding to the extracted voice data. program.
JP2005363939A 2005-12-16 2005-12-16 Event determination method, voice data processor, event determination system and computer program Pending JP2007164725A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005363939A JP2007164725A (en) 2005-12-16 2005-12-16 Event determination method, voice data processor, event determination system and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005363939A JP2007164725A (en) 2005-12-16 2005-12-16 Event determination method, voice data processor, event determination system and computer program

Publications (1)

Publication Number Publication Date
JP2007164725A true JP2007164725A (en) 2007-06-28

Family

ID=38247515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005363939A Pending JP2007164725A (en) 2005-12-16 2005-12-16 Event determination method, voice data processor, event determination system and computer program

Country Status (1)

Country Link
JP (1) JP2007164725A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2006330A2 (en) 2007-06-22 2008-12-24 Akebono Brake Industry CO., LTD. Thermosetting resin material
JP2020144728A (en) * 2019-03-08 2020-09-10 株式会社電通グループ Retrieval program, user terminal, and retrieval device
JP2023114347A (en) * 2022-02-04 2023-08-17 株式会社球 Retrieval server, retrieval method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2006330A2 (en) 2007-06-22 2008-12-24 Akebono Brake Industry CO., LTD. Thermosetting resin material
JP2020144728A (en) * 2019-03-08 2020-09-10 株式会社電通グループ Retrieval program, user terminal, and retrieval device
JP2023114347A (en) * 2022-02-04 2023-08-17 株式会社球 Retrieval server, retrieval method, and program
JP7392930B2 (en) 2022-02-04 2023-12-06 株式会社球 Search server, search method and program

Similar Documents

Publication Publication Date Title
JP6670350B2 (en) System and method for integrating a third party service with a digital assistant
US7783590B2 (en) Task selection apparatus and task selection assistance method
CN104102719B (en) The method for pushing and device of a kind of trace information
CN102036163B (en) Behaviour pattern analysis system, mobile terminal, behaviour pattern analysis method, and program
WO2017143337A1 (en) Intelligent agent and interface to provide enhanced search
JP6788637B2 (en) Information retrieval device and information retrieval system
WO2017143338A1 (en) User intent and context based search results
WO2017143339A1 (en) Interactive search engine
US20120066202A1 (en) Method and apparatus for enhancing search results by extending search to contacts of social networks
JP2003196284A (en) Navigation device for traveling object
CN105874531B (en) Terminal device, server device, and computer-readable recording medium
US20100030772A1 (en) System and method for creating and using personality models for user interactions in a social network
US20140280053A1 (en) Contextual socially aware local search
JP3813850B2 (en) Search method and search device
CN107257972A (en) Method, system and medium for providing search suggestion
CN104199837B (en) A kind of information output method and electronic equipment
US7849046B2 (en) Online consultation system, online consultation apparatus and consultation method thereof
JP2005174094A (en) Use history server device, service retrieval server device, communication terminal, and service recommendation method
JP2009087151A (en) Information providing system, information providing device, mobile terminal, information providing method, and program
JP3843008B2 (en) Server providing navigation service, program storage medium used for the server, and program storage medium used for car navigation device
JP2019056956A (en) Information processing system, information processing program, information processing apparatus and information processing method
KR100920442B1 (en) Methods for searching information in portable terminal
JP2007233862A (en) Service retrieval system and service retrieval method
JP2007164725A (en) Event determination method, voice data processor, event determination system and computer program
JP2010128849A (en) Information system