JP2005267574A - 音声検索システム - Google Patents

音声検索システム Download PDF

Info

Publication number
JP2005267574A
JP2005267574A JP2004083160A JP2004083160A JP2005267574A JP 2005267574 A JP2005267574 A JP 2005267574A JP 2004083160 A JP2004083160 A JP 2004083160A JP 2004083160 A JP2004083160 A JP 2004083160A JP 2005267574 A JP2005267574 A JP 2005267574A
Authority
JP
Japan
Prior art keywords
attribute
condition data
data
attribute condition
attribute value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004083160A
Other languages
English (en)
Inventor
Hiroshi Sugitani
浩 杉谷
Hideo Ueno
英雄 上野
Toshihiro Ide
敏博 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004083160A priority Critical patent/JP2005267574A/ja
Priority to US10/949,757 priority patent/US20050209850A1/en
Publication of JP2005267574A publication Critical patent/JP2005267574A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

【課題】 利用者が発話した属性条件により検索するシステムにおいて、利用者によけいな音声入力を行わせることなく、その検索のための属性条件の入力を効率的に行う。
【解決手段】 利用者がマイクを介して音声入力した場合にその入力音声から属性値を抽出し、その属性値を含む検索条件を作成し、この検索条件により検索するシステムであって、前記検索後に、さらに利用者がマイクを介して音声入力した場合にその入力音声から属性値を抽出する手段と、その属性値と前記検索条件とに基づいて新たな検索条件を作成する手段と、この新たな検索条件により検索する手段と、を備える音声による検索システム。
【選択図】図15

Description

本発明は、利用者が発話した属性条件により検索するシステムにおいて、その検索のための属性条件の入力を効率的に行うための技術に関する。
従来、インターネット等においては、化粧品、車等の各種情報を提供するサービスが知られている。このサービスは、初めに、利用者に、情報提供して欲しい商品の属性値を一つずつ選択させ、その属性値を持つ商品だけに絞込み、その絞り込んだ商品の中から利用者に情報提供して欲しい商品をさらに選択させることで、その最終的に選択された商品に関する情報を提供するというものである。
このような情報提供サービスを実現するためのシステムは、複数の属性値を一度に入力できるような音声認識技術を用いて、利用者に目的の商品の属性値を初めに選択(音声入力)させることで、その属性値を持つ商品に絞込み、次に利用者に、その絞込まれた商品の中から、商品を選択(音声入力)させることで、その商品に関する情報を提供するサービス(属性選択による絞込み情報提供サービス)を実現する。なお、属性値とは、言葉の持つ属性の固有値のことである。化粧品を例に説明すると、化粧品は、メーカ、ブランド、アイテムという属性を持ち、そのそれぞれの属性ごとに、メーカは○○会社(具体的な社名)等、ブランドは○○(具体的なブランド名)等、アイテムは口紅(具体的なアイテム名)等の属性値を持つ。このように音声認識技術を用いることで、利用者の入力効率を向上させている。
従来技術について簡単に説明する。図1は、従来技術の原理図である。ここでは、従来技術として、PDA(携帯情報端末)において、数万品目の化粧品の中から1つの商品を選択し、その詳細情報を表示する音声認識を用いた化粧品情報提供アプリケーションサービスを実現するシステムを説明する。
候補データベース(以下候補DBという)200には、図2に示す候補データが登録されている。属性値データベース(以下属性値DBという)210には、図3に示す属性値データが登録されている。
アプリケーション制御部100は、候補DB200を参照し、属性値認識語データ(図3に示す属性値データと同じもの)を属性値認識語データベース220へ登録し、アプリケーション制御部100は、属性値データの認識を開始する。
また、その時に、ディスプレイ20に図4に示す候補選択画面イメージが表示される。これにより、利用者にメーカ、ブランド、アイテムの音声入力を促す。
図4に示す候補選択画面を閲覧した利用者がマイク10に向かって例えば「メーカKA
ブランドV_K 口紅」と発話したとする(S10)。音声認識部110は、その入力音声データから(メーカKA ブランドV_K 口紅)を認識し、この認識結果を属性認識データとしてアプリケーション制御部100へ送る(S11)。
属性認識データを受け取ると、アプリケーション制御部100は、その受け取った属性認識データを候補抽出部140へ送る(S12)。属性認識データを受け取ると、候補抽出部140は、候補DB200を参照し、先ほど受け取った属性認識データと一致する候補を抽出し、候補データを作成し、アプリケーション制御部100へ送る(S13)。
候補データを受け取ると、アプリケーション制御部100は、その候補データから候補認識語データを作成し、候補認識語データベース240へ登録し(S14)、候補データの認識を開始する。
また、その時に、ディスプレイ20に図5に示す商品選択画面イメージが表示される。これにより、利用者に候補データの音声入力を促す。
図5に示す商品選択画面を閲覧した利用者がマイク10に向かって例えば「商品100_V_K」と発話したとする(S15)。音声認識部110は、その入力音声データから商品100_V_Kを認識し、この認識結果を属性認識データとしてアプリケーション制御部100へを送る(S16)。
アプリケーション制御部100は、先ほどS13で候補抽出部140から受取った候補データを参照し、図6に示す商品詳細画面イメージをディスプレイ20へ表示する。
次に、利用者が属性値を替えて、他の商品情報を閲覧したい場合は、図5の商品選択画面イメージに戻り、再度、利用者に属性値を発話してもらう。
しかし、ここで認識した属性値を前回の属性値に上書きする方法と、前回の属性値に関係無く、認識した属性値をそのまま設定する方法がある。
下記に、それぞれの方法について説明する。
(前回の属性値に認識した属性値を上書きする方法)
(利用者が、メーカKA、ブランドV_Kのマスカラの商品を閲覧したいと考えている場合)
利用者は、先ほど、「メーカKA」と「ブランドV_K」は入力済みであることから、「マスカラ」と発話すれば、図7に示す商品選択画面イメージのように、「口紅」が「マスカラ」へ上書きされる。
しかし、利用者が、メーカSのマスカラを閲覧したいと考えた場合、利用者は、「メーカSのマスカラでブランドはクリア」と発話しなければならない。この場合、利用者は、使わない属性はクリアと発話しなければならず、余計な音声入力を行わせてしまい、利用者にとって、使いづらい方法となってしまう。
(認識した属性値をそのまま設定する方法)
(利用者が、メーカSのマスカラの商品を閲覧したいと考えている場合)
利用者は、「メーカSのマスカラ」と発話すれば、図8に示す商品選択画面イメージのように設定される。
しかし、利用者が、メーカKA、ブランドV_Kのマスカラを閲覧したいとした場合、利用者は、「メーカKA ブランドV_Kのマスカラ」と発話しなければならず、先ほど入力した「メーカKA」、「ブランドV_K」をもう一度発話しなければならない。これは、利用者に、無駄な入力を行っていると感じさせてしまい、利用者にとって、使いづらい方法となってしまう。
また、両方に共通の課題であるが、この化粧品のメーカとブランドのように、属性と属性に依存関係にあるようなものの場合、「メーカSのブランドV_K」と発話した場合など(ブランドV_KはメーカKAのブランド)、整合性がとれていないにも関わらず、候補を絞り込んでしまう。その結果、該当する商品を抽出することができまいことになってしまう。該当する候補が得られないと、利用者はストレスを感じてしまい、サービス性が
悪くなってしまう。
その他、一度入力されて確定した属性情報と、新たに入力された属性情報との距離に基づき、確認応答や次の動作を決定するというものがある(例えば特許文献1参照)。
特開2002-351492号公報 特開2002-189483号公報
従来技術においては、(前回の属性値に認識した属性値を上書きする方法)では、使わない属性値がある場合、「ブランドはクリア」等の言葉を発話しなければならず、利用者に余計な音声入力を行わせてしまい、手間をかけさせてしまう。また、(認識した属性値をそのまま設定する方法)では、前回設定した属性値についても、もう一度発話しなければならず、前者の方法と同様、利用者に余計な音声入力を行わせてしまう。
本発明の課題は、利用者が発話した属性条件により検索するシステムにおいて、利用者によけいな音声入力を行わせることなく、その検索のための属性条件の入力を効率的に行うための技術を提供することにある。
本発明は、上記課題を解決するためになされたものであり、利用者が発話した属性条件により検索するシステムであって、利用者が音声入力を行うマイクと、前記マイクを介して入力された入力音声データから属性値を認識する音声認識部と、前記音声認識部によって認識された属性値と属性との対応関係である抽出属性条件データを作成する抽出属性条件データ作成部と、前回の検索に使用した属性条件である保存属性条件データを保存した保存属性条件データベースと、前記抽出属性条件データと前記保存属性条件データとに基づいて今回の検索に使用する属性条件データを作成する属性条件判定部と、検索対象の候補データを格納する候補データベースと、前記属性条件データに基づいて前記候補データベースから候補データを検索する候補抽出部と、前記検索結果を含む画面を表示するディスプレイと、を備える構成とした。
本発明によれば、前記抽出属性条件データと前記保存属性条件データとに基づいて今回の検索に使用する属性条件データを作成することから、利用者によけいな音声入力を行わせることなく、その検索のための属性条件の入力を効率的に行わせることが可能となる。
上記システムにおいては、例えば、前記属性条件データを前記保存属性条件データベースに保存する整合処理部をさらに備えことが望ましい。
上記システムにおいては、例えば、前記属性条件判定部は、前記利用者の意図を類推することにより、前回の検索に使用した属性条件を引き継ぐか破棄するかを判断して、前記今回の検索に使用する属性条件データを作成する。
このようにすれば、利用者によけいな音声入力を行わせることなく、その検索のための属性条件の入力を効率的に行わせることが可能となる。
上記システムにおいては、例えば、前記整合処理部は、前記属性条件データがサブ属性を含む場合には、そのサブ属性によって他の属性条件を補完するようにすることが望ましい。
このようにすれば、入力効率を高めることができる。
上記システムにおいては、例えば、前記整合処理部は、前記属性条件データがサブ属性を含む場合には、前記保存属性条件データベースにサブ属性を保存し、前記属性条件データと一致し、保存属性条件データベースに保存されたサブ属性が一致又は近似となる未入力の属性条件を抽出し、追加する機能を備えるようにしてもよい
本発明は次のように特定することもできる。
利用者がマイクを介して入力した入力音声から属性値を抽出し、その属性値を含む検索条件を作成し、この検索条件により検索するシステムであって、前記検索後に、さらに利用者がマイクを介して音声入力した場合にその入力音声から属性値を抽出する手段とその属性値と前記検索条件とに基づいて新たな検索条件を作成する手段と、この新たな検索条件により検索する手段と、を備える音声による検索システム。
本発明は方法の発明として次のように特定することもできる。
利用者がマイクを介して入力した入力音声から属性値を抽出し、その属性値を含む検索条件を作成し、この検索条件により検索する方法であって、前記検索後に、さらに利用者がマイクを介して音声入力した場合にその入力音声から属性値を抽出するステップと、その属性値と前記検索条件とに基づいて新たな検索条件を作成するステップと、この新たな検索条件により検索するステップと、を備える音声による検索方法。
次に、本発明の手段について図9に示す原理図を参照しながら説明する。なお、従来例と同様の構成については同一の符号を付してある。
まず、本発明の概略構成について説明する。10は、利用者の音声入力を受け付けるマイクである。20は、ディスプレイである。100は、アプリケーションを制御するアプリケーション制御部であり、後述するように上記抽出属性条件データ作成部100aの機能を備えたものである。すなわち、アプリケーション制御部100は、本発明の抽出属性条件データ作成部としても機能する。
110は、マイクから入力された音声入力データを音声認識する音声認識部である。120は、利用者の発話された内容をもとに、属性値を設定する属性条件判定部である。130は、属性値の整合性を確認し、修正する整合処理部である。140は、候補データベース200を参照し、属性値から候補を抽出する候補抽出部である。150は、ディスプレイ20へ、画面を表示する画面表示部である。200は、候補データを蓄積する候補データベースである。210は、属性値データを蓄積する属性値データベースである。220は、属性値認識語データを蓄積する属性値認識語データベースである。230は、前回設定した属性値データを蓄積する保存属性条件データである。240は、候補認識語データを蓄積する候補認識語データベースである。
次に、本発明の作用について図9を参照しながら説明する。
アプリケーションが開始されると、図10に示すアプリケーション制御フローに従って、アプリケーション制御部100は、属性値データベース210を参照し、属性値認識語データを作成し(S20)、属性値認識語データベース220へ、属性値認識語データを登録する(S21)。また、音声認識部110へ、属性認識開始メッセージを送信し(S22)、画面表示部150へ、画面表示メッセージを送信する(S23)。
属性認識開始メッセージを受信した音声認識部110は、属性値認識語データベース220を認識語として属性の認識を開始する。
画面表示メッセージを受信した画面表示部150は、属性認識画面イメージをディスプレイ20に表示する。
利用者から属性値の発話が行われると、マイク10から、音声認識部110に音声入力データが送信される。
音声入力データを受信した音声認識部110は、音声認識を行い、アプリケーション制御部100へ、属性認識データを送信する。
属性認識データを受信したアプリケーション制御部100は、図10のアプリケーション制御フローに従って、属性値DB210を参照し、属性認識データの属性値を取得し(S24)、抽出属性条件データを作成する(S25)。引き続き、アプリケーション制御部100は、その作成した抽出属性条件データを属性条件判定部120へ送信する(S26)。
抽出属性条件データを受信した属性条件判定部120は、図11の属性設定判定部フローに従って、保存属性条件データベース230に、保存属性条件データが保存されているかを確認する(S27)。
保存属性条件データが保存されて無ければ(S27:No)、抽出属性条件データをそのまま用いて属性条件データを作成する(S30)。
保存属性条件データが保存されていれば(S27:Yes)、保存属性条件データを取得し(S28)、図12の属性設定処理フローに従って、属性設定処理を行い(S29)属性条件データを作成する(S30)。
次に属性設定処理について図12を参照しながら説明する。抽出属性条件データにサブ属性を持つ属性があり(S2900:Yes)、その他の属性もあれば(S2901:Yes)、抽出属性条件データのサブ属性を持つ属性、その他の属性の属性値を使用して、属性条件データを作成する(S2902)。また、抽出属性条件データにサブ属性を持つ属性があり(S2900:Yes)、その他の属性がなければ(S2901:No)、抽出属性条件データ、保存属性条件データのサブ属性を持つ属性の属性値が同じであるかを確認し(S2903)、同じであれば(S2903:Yes)、抽出属性条件データのサブ属性を持つ属性の属性値を使用して、属性条件データを作成し(S2904)、同じでなければ(S2903:No)、保存属性条件データのサブ属性を持つ属性以外の属性の属性値に抽出属性条件データのサブ属性を持つ属性の属性値を上書きする形で属性条件データを作成する(S2905)。
また、抽出属性条件データにサブ属性を持つ属性がなく(S2900:No)、抽出属性条件データと保存属性条件データの属性の属性値で同じものがある場合は(S2906:Yes)、抽出属性条件データの属性の属性値を使用して、属性条件データを作成する(S2907)。
また、抽出属性条件データにサブ属性を持つ属性がなく、抽出属性条件データと保存属性条件データの属性の属性値で同じものが無い場合は、保存属性条件データに抽出属性条件データを上書きする形で属性条件データを作成する(S2908)。属性条件判定部120は、その作成した属性条件データをアプリケーション制御部100へ送信する(S31)。
属性条件データを受信したアプリケーション制御部100は、図10のアプリケーション制御フローに従って、整合処理部130へ属性条件データを送信する(S32)。図1
3の整合処理部フローに従って、属性条件データがサブ属性を持つ属性を持っているかを確認する(S33)。
サブ属性を持つ属性を持っているならば(S33:Yes)、属性値DB210を参照し、その属性のサブ属性の属性値を取得する(S34)。属性条件データに、その取得したサブ属性の属性値を上書きする形で、整合属性条件データを作成する(S35)。サブ属性を持つ属性を持っていなければ、属性条件データをそのまま使用し、整合属性条件データを作成する。
その作成した整合属性条件データをアプリケーション制御部100へ送信する(S37)。
整合属性条件データを受信したアプリケーション制御部100は、図10のアプリケーション制御フローに従って、候補抽出部140へ整合属性条件データを送信する(S38)。
整合属性条件データを受信した候補抽出部140は、候補DB200を参照し、整合属性条件データの属性条件に合った候補データを抽出し、候補データを作成する。
候補抽出部140は、その作成した候補データをアプリケーション制御部100へ送信する。候補データを受信したアプリケーション制御部100は、図10のアプリケーション制御フローに従って、候補データから候補認識語データを作成し(S39)、候補認識語データベース240へ登録する(S40)。アプリケーション制御部100は、登録完了後、音声認識部110へ候補認識開始メッセージを送信する。また、アプリケーション制御部100は、画面表示部150へ画面表示メッセージを送信する(S41)。
候補認識開始メッセージを受信した音声認識部110は、候補認識を開始する。候補表示メッセージを受信した画面表示部150は、候補認識画面イメージをディスプレイ20に表示する。利用者から候補の発話が行われると、マイク10から、音声認識部110に音声入力データが送信される。音声入力データを受信した音声認識部110は、音声認識を行い、アプリケーション制御部100へ、候補認識データを送信する。
候補認識データを受信したアプリケーション制御部100は、図10のアプリケーション制御フローに従って、先ほど候補抽出部140より受信した候補データより、該当する1つの候補データを取得し(S42)、画面表示部150へ送信する(S43)。候補データを受信した画面表示部150は、候補の詳細情報をディスプレイ20へ表示する。
次に整合処理部130の処理について図14を参照しながら説明する。
アプリケーション制御部100から、属性条件データが整合処理部130へ送信される。属性条件データを受信した整合処理部130は、属性条件データのサブ属性を持つ属性を持っているかを確認する(S50)。属性条件データのサブ属性を持つ属性を持っているならば(S50:Yes)、属性値DB210を参照し、そのサブ属性を持つ属性の属性値を取得する(S51)。取得したら、属性条件データに、取得した属性値を上書きする形で、整合属性条件データを作成する(S52)。
また、属性条件データのサブ属性を持つ属性を持っていなければ(S50:No)、保存属性条件データにサブ属性を持つ属性が存在するかを確認する(S55)。保存属性条件データにサブ属性を持つ属性が存在しなければ(S55:No)、属性条件データをそのまま整合属性条件データとして作成する。
また、保存属性条件データにサブ属性を持つ属性が存在すれば(S55:Yes)、属性値DB210を参照し、属性条件データの持つすべての属性の属性値と一致する属性値を検索する(SS56)。一致する属性値が無ければ(S57:No)、属性条件データをそのまま整合属性条件データとして作成する。一致する属性値が有るならば(S57:Yes)、属性値DB210を参照し、属性条件データの持つ属性の属性値と、保存属性条件データのサブ属性を持つ属性のサブ属性の属性値を両方持つ属性値を検索する(S58)。該当する属性値が無ければ(S59:No)、サブ属性を持つ属性のサブ属性の属性値を変更して再検索する(S60)。
該当する属性値があれば(S59:Yes)、その該当する属性値のサブ属性を持つ属性のサブ属性の属性値を抽出し、 属性データにそのサブ属性の属性値を上書きする形で
、整合属性条件データを作成する(S61)。作成すると、アプリケーション制御部100へ整合属性条件データを送信する(S54)。
本発明によれば、利用者の発話内容(音声入力)から得られる属性値を含む抽出属性条件データと前回の属性値の設定情報である保存属性条件データとに基づいて利用者が選択したい属性値を類推して、今回の検索に使用する属性条件データを作成する。従って、必要の無い属性値は、「ブランドをクリア」等発話させること無く、また、前回、発話した内容をもう一度音声入力させること無く、利用者の設定したい属性値を設定することができる。よって、利用者に手間を取らせず、無駄の無い、使いやすい属性値の設定を行わせることができる。
また、化粧品のメーカとブランドのように依存関係にあるものについては、自動的に整合性をとることができるため、利用者が設定しようとする属性値の整合性が取れておらず、候補が絞り込まれないということを無くすことができる。よって、利用者は快適に音声入力サービスを利用することができる。
また、前回、属性にメーカT、車種C_Tが設定されており、次に、「メーカN」と発話すると、メーカNの車種の中で、メーカTの車種C_Tと同ランクの車種の抽出を行うことができる。これは、利用者にとって、メーカNの車種を知らなくても、同ランクの車種の情報を閲覧することができる。サービス性を向上することができる。
以下、本発明の第1実施形態である化粧品情報提供アプリケーション(化粧品情報検索システム)について図面を参照しながら説明する。
(化粧品情報提供アプリケーション)
図15は、本発明が適用された化粧品情報提供アプリケーション(化粧品情報検索システム)の原理図である。
化粧品情報提供アプリケーションは例えばPDA(Personal Digital Assistance)など
の携帯情報端末が所定プログラムを読み込んで実行することにより実現される。化粧品情報提供アプリケーションは、数万品目の化粧品の中から最終的に1つの化粧品(商品)を選択し、その最終的に選択された化粧品に関する情報(詳細情報)を商品詳細表示画面として表示する(図33参照)。
(化粧品情報提供アプリケーションの概略システム構成)
図15に示すように、化粧品情報提供アプリケーションは、アプリケーション制御部100、音声認識部110、属性条件判定部120、整合性処理部130、商品候補抽出部140、商品選択画面表示部150、整合属性条件表示制御部151、商品一覧表示制御
部152、商品詳細表示部150、商品候補データベース(以下商品候補DBという)200、属性値データベース(以下属性値DBという)210、属性値認識語データベース(以下属性値認識後DBという)220、保存属性条件データベース(以下保存属性条件DBという)230、商品認識語データベース(以下商品認識後DBという)240、及びアプリケーション起動部300などを備えている。
これらの機能はPDAなどの情報処理端末が所定プログラムを読み込んで実行することにより実現される。なお、商品候補DB200などのデータベースについてはこれを外部に設け、その外部データベースに必要に応じてアクセスしてデータを取得するようにしてもよい。
商品候補DB200には商品候補データ(数万品目の化粧品の候補データ)が蓄積(格納)されている。図16に商品候補データを例示する。同図中の横一列のデータ群が一つの商品候補データであることを示す。商品候補データは、商品詳細表示画面(図33参照)を構成する項目(商品名、属性(メーカ、ブランド、アイテム)、価格など)と、音声認識部110により認識語として用いられる項目(発音など)と、から構成されている。
属性値DB210には属性値と音声認識部110により認識語として用いられる発音との対応関係(属性値データ)が蓄積(格納)されている。図17に属性値データを例示する。属性値データは、属性(メーカ、ブランド、アイテム)ごとに設けられている。ブランドの属性値データは、さらに属性値とそのサブ属性である所属メーカとの対応関係も含む(図17参照)。なお、属性値データは、商品候補データ(図16参照)の属性が持つ属性値すべてを網羅している。
その他各部の機能やデータベースの内容については、以下の動作説明等により明確にされる。
次に、上記構成の化粧品情報提供アプリケーション(化粧品情報検索システム)の動作について図面を参照しながら説明する。図15及び図18は化粧品情報提供アプリケーション(化粧品情報検索システム)の動作について説明するための図である。
(化粧品情報提供アプリケーションの起動)
図15及び図18に示すように、利用者が化粧品情報提供アプリケーションを起動すると、アプリケーション起動部300は、アプリケーション制御部100へ起動メッセージを送る。起動メッセージを受け取ると(S100)、アプリケーション処理部100は、属性ごとに、属性値と音声認識部110により認識語として用いられる発音との対応関係(属性値認識語データ)を作成する(S101)。図19に属性値認識語データを例示する。この属性値認識語データは、属性値DB210(属性値データ)を参照して作成される。アプリケーション処理部300は、その作成した属性値認識語データを属性値認識語DB220に登録する(S102)。
この登録が完了すると、アプリケーション制御部100は、音声認識部110へ属性認識開始メッセージを送り(S103)、さらに、商品選択画面表示部150へ商品選択画面表示メッセージを送る(S104)。
属性認識開始メッセージを受け取ると、音声認識部110は音声認識を開始する。この音声認識は先ほど属性認識語DB220に登録された属性認識語データ(図19参照)を認識語として実行される。この音声認識により、利用者の発話内容から属性値を得る(抽出する)ことが可能となっている。
一方、商品選択画面表示メッセージを受け取ると、商品選択画面表示部150は、商品
選択画面イメージ(図20参照)をディスプレイ20に表示する。この商品選択画面イメージは「ご希望のメーカ、ブランド、アイテムをおっしゃってください。」などの、利用者に属性(メーカ、ブランド、アイテム)に関する発話(音声入力)を促す表示を含む。(発話)
この商品選択画面イメージを閲覧した利用者はマイク10に向かって所望の属性値を発話することになる。ここでは、利用者が「メーカKAのブランドV_Kの口紅」と発話したとする。メーカKAはメーカ属性の属性値、ブランドV_Kはブランド属性の属性値、口紅はアイテム属性の属性値である。
(属性の音声認識)
これは、利用者がマイク10を介して音声入力した場合にその入力音声から属性値(属性認識データ)を抽出するための処理である。
マイク10を介して入力された利用者の発話内容(入力音声データ)は音声認識部110へ送られる(S105)。入力音声データを受け取ると、音声認識部110は、その入力音声データに対して公知の音声認識(処理)を行う。具体的には、音声認識部110は、先ほど属性認識語DB220に登録された属性認識語データ(図19参照)を認識語として音声認識を実行する。
これにより、利用者の発話内容(ここでは「メーカKAのブランドV_Kの口紅」)から属性値(ここではメーカ属性値メーカKA、ブランド属性値ブランドV_K、アイテム属性値口紅)を認識(抽出)する。図21に認識結果を例示する。音声認識部110はこの認識結果(メーカKA、ブランドV_K、口紅)を属性認識データとしてアプリケーション制御部100へ送る(S106)。なお、ここでは、音声認識部110では利用者の一回(一連)の発話内容から複数の言葉を認識可能な音声認識エンジンを用いている。これは公知の技術である。
(属性条件判定)
図18に示すように、属性認識データ(ここではメーカKA、ブランドV_K、口紅)を受け取ると、アプリケーション制御部100は、その受け取った属性認識データを構成する個々の属性値(ここではメーカKA、ブランドV_K、口紅)と属性(メーカ、ブランド、アイテム)との対応関係(抽出属性条件データ)を作成する(S107、S108)。図22に抽出属性条件データを例示する。この抽出属性条件データは、属性値DB210(図17参照)を参照して個々の属性値に対応する属性を決定することで作成される(S107、S108)。アプリケーション制御部100は、その作成した抽出属性条件データ(図22参照)を属性条件判定部120へ送る(S109)。
図23に示すように、抽出属性条件データを受け取ると、属性条件判定部120は、商品候補DB200の検索条件(属性条件データ)を作成する。この属性条件データは、保存属性条件DB230に前回の商品絞り込み時(検索時)に用いた属性条件データ(保存属性条件データともいう)が登録されていれば、その保存属性条件データを考慮して作成される。
このために、属性条件判定部120は、まず保存属性条件DB230に保存属性条件データが登録されているか否かを判定する(S110)。ここでは、まだ利用者が「メーカKAのブランドV_Kの口紅」と発話しただけなので、保存属性条件DB230には保存属性条件データは保存されていない。従って、属性条件判定部120は、保存属性条件データが登録されていないと判定し(S110:No)、先ほど受け取った抽出属性条件データの持っている属性値(メーカKA、ブランドV_K、口紅)を、そのまま属性値として含む属性条件データを作成する(S113)。この属性条件データを図25に例示する。属性条件判定部120は、その作成した属性条件データをアプリケーション制御部100へ送る(S114)。なお、S110の判定の結果、保存属性条件データが登録されて
いると判定した場合(S110:Yes)の処理(S111からS114)については後述する。
(整合処理)
図15に示すように、属性条件判定部120から属性条件データを受け取ると、アプリケーション制御部100は、その受け取った属性条件データを整合処理部130に送る(S115)。図26に示すように、属性条件データを受け取ると、整合処理部130は、その受け取った属性条件データがブランド属性の属性値を含んでいるか否かを判定する(S116)。ここでは、属性条件データがブランド属性の属性値(ブランドV_K)を持っているので(S117:Yes)、整合処理部130は、属性値DB210のブランド属性の属性値データ(図17参照)を参照し、そのブランド属性の属性値(ブランドV_K)に対応するメーカサブ属性(所属メーカ)の属性値(メーカKA)を取得する(S117)。
整合処理部130は、この取得したメーカサブ属性の属性値(メーカKA)と先ほど受け取った属性条件データのメーカ属性の属性値(メーカKA)と比較する。この場合、両者が一致する、すなわちメーカ属性の属性値がメーカKAで正しい。この場合、整合処理部130は、先ほど受け取った属性条件データを整合属性条件データとして扱う(S118)。図27に整合属性条件データを例示する。なお、両者が一致しない場合等の処理については後述する。
以上のようにして整合属性条件データ(本発明の検索条件に相当)を得る。整合処理部130は、その整合属性条件データをアプリケーション制御部100へ送る(S119)。また、整合処理部130は、その整合属性条件データを保存属性条件データとして保存属性条件DB230へ登録(保存)する(S119)。
整合処理部130から整合属性条件データを受け取ると、アプリケーション制御部100は、その受け取った整合属性条件データを商品候補抽出部140へ送る(S120)。(商品候補抽出)
整合属性条件データを受け取ると、認識候補抽出部140は、その整合属性条件データ(図27参照)に対応する商品候補データを商品DB200(図16参照)から取得し(検索し)、アプリケーション制御部100へ送る(S121)。この商品候補データを図28に例示する。
(商品の音声認識開始)
商品候補データ(図28参照)を受け取ると、アプリケーション制御部100は、商品名と音声認識部110により認識語として用いられる発音との対応関係(商品認識語データ)を作成する。図29に商品認識語データを例示する。この商品認識語データは、先ほど受け取った商品候補データ(図28参照)からその商品名部分及び発音部分を抽出して作成される。アプリケーション制御部100は、その作成した商品認識語データ(図29参照)を商品認識語DB240に登録する(S122)。
この登録が完了すると、アプリケーション制御部100は、商品認識開始メッセージを音声認識部110へ送る(S123)。また、整合属性条件データ(図25参照)を整合属性条件表示制御部151へ送る(S124)。さらに商品候補データ(図28参照)を商品一覧表示制御部152へ送る(S125)。
商品認識開始メッセージを受け取ると、音声認識部110は音声認識を開始する。この音声認識は先ほど商品認識語DB240に登録された商品認識語データ(図29参照)を認識語として実行される。この音声認識により、利用者の発話内容から商品名を得ることが可能となっている。
一方、整合属性条件データ(図25参照)を受け取ると、属性条件表示制御部151は、商品選択画面表示部150へ属性表示指示する。また、商品候補データ(図28参照)を受け取ると、商品一覧表示制御部152は、商品選択画面表示部150へ商品表示指示する。その結果、ディスプレイ20には、商品選択画面イメージ(図30参照)が表示される。この商品選択画面イメージは「商品名をおっしゃってください」などの、利用者に商品名に関する発話(音声入力)を促す表示を含む。
(利用者、商品の発話)
この商品選択画面イメージを閲覧した利用者はマイク10に向かって所望の商品名を発話することになる。ここでは、利用者が商品選択画面イメージ(図30参照)に含まれる商品名リストの中から「商品100_V_K」と発話したとする。
(商品の音声認識)
マイク10を介して入力された利用者の発話内容(入力音声データ)は音声認識部110へ送られる(S126)。入力音声データを受け取ると、音声認識部110は、その入力音声データに対して公知の音声認識(処理)を行う。具体的には、音声認識部110は、先ほど商品認識語DB240に登録された商品認識語データ(図29参照)を認識語として音声認識を実行する。
これにより、利用者の発話内容(ここでは「商品100_V_K」)から商品名(ここでは商品100_V_K)を認識する。図31に認識結果を例示する。音声認識部110はこの認識結果(商品100_V_K)を商品認識データとしてアプリケーション制御部100へ送る(S127)。
(商品の情報提供)
商品認識データ(商品100_V_K)を受け取ると、アプリケーション制御部100は、その受け取った商品認識データに対応する商品候補データを作成する。図32に商品候補データを例示する。この商品候補データは、商品候補データ(例えば商品候補抽出部140から受取った商品候補データ)から、先ほど受け取った商品認識データに対応するものを抽出して作成される。アプリケーション制御部100は、その作成した商品候補データを商品詳細表示部160へ送る(S128)。
商品候補データ(図32参照)を受け取ると、商品詳細表示部160は、利用者が最終的に選択した商品(ここでは商品100_V_K)に関する情報(先ほど受け取った商品候補データ中の商品名などの詳細情報)を含む商品詳細表示画面イメージ(図33参照)をディスプレイ20に表示する。
(属性条件を代えて商品を検索)
利用者が商品詳細表示画面イメージ(図33参照)に表示されているボタン「前の画面に戻る」を押すと、商品詳細表示部160は、アプリケーション制御部100へ画面クローズメッセージを送る(S129)とともに商品詳細表示画面を閉じる。画面クローズメッセージを受け取ると、アプリケーション制御部100は、属性認識開始メッセージを音声認識部110へ送る。ディスプレイ20には、商品選択画面イメージ(図34参照)が表示される。
次に、この状況のもとで、利用者がさらに属性値を発話したとする。この場合、データの絞込みを効率的に行う等の観点から、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになる。この処理について図面を参照しながら説明する。
(パターン1:利用者が前回の発話内容とは異なるメーカ属性値を発話した場合)
これは、図35中パターン1の列に相当する。このパターン1の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容とは異なるメーカの属性値(ここではメーカS)と発話した場合に作成される、抽出属性条件データ、属性条件デー
タ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、図23に示すように、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら詳細に説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン1列に示した抽出属性条件データにはブランド属性値がないので、ブランド属性がないと判定され(S128:No)、さらに抽出属性条件データにメーカ属性値があるか否かが判定される(S129)。パターン1列に示した抽出属性条件データにはメーカ属性値(メーカS)があるので、メーカ属性値ありと判定され(S129:Yes)、さらに抽出属性条件データにアイテムの属性値があるか否かが判定される(S130)。パターン1列に示した抽出属性条件データにはアイテム属性値がないので、アイテム属性値がないと判定され(S130:No)、さらに抽出属性条件データと保存属性データのメーカ属性値が同じか否かが判定される(S131)。ここでは、両者の属性値は異なるので、同じでないと判定される(S131:No)。この場合、先ほどS111で取得した保存属性条件データのアイテム属性値(ここでは口紅)と、抽出属性条件データのメーカ属性値(メーカS)とを含む属性条件データを作成する(S132)。
これは、今回の発話内容が前回の発話内容とは異なるメーカ属性値だけを含む場合には、(1)今回の発話内容に含まれていたメーカ属性値(ここではメーカS)を今回の属性条件データに用いる、(2)前回の発話内容に含まれていたブランド属性値(ここではブランドV_K)を今回の属性条件データには用いない(削除する)、(3)前回の発話内容に含まれていたアイテム属性値(ここでは口紅)を今回の属性条件データに引き継ぐ、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
これは、上記S116からS119の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値を持っていないので(S116:No)、その属性条件データを整合属性条件データ(本発明の新たな検索条件に相当。以下のパターンも同様。)として扱う。この場合、属性条件データは編集されない。
図35パターン1列最下段に示した整合属性条件データは以上のようにして得られたものである。この整合属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン1においては、利用者はメーカ属性値(ここではメーカS)を音声入力しただけであるが、整合属性条件データを参照すると、アイテム属性も設定されている。さらに、ブランド属性が削除されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン2:利用者が前回の発話内容とは異なるブランド属性値を発話した場合)
これは、図35中パターン2の列に相当する。このパターン2の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容とは異なるブランド属性値(ここではブランドO_KA)と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、図23に示すように、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら詳細に説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン2列に示した抽出属性条件データにはブランド属性値があるので、ブランド属性値があると判定され(S128:Yes)、さらに抽出属性条件データにアイテム属性値があるか否かが判定される(S133)。パターン2列に示した抽出属性条件データにはアイテム属性値がないので、アイテム属性値なしと判定され(S133:No)、さらに抽出条件データと保存属性データのブランド属性値が同じか否かが判定される(S134)。ここでは、両者の属性値は異なるので、同じでないと判定される(S134:No)。この場合、先ほどS111で取得した保存属性条件データのアイテム属性値(ここでは口紅)と、抽出属性条件データのブランド属性値(ここではブランドO_KA)とを含む属性条件データを作成する(S135)。
これは、今回の発話内容が前回の発話内容とは異なるブランド属性値だけを含む場合には、(1)前回の発話内容に含まれていたメーカ属性値(ここではメーカKA)を今回の属性条件データには用いない(削除する)、(2)今回の発話内容に含まれていたブランド属性値(ここではブランドO_KA)を今回の属性条件データに用いる、(3)前回の発話内容に含まれていたアイテム属性値(ここでは口紅)を今回の属性条件データに引き継ぐ、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
これは、上記S116からS119の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値(ブランドO_KA)を持っているので(S116:Yes)、属性値DB210のブランド属性の属性値データ(図17参照)を参照し、そのブランド属性の属性値(ブランドO_KA)に対応するメーカサブ属性の属性値(ここではメーカKA)を取得する(S117)。そして、この取得したメーカサブ属性(所属メーカ)の属性値(ここではメーカKA)と属性条件データのメーカ属性の属性値(ここでは空白)と比較する。この場合、両者は一致しない。すなわち、正しい組合せでないことから、属性条件データのメーカ属性の属性値部分(ここでは空白)を、S117で取得した属性値(ここではメーカKA)で正した(編集した)属性条件データ(整合属性条件データ)を作成する。
図35パターン2列最下段に示した抽出属性条件データは以上のようにして得られたものである。この抽出属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン2においては、利用者はブランド属性値(ここではブランドO_KA)を音声入力しただけであるが、整合属性条件データを参照すると、メーカ属性及びアイテム属性も設定されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン3:利用者が前回の発話内容とは異なるアイテム属性値を発話した場合)
これは、図35中パターン3の列に相当する。このパターン3の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容とは異なるアイテム属性値(ここではマニキュア)と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら詳細に説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン3列に示した抽出属性条件データにはブランド属性値がないので、ブランド属性値がないと判定され(S128:No)、さらに抽出属性条件データにメーカ属性値があるか否かが判定される(S129)。パターン3列に示した抽出属性条件データにはメーカ属性値がないので、メーカ属性値なしと判定され(S129:No)、さらに抽出属性条件データと保存属性条件データのアイテム属性値が同じか否かが判定される(S136
)。ここでは、両者の属性値は異なるので、同じでないと判定される(S136:No)。この場合、先ほどS111で取得した保存属性条件データのブランド属性値(ここではブランドV_K)と、抽出属性条件データのアイテム属性値(ここではマニキュア)と、メーカ属性の属性値(ここではメーカKA)とを含む属性条件データを作成する(S137)。
これは、今回の発話内容が前回の発話内容とは異なるアイテム属性値だけを含む場合には、(1)前回の発話内容に含まれていたメーカ属性値(ここではメーカKA)及びブランド属性値(ここではブランドV_K)を今回の属性条件データに引き継ぐ、(2)今回の発話内容に含まれていたアイテム属性値(ここではマニキュア)を今回の属性条件データに用いる、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
これは、上記S116からS119の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値(ブランドV_K)を持っているので(S116:Yes)、属性値DB210のブランド属性の属性値データ(図17参照)を参照し、そのブランド属性の属性値(ブランドV_K)に対応するメーカサブ属性の属性値(ここではメーカKA)を取得する(S117)。そして、この取得したメーカサブ属性(所属メーカ)の属性値(ここではメーカKA)と属性条件データのメーカ属性の属性値(メーカKA)と比較する。この場合、両者は一致する。この場合、先ほど受け取った属性条件データを整合属性条件データとして扱う。この場合、属性条件データは編集されない。
図35パターン3列最下段に示した抽出属性条件データは以上のようにして得られたものである。この抽出属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン3においては、利用者はアイテム属性値(ここではマニキュア)を音声入力しただけであるが、整合属性条件データを参照すると、メーカ属性及びブランド属性も設定されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン4:利用者が前回の発話内容とは異なるメーカ及びアイテムの属性値を発話した場合)
これは、図35中パターン4の列に相当する。このパターン4の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容とは異なるメーカ及びアイテムの属性値(ここではメーカSのマニキュア)と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら詳細に説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン4列に示した抽出属性条件データにはブランド属性値がないので、ブランド属性値がないと判定され(S128:No)、さらに抽出属性条件データにメーカ属性値があるか否かが判定される(S129)。パターン4列に示した抽出属性条件データにはメーカ属性値があるので、メーカ属性値ありと判定され(S129:Yes)、さらに抽出属性条件データにアイテム属性があるか否かが判定される(S130)。パターン4列に示した抽出属性条件データにはアイテム属性値があるので、アイテム属性値ありと判定される(S130:Yes)。この場合、抽出属性条件データのメーカ及びアイテムの属性値(ここではメーカS及びマニキュア)を含む属性条件データを作成する(S138)。
これは、今回の発話内容が前回の発話内容とは異なるメーカ及びアイテム属性値だけを含む場合には、(1)今回の発話内容に含まれていたメーカ及びアイテムの属性値(ここではメーカS及びマニキュア)を今回の属性条件データに用いる、(2)前回の発話内容に含まれていたブランド属性値(ブランドV_K)を今回の属性条件データには用いない(削除する)、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値を持っていないので(S116:No)、属性条件データを整合属性条件データとして扱う。この場合、属性条件データは編集されない。
図35パターン4列最下段に示した整合属性条件データは以上のようにして得られたものである。この抽出属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン4においては、利用者はメーカ属性値及びアイテム属性値(ここではメーカS及びマニキュア)を音声入力しただけであるが、整合属性条件データを参照すると、これらメーカ属性値及びアイテム属性値が設定されるとともに、ブランド属性値が削除されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン5:利用者が前回の発話内容とは異なるブランド及びアイテムの属性値を発話した場合)
これは、図35中パターン5の列に相当する。このパターン5の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容とは異なるブランド及びアイテムの属性値「ブランドO_KAのマニキュア」と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、図23に示すように、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら詳細に説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン5列に示した抽出属性条件データにはブランド属性値があるので、ブランドの属性値があると判定され(S128:Yes)、さらにパターン5列に示した抽出属性条件データにアイテム属性値があるか否かが判定される(S133)。パターン5列に示した抽出属性条件データにはアイテム属性値があるので、アイテム属性値ありと判定される(S133:Yes)。この場合、抽出属性条件データのブランド及びアイテムの属性値(ここではブランドO_KA及びマニキュア)を含む属性条件データを作成する(S139)。
これは、今回の発話内容が前回の発話内容とは異なるブランド及びアイテム属性値だけを含む場合には、(1)前回の発話内容に含まれていたブランド及びアイテムの属性値(ここではブランドO_KA及びマニキュア)を今回の属性条件データに引き継ぐ、(2)前回の発話内容に含まれていたメーカ属性値(ここではメーカKA)を今回の属性条件データには用いない(削除する)、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
これは、上記S116からS119の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値(ブランドO_KA)を持っているので(S116:Yes)、属性値DB210のブランド属性の属性値データ(図17参照)を参照し、そのブランド属性の属性値(ブランドO_KA)に対応するメーカサブ属性の属性値(ここではメーカKA)を取得する(S117)。そして、この取得したメーカサブ属性(所属メーカ)の属性値(ここではメーカKA)と属性条件データのメーカ属性の属性値(ここでは空白)と比較する。この場合、両者は一致しない。すなわち、正しい組合せでないことから、属性条件データのメーカ属性の属性値部分(ここでは空白)を、先ほど取得した属性値(ここではメーカKA)で正した(編集した)属性値条件データ(整合属性条件データ)を作成する。
図35パターン2列最下段に示した抽出属性条件データは以上のようにして得られたものである。この抽出条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン5においては、利用者はブランド属性及びアイテム属性の属性値(ここではブランドO_KA及びマニキュア)を音声入力しただけであるが、整
合属性条件データを参照すると、メーカ属性値も設定されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン6:利用者が前回の発話内容とは異なるメーカ及びブランドの属性値を発話した場合)
これは、図35中パターン6の列に相当する。このパターン6の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者がメーカ及びブランドの属性値「メーカKAのブランドO_KA」と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、図23に示すように、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら詳細に説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン6列に示した抽出属性条件データにはブランド属性値があるので、ブランド属性値があると判定され(S128:Yes)、さらに抽出属性条件データにアイテム属性値があるか否かが判定される(S133)。パターン6列に示した抽出属性条件データにはアイテム属性値がないので、アイテム属性値なしと判定され(S133:No)、さらに抽出条件データと保存属性条件データのブランド属性値が同じか否かが判定される(S134)。ここでは、両者の属性値は異なるので、同じでないと判定される(S134:No)。この場合、先ほどS111で取得した保存属性条件データのアイテム属性値(ここでは口紅)と、抽出属性条件データのメーカ及びブランド属性値(ここではメーカKA及びブランドO_KA)とを含む属性条件データを作成する(S135)。
これは、今回の発話内容が前回の発話内容とは異なるメーカ及びブランドの属性値だけを含む場合には、今回の発話内容に含まれていたメーカ及びブランドの属性値(ここではメーカKA及びブランドO_KA)を今回の属性条件データに用いる、前回の発話内容に含まれていたアイテム属性値(ここでは口紅)を今回の属性条件データに引き継ぐ、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値(ブランドO_KA)を持っているので(S116:Yes)、属性値DB210のブランド属性の属性値データ(図17参照)を参照し、そのブランド属性の属性値(ブランド
O_KA)に対応するメーカサブ属性の属性値(ここではメーカKA)を取得する(S117)。そして、この取得したメーカサブ属性(所属メーカ)の属性値(メーカKA)と属性条件データのメーカ属性の属性値(メーカKA)と比較する。この場合、両者は一致する。この場合、属性条件データを整合属性条件データとして扱う。
図35パターン6列最下段に示した抽出属性条件データは以上のようにして得られたものである。この抽出属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン6においては、利用者はメーカ属性及びブランド属性の属性値(ここではメーカS及びブランドO_KA)を音声入力しただけであるが、整合属性条件データを参照すると、アイテム属性値も設定されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン7:利用者が前回の発話内容と同じメーカの属性値を発話した場合)
これは、図36中パターン7の列に相当する。このパターン7の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容と同じメーカの属性値(ここではメーカKA)と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、図23に示すように、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら詳細に説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン7列に示した抽出属性条件データにはブランド属性値がないので、ブランド属性値がないと判定され(S128:No)、さらに抽出属性条件データにメーカ属性値があるか否かが判定される(S129)。パターン7列に示した抽出属性条件データにはメーカ属性値(メーカKA)があるので、メーカ属性値ありと判定され(S129:Yes)、さらに抽出属性条件データにアイテム属性があるか否かが判定される(S130)。パターン7列に示した抽出属性条件データにはアイテム属性がないので、アイテム属性がないと判定され(S130:No)、さらに抽出条件データと保存属性データのメーカの属性値が同じか否かが判定される(S131)。ここでは、両者の属性値は同じなので、同じと判定される(S131:Yes)。この場合、抽出属性条件データのメーカの属性値(ここではメーカKA)を含む属性条件データを作成する(S140)。
これは、今回の発話内容が前回の発話内容と同じメーカ属性値だけを含む場合には、(
1)今回の発話内容に含まれていたメーカ属性値(ここではメーカKA)を今回の属性条件データに用いる、前回の発話内容に含まれていたブランド及びアイテムの属性値(ここではブランドV_K及び口紅)を今回の属性条件データには用いない(削除する)、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
これは、上記S116からS119の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値を持っていないので(S116:No)、属性条件データを整合属性条件データとして扱う。この場合、属性条件データは編集されない。
図36パターン7列最下段に示した抽出属性条件データは以上のようにして得られたものである。この抽出属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン7においては、利用者はメーカ属性値(ここではメーカKA)を音声入力しただけであるが、整合属性条件データを参照すると、ブランド及びアイテム属性が削除されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン8:利用者が前回の発話内容と同じブランドの属性値を発話した場合)
これは、図36中パターン8の列に相当する。このパターン8の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容と同じブランドの属性値「ブランドV_K」と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、図23に示すように、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン8列に示した抽出属性条件データにはブランド属性値があるので、ブランド属性があると判定され(S128:Yes)、さらに抽出属性条件データにアイテム属性値があるか否かが判定される(S133)。パターン8列に示した抽出属性条件データにはアイテム属性値がないので、アイテム属性値なしと判定され(S133:No)、さらに抽
出条件データと保存属性データのブランド属性値が同じか否かが判定される(S134)。ここでは、両者の属性値は同じなので、同じと判定される(S134:Yes)。この場合、抽出属性条件データのブランド属性値(ここではブランドV_K)を含む属性条件データを作成する(S141)。
これは、今回の発話内容が前回の発話内容と同じブランド属性値だけを含む場合には、(1)前回の発話内容に含まれていたメーカ及びアイテムの属性値(ここではメーカKA及び口紅)を今回の属性条件データには用いない(削除する)、(2)今回の発話内容に含まれていたブランドの属性値(ここではブランドV_K)を今回の属性条件データに用いる、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
これは、上記S116からS119の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値(ブランドV_K)を持っているので(S116:Yes)、属性値DB210のブランド属性の属性値データ(図17参照)を参照し、そのブランド属性の属性値(ブランドV_K)に対応するメーカサブ属性の属性値(ここではメーカKA)を取得する(S117)。そして、この取得したメーカサブ属性(所属メーカ)の属性値(メーカKA)と属性条件データのメーカ属性の属性値(ここでは空白)と比較する。この場合、両者は一致しない。すなわち、正しい組合せでないことから、属性条件データのメーカ属性の属性値部分(空白)を、先ほど取得した属性値(ここではメーカKA)で正した(編集した)属性値条件データ(整合属性条件データ)を作成する。
以上のようにして得られた図36パターン8列最下段に示した抽出属性条件データは以上のようにして得られたものである。この抽出属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン8においては、利用者はブランド属性値(ここではブランドV_K)を音声入力しただけであるが、整合属性条件データを参照すると、メーカ属性値も設定されている。またアイテム属性値が削除されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン9:利用者が前回の発話内容と同じアイテムの属性値を発話した場合)
これは、図36中パターン9の列に相当する。このパターン9の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容と同じアイテムの属性値(ここでは口紅)と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
具体的には、図23に示すように、まず保存属性条件DB230に保存属性条件データ(図27参照)が登録されているか否かを判定する(S110)。ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン9列に示した抽出属性条件データにはブランド属性値がないので、ブランド属性値がないと判定され(S128:No)、さらに抽出属性条件データにメーカ属性値があるか否かが判定される(S129)。パターン9列に示した抽出属性条件データにはメーカ属性値がないので、メーカ属性値なしと判定され(S129:No)、さらに抽出属性条件データと保存属性条件データのアイテム属性値が同じか否かが判定される(S136)。ここでは、両者の属性値は同じなので、同じと判定される(S136:Yes)。この場合、抽出属性条件データのアイテムの属性値(ここでは口紅)を含む属性条件データを作成する(S142)。
これは、今回の発話内容が前回の発話内容と同じアイテム属性値だけを含む場合には、(1)前回の発話内容に含まれていたメーカ及びブランドの属性値(ここではメーカKA及びブランドV_K)を今回の属性条件データでは用いない(削除する)、(2)今回の発話内容に含まれていたアイテムの属性値(ここでは口紅)を今回の属性条件データに用いる、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
これは、上記S116からS119の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値を持っていないので(S116:No)、属性条件データを整合属性条件データとして扱う。この場合、属性条件データは編集されない。
図36パターン9列最下段に示した整合属性条件データは以上のようにして得られたものである。この整合属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン9においては、利用者はアイテム属性値(ここでは口紅)を音声入力しただけであるが、整合属性条件データを参照すると、メーカ属性値及びブランド属性値が削除されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。(パターン10:利用者が前回の発話内容と同じメーカ及びアイテムの属性値を発話した場合)
これは、図36中パターン10の列に相当する。このパターン10の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容と同じメーカ及びアイテムの属性値(ここではメーカKAの口紅)と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、図23に示すように、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン10列に示した抽出属性条件データにはブランド属性値がないので、ブランド属性値がないと判定され(S128:No)、さらに抽出属性条件データにメーカ属性値があるか否かが判定される(S129)。パターン10列に示した抽出属性条件データにはメーカ属性値があるので、メーカ属性値ありと判定され(S129:Yes)、さらに抽出属性条件データにアイテム属性値があるか否かが判定される(S130)。パターン10列に示した抽出属性条件データにはアイテム属性値があるので、アイテム属性値ありと判定される(S130:Yes)。この場合、抽出属性条件データのメーカ及びアイテムの属性値(ここではメーカKA及び口紅)を含む属性条件データを作成する(S138)。
これは、今回の発話内容が前回の発話内容と同じメーカ及びアイテム属性値だけを含む場合には、(1)今回の発話内容に含まれていたメーカ及びアイテムの属性値(ここではメーカKA及び口紅)を今回の属性条件データで使用する、前回の発話内容に含まれていたブランドの属性値(ここではブランドV_K)を今回の属性条件データには用いない(削除する)、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
これは、上記S116からS119の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値を持っていないので(S116:No)、属性条件データを整合属性条件データとして扱う。この場合、属性条件データは編集されない。
図36パターン10列最下段に示した整合属性条件データは以上のようにして得られたものである。この抽出属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン10においては、利用者はメーカ及びアイテムの属性値(ここではメーカKA及び口紅)を音声入力しただけであるが、整合属性条件データを参照すると、ブランド属性が削除されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力
負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン11:利用者が前回の発話内容と同じブランド及びアイテムの属性値を発話した場合)
これは、図36中パターン11の列に相当する。このパターン11の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容と同じブランド及びアイテムの属性値(ここではブランドV_Kの口紅)と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、図23に示すように、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン11列に示した抽出属性条件データにはブランド属性値があるので、ブランド属性値があると判定され(S128:Yes)、さらにパターン11列に示した抽出属性条件データにアイテム属性値があるか否かが判定される(S133)。パターン11列に示した抽出属性条件データにはアイテム属性値があるので、アイテム属性値ありと判定される(S133:Yes)。この場合、抽出属性条件データのブランド及びアイテムの属性値(ここではブランドV_K及び口紅)を含む属性条件データを作成する(S139)。
これは、今回の発話内容が前回の発話内容と同じブランド及びアイテム属性値だけを含む場合には、(1)今回の発話内容に含まれていたブランド及びアイテムの属性値(ここではブランドV_K及び口紅)を今回の属性条件データで用いる、前回の発話内容に含まれていたメーカの属性値(ここではメーカKA)を今回の属性条件データには用いない(削除する)、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
これは、上記S24からS28の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値(ブランドV_K)を持っているので(S116:Yes)、属性値DB210のブランド属性の属性値データ(図17参照)を参照し、そのブランド属性の属性値(ブランドV_K)に対応するメーカサブ属性の属性値(ここではメーカKA)を取得する(S117)。そして、この取得したメーカサブ属性(所属メーカ)の属性値(メーカKA)と属性条件データのメーカ属性の属性値(ここでは空白)と比較する。この場合、両者は一致し
ない。すなわち、正しい組合せでないことから、属性条件データのメーカ属性の属性値部分(空白)を、先ほどで取得した属性値(メーカKA)で正した(編集した)属性値条件データ(整合属性条件データ)を作成する。
図36パターン11列最下段に示した抽出属性条件データは以上のようにして得られたものである。この抽出属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン11においては、利用者はメーカ属性値(ここではブランドV_K、口紅)を音声入力しただけであるが、整合属性条件データを参照すると、メーカ属性値も設定されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
(パターン12:利用者が前回の発話内容と同じメーカ及びブランドの属性値を発話した場合)
これは、図36中パターン12の列に相当する。このパターン12の列は、前回の発話内容から得られた属性条件(ここでは図27に示す保存属性条件データ)が保存属性条件データベース230へ登録されている状況の下で、利用者が前回の発話内容と同じメーカ及びブランドの属性値(ここではメーカKAのブランドV_K)と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データを示したものである。
これらのデータは図24に示すフローチャートなどに従って作成される。次にこれらのデータがどのようにして作成されるかについて説明する。
(抽出属性条件データ)
これは、上記S107からS109の処理により作成される。
(属性条件データ)
これは、上記S110からS114の処理により作成される。
ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、図23に示すように、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データを作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図24を参照しながら説明する。
まず、抽出属性条件データにブランド属性値があるか否かが判定される(S128)。パターン12列に示した抽出属性条件データにはブランド属性値があるので、ブランド属性があると判定され(S128:Yes)、さらに抽出属性条件データにアイテム属性値があるか否かが判定される(S133)。パターン6列に示した抽出属性条件データにはアイテム属性値がないので、アイテム属性値なしと判定され(S133:No)、さらに抽出条件データと保存属性データのブランド属性値が同じか否かが判定される(S134)。ここでは、両者の属性値は同じなので、同じと判定される(S134:Yes)。この場合、抽出属性条件データのメーカ及びブランドの属性値(ここではメーカKA及びブランドV_K)を含む属性条件データを作成する(S141)。
これは、今回の発話内容が前回の発話内容と同じメーカ及びブランドの属性値だけを含む場合には、(1)今回の発話内容に含まれていたメーカ及びブランドの属性値(ここではメーカKA及びブランドV_K)を今回の属性条件データに用いる、(2)前回の発話
内容に含まれていたアイテムの属性値(ここでは口紅)を今回の属性条件データに用いない(廃棄する)、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図26を参照しながら説明する。
これは、上記S116からS119の処理により作成される。
まず属性条件データがブランド属性の属性値を持っているか否か(含むか否か)を判定する(S116)。ここでは、先ほど作成された属性条件データがブランド属性の属性値(ブランドV_K)を持っているので(S116:Yes)、属性値DB210のブランド属性の属性値データ(図17参照)を参照し、そのブランド属性の属性値(ブランドV_K)に対応するメーカサブ属性の属性値(ここではメーカKA)を取得する(S117)。そして、この取得したメーカサブ属性(所属メーカ)の属性値(メーカKA)と属性条件データのメーカ属性の属性値(メーカKA)と比較する。この場合、両者は一致する。この場合、属性条件データを整合属性条件データとして扱う。
図36パターン12列最下段に示した抽出属性条件データは以上のようにして得られたものである。この抽出属性条件データはアプリケーション制御部100へ送られ(S119)、以後上述したのと同様の処理が行われる。
以上説明したように、パターン12においては、利用者はメーカ及びブランド属性(ここではメーカKA及びブランドV_K)を音声入力しただけであるが、アイテム属性が削除されている。このように、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになることから、利用者の音声入力負担を軽減でき(音声入力効率を高め)、しかもデータの絞込みを効率的に行うことが可能となる。
次に、本発明の第2実施形態である車情報提供アプリケーション(車情報検索システム)について図面を参照しながら説明する。
(車情報提供アプリケーション)
車情報提供アプリケーション(車情報検索システム)は上記第1実施形態で説明した化粧品情報提供アプリケーションと同様であるので、図15を参照しながら、相違部分を中心に説明する。
車情報提供アプリケーションは例えばPDA(Personal Digital Assistance)などの携
帯情報端末が所定プログラムを読み込んで実行することにより実現される。車情報提供アプリケーションは、多品目の自動車の中から最終的に1つの化粧品(商品)を選択し、その最終的に選択された化粧品に関する情報(詳細情報)を商品詳細表示画面として表示する(図45参照)。
(車情報提供アプリケーションの概略システム構成)
商品候補DB200には商品候補データ(多品目の自動車の候補データ)が蓄積(格納)されている。図37に商品候補データを例示する。同図中の横一列のデータ分が一つの商品候補データであることを示す。商品候補データは、商品詳細表示画面(図45参照)を構成する項目(商品名、属性(メーカ、車種、タイプ)、価格など)と、音声認識部110により認識語として用いられる項目(発音など)と、から構成されている。
属性値DB210には属性値と音声認識部110により認識語として用いられる発音との対応関係(属性値データ)が蓄積(格納)されている。図38に属性値データを例示する。属性値データは、属性(メーカ、車種、タイプ)ごとに設けられている。車種の属性値データは、さらに属性値とそのサブ属性(メーカ、タイプ、ランク)との対応関係も含む(図38参照)。
その他の構成については、上記化粧品情報提供アプリケーションと同様であるので、同一の符号を付してその説明を省略する。
次に、上記構成の車情報提供アプリケーション(車情報検索システム)の動作について図面を参照しながら説明する。
(車情報提供アプリケーションの起動)
利用者が車情報提供アプリケーションを起動すると、商品選択画面イメージが表示される(図39)。これは、上記化粧品情報提供アプリケーションの実施形態における商品選択画面イメージ(図20参照)を表示するまでの処理と同様である(図18、S100からS104)。
(発話)
この商品選択画面イメージを閲覧した利用者はマイク10に向かって所望の属性値を発話することになる。ここでは、利用者が「メーカTの車種C_T」と発話したとする。
(属性の音声認識)
これは、上記化粧品情報提供アプリケーションの実施形態における音声認識部110による処理(図18、S107からS109)と同様の処理であることから、同様の符号を付して説明する。
音声認識部110は、マイク10を介して入力された利用者の発話内容(入力音声データ)に対して公知の音声認識(処理)を行うことにより、利用者の発話内容から属性値(ここでは(メーカ属性値(メーカT)、車種属性値(車種C_T))を認識する。図40に認識結果を例示する。音声認識部はこの認識結果(メーカT、車種C_T)を属性認識データとしてアプリケーション制御部110へ送る。
(属性条件判定)
図18に示すように、属性認識データ(ここではメーカT、車種C_T)を受け取ると、アプリケーション制御部100は、その受け取った属性認識データを構成する個々の属性値(ここではメーカT、車種C_T)と属性(メーカ、車種)との対応関係(抽出属性条件データ)を作成する(S107、S108)。図41に抽出属性条件データを例示する。この抽出属性条件データは、属性値DB210(図38参照)を参照して個々の属性値に対応する属性を決定することで作成される(S107、S108)。アプリケーション制御部100は、その作成した抽出属性認識データ(図41参照)を属性条件判定部120へ送る(S109)。
抽出属性条件データを受け取ると、属性条件判定部120は、商品候補DB200の検索条件(属性条件データ)を作成する。この属性条件データは保存属性条件DB230に前回の商品絞り込み時(検索時)に用いた属性条件データ(保存属性条件データともいう)が登録されていれば、その保存属性条件データを考慮して作成される。これは、上記化粧品情報提供アプリケーションの実施形態における属性条件判定部120による処理(図23、S110からS114)と同様の処理であることから、同様の符号を付して説明する。
属性条件データを作成するために、属性条件判定部120は、まず保存属性条件DB230に保存属性条件データが登録されているか否かを判定する(S110)。ここでは、まだ利用者が「メーカTの車種C_T」と発話しただけなので、保存属性条件DB230には保存属性条件データは保存されていない。従って、属性条件判定部120は、保存属性条件データが登録されていないと判定し(S110:No)、先ほど受け取った抽出属性条件データの持っている属性値(メーカT、車種C_T)を、そのまま属性値として含む属性条件データを作成する(S113)。この属性条件データを図43に例示する。属性条件判定部120は、その作成した属性条件データをアプリケーション制御部100へ
送る(S114)。なお、S110の判定の結果、保存属性条件データが登録されていると判定した場合(S110:Yes)の処理(S111からS114)についてはさらに後述する。
(整合処理)
図15に示すように、属性条件判定部120から属性条件データを受け取ると、アプリケーション制御部100は、その受け取った属性条件データを整合処理部130に送る。図42に示すように、属性条件データを受け取ると、整合処理部130は、その受け取った属性条件データが車種属性の属性値を含んでいるか否かを判定する(S200)。ここでは、属性条件データが車種属性の属性値(車種C_T)を持っているので(S200:Yes)、整合処理部130は、属性値DB210の車種属性の属性値データ(図38参照)を参照し、その車種属性の属性値(車種C_T)に対応する車種の属性値のメーカサブ属性とタイプサブ属性とランクサブ属性の属性値(メーカT、セダン、A)を取得する(S201)。そして、整合処理部130は、属性条件データを編集することで、その取得した属性値(メーカT、セダン)を含む整合属性条件データを作成する(S202)。この整合属性条件データを図43bに例示する。なお、車種属性の属性値を持っていなければ、保存属性条件データのランク属性に基づいて編集する。
以上のようにして整合属性条件データを得ると、整合処理部130は、その整合属性条件データをアプリケーション制御部100へ送る(S203)。また、整合処理部130は、その整合属性条件データに先ほど取得したランクサブ属性の属性値(A)を付加した保存属性条件データを作成し、これを保存属性条件DB230へ登録(保存)する。
整合処理部130から整合属性条件データを受け取ると、アプリケーション制御部100は、その受け取った整合属性条件データを商品候補抽出部140へ送る。
(商品候補抽出)
これは、上記化粧品情報提供アプリケーションの実施形態における認識候補抽出部140による処理と同様の処理である。
整合属性条件データを受け取ると、認識候補抽出部140は、その整合属性条件データ(図43b)に対応する商品候補データを商品DB200(図16参照)から取得し(読み出し)、アプリケーション制御部100へ送る。この商品候補データを図37に例示する。
(商品の音声認識開始)
これは、上記化粧品情報提供アプリケーションの実施形態におけるS122からS127の処理と同様の処理であることから、同様の符号を付して説明する。
商品候補データ(図37参照)を受け取ると、アプリケーション制御部100は、商品名と音声認識部110により認識語として用いられる発音との対応関係(商品認識語データ)を作成する。ここでは図29の商品認識語データに相当するものが作成される。この商品認識語データは、先ほど受け取った商品候補データからその商品名部分及び発音部分を抽出して作成される。アプリケーション制御部100は、その作成した商品認識語データを商品認識語DB240に登録する(S122)。
この登録が完了すると、アプリケーション制御部100は、商品認識開始メッセージを音声認識部110へ送る(S123)。また、整合属性条件データ(図43b参照)を整合属性条件表示制御部151へ送る(S124)。さらに商品候補データ(図28参照)を商品一覧表示制御部152へ送る(S125)。
商品認識開始メッセージを受け取ると、音声認識部110は音声認識を開始する。この音声認識は先ほど商品認識語DB240に登録された商品認識語データを認識語として実
行される。この音声認識により、利用者の発話内容から商品名を得ることが可能となっている。
一方、整合属性条件データ(図43b参照)を受け取ると、属性条件表示制御部151は、商品選択画面表示部150へ属性表示指示する。また、商品候補データを受け取ると、商品一覧表示制御部152は、商品選択画面表示部150へ商品表示指示する。その結果、ディスプレイ20には、商品選択画面イメージ(図44参照)が表示される。この商品選択画面イメージは「商品名をおっしゃってください」などの、利用者に商品名に関する発話(音声入力)を促す表示を含む。
(利用者、商品の発話)
この商品選択画面イメージを閲覧した利用者はマイク10に向かって所望の商品名を発話することになる。ここでは、利用者が商品選択画面イメージに含まれる商品名リストの中から「車名77_C_T」と発話したとする。
(商品の音声認識)
マイク10を介して入力された利用者の発話内容(入力音声データ)は音声認識部110へ送られる(S126)。入力音声データを受け取ると、音声認識部110は、その入力音声データに対して公知の音声認識(処理)を行う。具体的には、音声認識部110は、先ほど商品認識語DB240に登録された商品認識語データを認識語として音声認識を実行する。
これにより、利用者の発話内容(ここでは車名77_C_T)から商品名(ここでは車名77_C_T)を認識する。音声認識部110はこの認識結果(車名77_C_T)を商品認識データとしてアプリケーション制御部100へ送る(S127)。
(商品の情報提供)
商品認識データ(車名77_C_T)を受け取ると、アプリケーション制御部100は、その受け取った商品認識データに対応する商品候補データを作成する。この商品候補データは、商品候補データ(例えば商品候補抽出部140から受取った商品候補データ)から、先ほど受け取った商品認識データに対応するものを抽出して作成される。アプリケーション制御部100は、その作成した商品候補データを商品詳細表示部160へ送る。
商品候補データを受け取ると、商品詳細表示部160は、利用者が最終的に選択した商品(ここでは車名77_C_T)に関する情報(先ほど受け取った商品候補データ中の商品名などの詳細情報)を含む商品詳細表示画面イメージ(図45参照)をディスプレイ20に表示する。
(属性条件を代えて商品を検索)
利用者が商品詳細表示画面イメージ(図45参照)に表示されているボタン「前の画面に戻る」を押すと、商品詳細表示部160は、アプリケーション制御部100へ画面クローズメッセージを送るとともに商品詳細表示画面を閉じる。画面クローズメッセージを受け取ると、アプリケーション制御部100は、属性認識開始メッセージを音声認識部110へ送る。ディスプレイ20には、商品選択画面イメージ(図44参照)が表示される。
次に、この状況のもとで、利用者がさらに属性を発話したとする。この場合、データの絞込みを効率的に行う観点から、利用者の発話内容に含まれる意図を類推して、整合属性条件データが作成されることになる。この処理について図面を参照しながら説明する。
ここでは、前回の発話内容から得られた属性条件(ここでは図43cに示す保存属性条件データ)が保存属性条件DB230へ登録されている状況の下で、利用者が前回の発話内容とは異なるメーカの属性値(ここではメーカN)と発話した場合に作成される、抽出属性条件データ、属性条件データ、及び整合属性条件データについて説明する。なお、ここでは一つのパターンだけを紹介するが、上記化粧品情報提供アプリケーションの実施形
態と同様のパターンも考えられる(図51参照)。
(抽出属性条件データ)
これは、上記化粧品情報提供アプリケーションの実施形態におけるS107からS109の処理と同様の処理により作成される。この処理により得られる抽出属性条件データを図47に例示する。
(属性条件データ)
これは、上記化粧品情報提供アプリケーションの実施形態における図23、S110からS114の処理と同様の処理により作成されることから、同様の符号を付して説明する。
具体的には、図23に示すように、まず保存属性条件DB230に保存属性条件データ(図27参照)が登録されているか否かを判定する(S110)。ここでは、保存属性条件DB230に保存属性条件データが保存されている。従って、保存属性条件データが登録されていると判定され(S110:Yes)、その登録されている保存属性条件データを保存属性条件DB230から取得し(S111)、発話者の意図を類推する属性設定処理を行い(S112)、属性条件データ(図48参照)を作成する(S113)。
(属性設定処理)
次にS112の属性設定処理について図51を参照しながら説明する。
まず、抽出属性条件データに車種属性があるか否かが判定される(S220)。抽出属性条件データ(図47参照)には車種属性がないので、車種属性がないと判定され(S220:No)、さらに抽出属性条件データにメーカ属性値があるか否かが判定される(S221)。抽出属性条件データ(図47参照)にはメーカ属性値があるので、メーカ属性値ありと判定され(S221:Yes)、さらに抽出属性条件データにタイプ属性があるか否かが判定される(S222)。抽出属性条件データ(図47参照)にはタイプ属性がないので、タイプ属性なしと判定され(S222:No)、さらに抽出属性条件データと保存属性条件データのメーカ属性が同じか否かが判定される(S223)。ここでは、両者の属性値は異なるので、同じでないと判定される(S223:No)。この場合、先ほど取得した保存属性条件データのタイプ属性値(ここではセダン)と、抽出属性条件データのメーカ属性値(ここではメーカN)とを含む属性条件データを作成する(S224)。
これは、今回の発話内容が前回の発話内容とは異なるメーカ属性値だけを含む場合には、(1)今回の発話内容に含まれていたメーカ属性値(ここではメーカN)を今回の属性条件データに用いる、(2)前回の発話内容に含まれていた車種属性値(ここでは車種C_T)を今回の属性条件データには用いない(削除する)、(3)前回の発話内容に含まれていたタイプ属性値(ここではセダン)を今回の属性条件データに引き継ぐ、との意思が利用者(発話者)にあると類推したことを意味する。
(整合属性条件データ)
次に整合処理について図42を参照しながら説明する。
まず属性条件データが車種属性の属性値を持っているかを判定する(S200)。ここでは、先ほど作成された属性条件データが車種属性の属性値を持っていないので(S200:No)、保存属性条件データ(図43c参照)のランク属性の属性値(ここではA)を参照し、そのランク属性(A)を得る(S204:Yes)。
次に、属性値DB210の車種の属性値データを属性条件データのメーカ及び車種の属性値(メーカN、セダン)の条件で検索する(S205)。その検索結果が得られれば(S206:Yes)、その検索結果から、先ほど得たランクサブ属性(A)と一致する車種属性値(ここでは車種C_N)を抽出する(S207)。ランクサブ属性が一致するも
のがあれば(S208:Yes)、ランク属性が一致した車種属性の属性値を抽出し、整合性条件データを編集する(S209)。このように、属性条件データを編集することにより、整合属性条件データは図49に示すように、メーカ属性、車種属性、タイプ属性がそれぞれメーカN、C_N、セダンとなる。整合処理部130は、その整合属性条件データをアプリケーション制御部100へ送信する。また、整合処理部130はランクサブ属性の属性値(A)を抽出し、整合属性条件データ共にと図50に示す保存属性条件データとして、保存属性条件データ230へ登録(保存)する。
一方、ランクサブ属性が一致するものが無い場合は(S208:No)、最もランクサブ属性が近い車種属性値を抽出する(S209)。
次に、整合属性条件データを元に商品候補DB200を検索し、商品の一覧を表示し、選択された商品の詳細情報の表示を行う。これは、上記化粧品情報提供アプリケーションの実施形態における処理と同様であることから、その説明については省略する。
上記の実施形態はあらゆる点で単なる例示にすぎない。このため、本発明は上記の実施形態に限定して解釈されるものでない。すなわち、本発明は、その精神または主要な特徴から逸脱することなく、他の様々な形で実施することができる。
本発明は次のように特定することもできる。
(付記)
(付記1) 利用者が発話した属性条件により検索するシステムであって、利用者が音声入力を行うマイクと、前記マイクを介して入力された入力音声データから属性値を認識する音声認識部と、前記音声認識部によって認識された属性値と属性との対応関係である抽出属性条件データを作成する抽出属性条件データ作成部と、前回の検索に使用した属性条件である保存属性条件データを保存した保存属性条件データベースと、前記抽出属性条件データと前記保存属性条件データとに基づいて今回の検索に使用する属性条件データを作成する属性条件判定部と、検索対象の候補データを格納する候補データベースと、前記属性条件データに基づいて前記候補データベースから候補データを検索する候補抽出部と、前記検索結果を含む画面を表示するディスプレイと、を備える音声検索システム。
(付記2) 前記属性条件データを前記保存属性条件データベースに保存する整合処理部をさらに備える付記1に記載の音声検索システム。
(付記3) 前記属性条件判定部は、前記利用者の意図を類推することにより、前回の検索に使用した属性条件を引き継ぐか破棄するかを判断して、前記今回の検索に使用する属性条件データを作成する、付記1に記載の音声検索システム。
(付記4) 前記整合処理部は、前記属性条件データがサブ属性を含む場合には、そのサブ属性によって他の属性条件を補完する、付記2に記載の音声検索システム。
(付記5) 前記整合処理部は、前記属性条件データがサブ属性を含む場合には、前記保存属性条件データベースにサブ属性を保存し、前記属性条件データと一致し、保存属性条件データベースに保存されたサブ属性が一致又は近似となる未入力の属性条件を抽出し、追加する機能を備える、付記1又は4に記載の音声検索システム。
(付記6) 利用者がマイクを介して入力した入力音声から属性値を抽出し、その属性値を含む検索条件を作成し、この検索条件により検索するシステムであって、前記検索後に、さらに利用者がマイクを介して音声入力した場合にその入力音声から属性値を抽出す
る手段とその属性値と前記検索条件とに基づいて新たな検索条件を作成する手段と、この新たな検索条件により検索する手段と、を備える音声による検索システム。
(付記7) 利用者がマイクを介して入力した入力音声から属性値を抽出し、その属性値を含む検索条件を作成し、この検索条件により検索する方法であって、前記検索後に、さらに利用者がマイクを介して音声入力した場合にその入力音声から属性値を抽出するステップと、その属性値と前記検索条件とに基づいて新たな検索条件を作成するステップと、この新たな検索条件により検索するステップと、を備える音声による検索方法。
本発明によれば、利用者の発話内容(音声入力)から得られる属性値を含む抽出属性条件データと前回の属性値の設定情報である保存属性条件データとに基づいて利用者が選択したい属性値を類推して、今回の検索に使用する属性条件データを作成する。従って、必要の無い属性値は、「ブランドをクリア」等発話させること無く、また、前回、発話した内容をもう一度音声入力させること無く、利用者の設定したい属性値を設定することができる。よって、利用者に手間を取らせず、無駄の無い、使いやすい属性値の設定を行わせることができる。
また、化粧品のメーカとブランドのように依存関係にあるものについては、自動的に整合性をとることができるため、利用者が設定しようとする属性値の整合性が取れておらず、候補が絞り込まれないということを無くすことができる。よって、利用者は快適に音声入力サービスを利用することができる。
また、前回、属性にメーカT、車種C_Tが設定されており、次に、「メーカN」と発話すると、メーカNの車種の中で、メーカTの車種C_Tと同ランクの車種の抽出を行うことができる。これは、利用者にとって、メーカNの車種を知らなくても、同ランクの車種の情報を閲覧することができる。サービス性を向上することができる。
本発明の従来技術の原理図である。 本発明の従来技術の候補データベース蓄積された候補データ例である。 本発明の従来技術の属性値データベースに蓄積された属性値データ例である。 本発明の従来技術の商品選択画面イメージ例である。 本発明の従来技術の商品選択画面イメージ例である。 本発明の従来技術の商品詳細表示画面イメージ例である。 本発明の従来技術の商品選択画面イメージ例である。 本発明の従来技術の商品選択画面イメージ例である。 本発明の原理図である。 本発明におけるアプリケーション制御部による処理を説明するための図である。 本発明における属性設定判定部による処理を説明するための図である。 本発明における属性設定処理を説明するための図である。 本発明における整合処理部による処理を説明するための図である。 本発明における整合処理部による処理を説明するための図である。 本発明が適用される実施形態の原理図である。 第1実施形態における商品データベースの商品データ例である。 第1実施形態における属性値データベースの属性値データ例である。 第1実施形態におけるアプリケーション制御部による処理を説明するためのフローチャートである。 第1実施形態における属性値認識語データ例である。 第1実施形態における商品選択画面イメージ例である。 第1実施形態における属性認識データ例である。 第1実施形態における抽出属性条件データ例である。 第1実施形態における属性設定判定部による処理を説明するためのフローチャートである。 第1実施形態における属性設定処理を説明するためのフローチャートである。 第1実施形態における属性条件データ例である。 第1実施形態における整合処理部による処理を説明するためのフローチャートである。 第1実施形態における整合属性条件データ例である。 第1実施形態における商品候補データ例である。 第1実施形態における商品認識語データ例である。 第1実施形態における商品選択画面イメージ例である。 第1実施形態における商品認識データ例である。 第1実施形態における商品候補データ例である。 第1実施形態における商品詳細表示画面イメージ例である。 第1実施形態における商品選択画面イメージ例である。 第1実施形態における整合属性データ作成例である。 第1実施形態における整合属性データ作成例である。 第1実施形態における商品候補データベースの商品候補データ例である。 第2実施形態における属性値データベースの属性値データ例である。 第2実施形態における商品選択画面イメージ例である。 第2実施形態における属性認識データ例である。 第2実施形態における抽出属性条件データ例である。 第2実施形態における整合処理部による処理を説明するためのフローチャートである。 第2実施形態における属性条件データ例である。 第2実施形態における整合属性条件データ例である。 第2実施形態における保存属性条件データ例である。 第2実施形態における商品選択画面イメージ例である。 第2実施形態における商品詳細表示画面イメージ例である。 第2実施形態における属性認識データ例である。 第2実施形態における抽出属性条件データ例である。 第2実施形態における属性条件データ例である。 第2実施形態における整合属性条件データ例である。 第2実施形態における保存属性条件データ例である。 第2実施形態における属性設定処理を説明するためのフローチャートである。
符号の説明
100 アプリケーション制御部
110 音声認識部
120 属性条件判定部
130 整合処理部
140 商品候補抽出部
150 商品選択画面表示部
151 整合属性条件表示制御部
152 商品一覧表示制御部
160 商品詳細表示部
200 商品候補データベース
210 属性値データベース
220 属性値認識語データベース
230 保存属性条件データベース
240 商品認識語データベース
300 アプリケーション起動部

Claims (5)

  1. 利用者が発話した属性条件により検索するシステムであって、
    利用者が音声入力を行うマイクと、
    前記マイクを介して入力された入力音声データから属性値を認識する音声認識部と、
    前記音声認識部によって認識された属性値と属性との対応関係である抽出属性条件データを作成する抽出属性条件データ作成部と、
    前回の検索に使用した属性条件である保存属性条件データを保存した保存属性条件データベースと、
    前記抽出属性条件データと前記保存属性条件データとに基づいて今回の検索に使用する属性条件データを作成する属性条件判定部と、
    検索対象の候補データを格納する候補データベースと、
    前記属性条件データに基づいて前記候補データベースから候補データを検索する候補抽出部と、
    前記検索結果を含む画面を表示するディスプレイと、
    を備える音声検索システム。
  2. 前記属性条件データを前記保存属性条件データベースに保存する整合処理部をさらに備える請求項1に記載の音声検索システム。
  3. 前記属性条件判定部は、前記利用者の意図を類推することにより、前回の検索に使用した属性条件を引き継ぐか破棄するかを判断して、前記今回の検索に使用する属性条件データを作成する、
    請求項1に記載の音声検索システム。
  4. 前記整合処理部は、前記属性条件データがサブ属性を含む場合には、そのサブ属性によって他の属性条件を補完する、
    請求項2に記載の音声検索システム。
  5. 前記整合処理部は、前記属性条件データがサブ属性を含む場合には、前記保存属性条件データベースにサブ属性を保存し、前記属性条件データと一致し、保存属性条件データベースに保存されたサブ属性が一致又は近似となる未入力の属性条件を抽出し、追加する機能を備える、
    請求項1又は4に記載の音声検索システム。
JP2004083160A 2004-03-22 2004-03-22 音声検索システム Pending JP2005267574A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004083160A JP2005267574A (ja) 2004-03-22 2004-03-22 音声検索システム
US10/949,757 US20050209850A1 (en) 2004-03-22 2004-09-27 Voice retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004083160A JP2005267574A (ja) 2004-03-22 2004-03-22 音声検索システム

Publications (1)

Publication Number Publication Date
JP2005267574A true JP2005267574A (ja) 2005-09-29

Family

ID=34987458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004083160A Pending JP2005267574A (ja) 2004-03-22 2004-03-22 音声検索システム

Country Status (2)

Country Link
US (1) US20050209850A1 (ja)
JP (1) JP2005267574A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019098036A1 (ja) * 2017-11-15 2020-10-01 ソニー株式会社 情報処理装置、情報処理端末、および情報処理方法
JP2021015360A (ja) * 2019-07-10 2021-02-12 株式会社イグレック ハイブリッドアプリ型フリーレイアウトのセルフオーダーシステム
JP2021504775A (ja) * 2017-12-22 2021-02-15 グーグル エルエルシーGoogle LLC 電子リストユーザインターフェース

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7725468B2 (en) * 2005-04-08 2010-05-25 Oracle International Corporation Improving efficiency in processing queries directed to static data sets
JP6483433B2 (ja) * 2014-12-25 2019-03-13 Dynabook株式会社 システム及び電子機器

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6885990B1 (en) * 1999-05-31 2005-04-26 Nippon Telegraph And Telephone Company Speech recognition based on interactive information retrieval scheme using dialogue control to reduce user stress

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019098036A1 (ja) * 2017-11-15 2020-10-01 ソニー株式会社 情報処理装置、情報処理端末、および情報処理方法
JP2021504775A (ja) * 2017-12-22 2021-02-15 グーグル エルエルシーGoogle LLC 電子リストユーザインターフェース
US11100147B2 (en) 2017-12-22 2021-08-24 Google Llc Electronic list user interface
US11734323B2 (en) 2017-12-22 2023-08-22 Google Llc Electronic list user interface
JP2021015360A (ja) * 2019-07-10 2021-02-12 株式会社イグレック ハイブリッドアプリ型フリーレイアウトのセルフオーダーシステム

Also Published As

Publication number Publication date
US20050209850A1 (en) 2005-09-22

Similar Documents

Publication Publication Date Title
US10402501B2 (en) Multi-lingual virtual personal assistant
US6385582B1 (en) Man-machine system equipped with speech recognition device
US20030115060A1 (en) System and interactive form filling with fusion of data from multiple unreliable information sources
US8279171B2 (en) Voice input device
CN110196930B (zh) 一种多模态客服自动回复方法及系统
US5983177A (en) Method and apparatus for obtaining transcriptions from multiple training utterances
US20130325447A1 (en) Speech recognition adaptation systems based on adaptation data
WO2017100334A1 (en) Vpa with integrated object recognition and facial expression recognition
US9495966B2 (en) Speech recognition adaptation systems based on adaptation data
EP1162602A1 (en) Two pass speech recognition with active vocabulary restriction
US7430324B2 (en) Method and apparatus for classifying and ranking interpretations for multimodal input fusion
US20090228270A1 (en) Recognizing multiple semantic items from single utterance
JP2001125896A (ja) 自然言語対話システム
WO2006057118A1 (ja) 目的地設定支援装置
US9715877B2 (en) Systems and methods for a navigation system utilizing dictation and partial match search
CN104699784A (zh) 一种基于交互式输入的数据搜索方法及装置
US20130179166A1 (en) Voice conversion device, portable telephone terminal, voice conversion method, and record medium
CN109584875A (zh) 一种语音设备控制方法、装置、存储介质及语音设备
US20020091520A1 (en) Method and apparatus for text input utilizing speech recognition
US10366442B1 (en) Systems and methods to update shopping cart
JP2001083984A (ja) インタフェース装置
JP4837887B2 (ja) ユーザ・グループに固有のパターン処理システム
CN103970815A (zh) 语音输入和输出数据库搜索方法和设备
JP2005267574A (ja) 音声検索システム
US6212497B1 (en) Word processor via voice

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090714