JP2022139053A - 検索支援サーバ、検索支援方法及びコンピュータプログラム - Google Patents

検索支援サーバ、検索支援方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2022139053A
JP2022139053A JP2021039268A JP2021039268A JP2022139053A JP 2022139053 A JP2022139053 A JP 2022139053A JP 2021039268 A JP2021039268 A JP 2021039268A JP 2021039268 A JP2021039268 A JP 2021039268A JP 2022139053 A JP2022139053 A JP 2022139053A
Authority
JP
Japan
Prior art keywords
data
tag
search
content
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021039268A
Other languages
English (en)
Other versions
JP7297266B2 (ja
JP2022139053A5 (ja
Inventor
清幸 鈴木
Kiyoyuki Suzuki
克利 大川
Katsutoshi Okawa
竜平 市川
Ryuhei Ichikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Media Inc
Original Assignee
Advanced Media Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Media Inc filed Critical Advanced Media Inc
Priority to JP2021039268A priority Critical patent/JP7297266B2/ja
Publication of JP2022139053A publication Critical patent/JP2022139053A/ja
Publication of JP2022139053A5 publication Critical patent/JP2022139053A5/ja
Application granted granted Critical
Publication of JP7297266B2 publication Critical patent/JP7297266B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザが自己の目的に応じて絞り込んだガイドデータ通りに発話又は選択する限り、コンテンツ提供者がユーザに提供したい動画コンテンツの特定部分へ確実に誘導することが可能な検索支援サーバ、検索支援方法及びコンピュータプログラムを提供する。【解決手段】動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウとを端末装置に表示させる。サイネージウィンドウ及び/又はスピーチウィンドウに表示されたタグ情報のユーザによる発話を受け付けて、表示されるタグ情報を絞り込み、絞り込まれたタグ情報の選択を受け付けることにより、選択を受け付けたタグ情報に対応する動画コンテンツの特定部分を端末装置において再生させる。【選択図】図4

Description

本発明は、Webサイトにおいてコンテンツ提供者が提供する多数の動画コンテンツの中から、検索主体であるユーザが、希望する動画コンテンツの特定のシーンを、発話により絞り込むことで確実に表示することが可能な検索支援サーバ、検索支援方法及びコンピュータプログラムに関する。
Webサイトには様々な情報が存在する。現状では、Webサイトのトップページのアイコンのクリックやクリック可能な言葉による説明、Google(R)、Yahoo(R)等の検索エンジンを利用した検索窓を使うことで、ユーザが希望する内容を含むと考えられるWebページへのアドレス、あるいは動画コンテンツそのものを抽出してユーザが視認可能な表示装置において再生している。
また、ユーザの発話により検索キーの入力を受け付ける場合、Google(R)、Microsoft(R)等が提供する音声認識エンジンを使用して、ユーザによる発話を認識している。これらの商用の音声認識エンジンは、広汎に発話のデータを収集し、機械学習、あるいは深層学習により生成された汎用型の音声認識エンジンとして提供されている。
したがって、ユーザの発話を音声認識する場合に、コンテンツ提供者がユーザに対して提供を意図する検索キーを正しく認識することができない場合が生じるおそれがあった。そこで、例えば特許文献1には、複数の言語モデルを用いることで音声認識精度を高めている音声理解装置が開示されている。
また特許文献2には、ユーザに対して、番組やシーンを検索するためのキーとなる情報を画面上に表示しておき、ユーザの選択を受け付けるデジタル放送受信装置が開示されている。特許文献2では、コンテンツホルダが、検索情報を含むメタデータを作成して記憶しておき、該検索情報で検索される動画のシーン情報の一覧をユーザに表示することにより、ユーザが所望のシーンを選択して再生することが可能となっている。
特開2010-170137号公報 特開2009-055643号公報
特許文献1では、複数の音声認識エンジンを用いて並列に処理し、得られた複数の認識結果に基づく言語理解エンジンの処理結果を統合処理している。しかし、複数の認識結果及び言語理解処理結果の統合処理には相当の時間を要するだけではなく、統合処理後の認識結果の確度を保証することができないため現実的ではない。したがって、ユーザの発話によって、短時間で正しい検索キーを取得することができる保証がないという問題点があった。
また、特許文献2では、コンテンツホルダの作成する検索情報を含むメタデータが一覧表示される。しかし、特許文献2では表示されているメタデータの中から選択する必要があるのに対して、メタデータの表示領域には物理的な制約があることから表示可能なメタデータ数に制限がある。したがって、ユーザ所望のシーンに紐づいたメタデータが表示されないケースも想定され、ユーザが所望のシーンを再生するには、結局所望のシーンを再生しながら探し出す必要があり、相当の手間と時間とを要するという問題点があった。また、一覧表示させるメタデータを作成するのにも相当の手間と時間とを要し、充分な数のメタデータを表示することができないので、メタデータの指示により再生されるシーンが必ずしもユーザの所望のシーンを再生しているという保証もない。
本発明は、上記事情に鑑みてなされたものであり、動画コンテンツの特定部分(シーン)を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、全てのガイドデータを発話で絞り込んで表示することが可能なスピーチウィンドウを用いることで、ユーザが自己の目的に応じて絞り込んだガイドデータ通りに発話又は選択する限り、コンテンツ提供者がユーザに提供したい動画コンテンツの特定部分へ確実に誘導することが可能な検索支援サーバ、検索支援方法及びコンピュータプログラムを提供することを目的とする。
上記目的を達成するために本発明に係る検索支援サーバは、Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバであって、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウとをデータ通信することが可能に接続されている端末装置に表示させ、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させることを特徴とする。
また、本発明に係る検索支援サーバは、前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることが好ましい。
また、本発明に係る検索支援サーバは、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成するサーチデータ生成手段を備え、該サーチデータ生成手段は、前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する抽出・再生手段と、再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付けるタグ入力受付手段と、再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索するポインタ探索手段と、入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付けるポインタ割付受付手段と、入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける属性情報受付手段とを備えることが好ましい。
また、本発明に係る検索支援サーバは、前記抽出・再生手段は、前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する音声文字起し手段と、出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生するコンテンツ再生手段とを備えることが好ましい。
また、本発明に係る検索支援サーバは、前記ポインタ割付手段は、探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付けるポインタ更新受付手段を備えることが好ましい。
また、本発明に係る検索支援サーバは、前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることが好ましい。
また、本発明に係る検索支援サーバは、前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、ユーザにより発話された音声データの入力を受け付ける発話受付手段と、入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記コンテンツの特定部分を表示するメタタグ音声認識手段と、入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する絞り込み音声認識手段とを備え、前記メタタグ音声認識手段及び前記絞り込み音声認識手段を並行して実行することが好ましい。
また、本発明に係る検索支援サーバは、前記メタタグ音声認識手段は、変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出し、前記絞り込み音声認識手段は、すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込むことが好ましい。
また、本発明に係る検索支援サーバは、前記絞り込み音声認識手段は、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新することが好ましい。
次に、上記目的を達成するために本発明に係る検索支援方法は、Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバで実行することが可能な検索支援方法であって、前記検索支援サーバが、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウとをデータ通信することが可能に接続されている端末装置に表示させる工程と、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させる工程とを実行することを特徴とする。
また、本発明に係る検索支援方法は、前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることが好ましい。
また、本発明に係る検索支援方法は、前記検索支援サーバが、前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する工程と、再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付ける工程と、再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索する工程と、入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付ける工程と、入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける工程とを実行し、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成することが好ましい。
また、本発明に係る検索支援方法は、前記検索支援サーバが、前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する工程と、出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生する工程とを実行することが好ましい。
また、本発明に係る検索支援方法は、前記検索支援サーバが、探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付ける工程を実行することが好ましい。
また、本発明に係る検索支援方法は、前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることが好ましい。
また、本発明に係る検索支援方法は、前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、前記検索支援サーバが、ユーザにより発話された音声データの入力を受け付ける工程を実行し、前記検索支援サーバが、入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記コンテンツの特定部分を表示する工程、及び入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する工程を、並行して実行することが好ましい。
また、本発明に係る検索支援方法は、前記検索支援サーバが、変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出する工程と、すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込む工程とを実行することが好ましい。
また、本発明に係る検索支援方法は、前記検索支援サーバが、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新する工程を実行することが好ましい。
次に、上記目的を達成するために本発明に係るコンピュータプログラムは、Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバで実行することが可能なコンピュータプログラムであって、前記検索支援サーバを、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウとをデータ通信することが可能に接続されている端末装置に表示させる手段、及び前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させる手段として機能させることを特徴とする。
また、本発明に係るコンピュータプログラムは、前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることが好ましい。
また、本発明に係るコンピュータプログラムは、前記検索支援サーバを、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成するサーチデータ生成手段として機能させ、該サーチデータ生成手段を、前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する抽出・再生手段、再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付けるタグ入力受付手段、再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索するポインタ探索手段、入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付けるポインタ割付受付手段、及び入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける属性情報受付手段として機能させることが好ましい。
また、本発明に係るコンピュータプログラムは、前記抽出・再生手段を、前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する音声文字起し手段、及び出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生するコンテンツ再生手段として機能させることが好ましい。
また、本発明に係るコンピュータプログラムは、前記ポインタ割付手段を、探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付けるポインタ更新受付手段として機能させることが好ましい。
また、本発明に係るコンピュータプログラムは、前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることが好ましい。
また、本発明に係るコンピュータプログラムは、前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、前記検索支援サーバを、ユーザにより発話された音声データの入力を受け付ける発話受付手段として機能させ、前記検索支援サーバを、入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記コンテンツの特定部分を表示するメタタグ音声認識手段、及び入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する絞り込み音声認識手段として、並行して機能させることが好ましい。
また、本発明に係るコンピュータプログラムは、前記メタタグ音声認識手段を、変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出する手段として機能させ、前記絞り込み音声認識手段を、すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込む手段として機能させることが好ましい。
また、本発明に係るコンピュータプログラムは、前記絞り込み音声認識手段を、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新する手段として機能させることが好ましい。
本発明によれば、Webサイト上に公開されている多数の動画コンテンツの中から、動画コンテンツを提供するコンテンツ提供者が、提供する動画コンテンツへユーザを誘導しやすいガイドデータをスピーチウィンドウやサイネージウィンドウに表示することができるとともに、ユーザ自らの意思で選択対象となるガイドデータを絞り込むことができるので、個々のユーザが表示されているガイドデータ通りに発話あるいは選択することにより、簡便にしかも迅速にコンテンツ提供者が提供する動画コンテンツをユーザの意向に沿って表示・再生することが可能となる。
本発明の実施の形態に係る音声検索システムの構成を模式的に示すブロック図である。 本発明の実施の形態に係る検索支援サーバの構成を模式的に示すブロック図である。 本発明の実施の形態に係る端末装置の構成を模式的に示すブロック図である。 本発明の実施の形態に係る検索支援サーバのサーチデータ生成処理の機能ブロック図である。 、本発明の実施の形態に係る検索支援サーバが、コンテンツ提供者が使用する端末装置に表示させる入力受付画面の例示図である。 本発明の実施の形態に係る検索支援サーバで生成されるサーチデータ及びガイドデータの例示図である。 本発明の実施の形態に係る検索支援サーバのサーチデータ及びガイドデータの例示図である。 本発明の実施の形態に係る検索支援サーバのサーチデータ及びガイドデータの他の例示図である。 本発明の実施の形態に係る検索支援サーバが、ユーザが使用する端末装置上で表示する入力受付画面の例示図である。 本発明の実施の形態に係る検索支援サーバが、ユーザが使用する端末装置に表示させるスピーチウィンドウの例示図である。 本発明の実施の形態に係る検索支援サーバのCPUのコンテンツ提供者の設定処理手順を示すフローチャートである。 本発明の実施の形態に係る検索支援サーバのユーザによる発話の音声認識処理の機能ブロック図である。 本発明の実施の形態に係る検索支援サーバのCPUの音声認識処理の手順を示すフローチャートである。
以下、本発明の実施の形態に係る検索支援サーバについて、図面を参照して説明する。以下の実施の形態は、特許請求の範囲に記載された発明を限定するものではなく、実施の形態の中で説明されている特徴的事項の組み合わせの全てが解決手段の必須事項であるとは限らないことは言うまでもない。
また、本発明は多くの異なる態様にて実施することが可能であり、実施の形態の記載内容に限定して解釈されるべきものではない。実施の形態を通じて同じ要素には同一の符号を付している。
以下の実施の形態では、コンピュータシステムにコンピュータプログラムを導入した音声検索システムとして説明するが、当業者であれば明らかな通り、本発明はその一部をコンピュータで実行することが可能なコンピュータプログラムとして実施することができる。したがって、本発明は、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、全てのガイドデータを発話で絞り込んで表示することが可能なスピーチウィンドウを用いることで、ユーザが自己の目的に応じて絞り込んだガイドデータ通りに発話又は選択する限り、コンテンツ提供者がユーザに提供したい動画コンテンツの特定部分へ確実に誘導することが可能な検索支援サーバというハードウェアとしての実施の形態、ソフトウェアとしての実施の形態、又はソフトウェアとハードウェアとの組み合わせの実施の形態をとることができる。コンピュータプログラムは、ハードディスク、DVD、CD、光記憶装置、磁気記憶装置等の任意のコンピュータで読み取ることが可能な記録媒体に記録することができる。
本発明の実施の形態によれば、Webサイト上に公開されている多数の動画コンテンツの中から、動画コンテンツを提供するコンテンツ提供者が、提供する動画コンテンツへユーザを誘導しやすいガイドデータをスピーチウィンドウやサイネージウィンドウに表示することができるとともに、ユーザ自らの意思で選択対象となるガイドデータを絞り込むことができるので、個々のユーザが表示されているガイドデータ通りに発話あるいは選択することにより、簡便にしかも迅速にコンテンツ提供者が提供する動画コンテンツをユーザの意向に沿って表示・再生することが可能となる。
図1は、本発明の実施の形態に係る音声検索システムの構成を模式的に示すブロック図である。本実施の形態に係る音声検索システムは、コンテンツ提供者が使用する端末装置1aと、コンテンツや動画コンテンツを検索するユーザが使用する端末装置1bと、端末装置1a及び1bとデータ通信することが可能にインターネット等のネットワーク網2を介して接続されている検索支援サーバ3とで構成されている。端末装置1a、1bは、マイクやスピーカを接続してある据え置き型のPCに限定されるものではなく、マイクやスピーカを内蔵しているスマートホン、タブレット等の携帯端末であっても良い。
図2は、本発明の実施の形態に係る検索支援サーバ3の構成を模式的に示すブロック図である。本実施の形態に係る検索支援サーバ3は、少なくともCPU(中央演算装置)31、メモリ32、記憶装置33、I/Oインタフェース34、ビデオインタフェース35、可搬型メモリドライブ36、通信インタフェース37及び上述したハードウェアを接続する内部バス38で構成されている。
CPU31は、内部バス38を介して検索支援サーバ3の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置33に記憶されているコンピュータプログラム100に従って、種々のソフトウェア的機能を実行する。メモリ32は、SRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラム100の実行時にロードモジュールが展開され、コンピュータプログラム100の実行時に発生する一時的なデータ等を記憶する。
記憶装置33は、内蔵される固定型記憶装置(ハードディスク)、ROM等で構成されている。記憶装置33に記憶されたコンピュータプログラム100は、プログラム及びデータ等の情報を記録したDVD、CD-ROM、USBメモリ、SDカード等の可搬型記録媒体90から、可搬型メモリドライブ36によりダウンロードされ、実行時には記憶装置33からメモリ32へ展開して実行される。もちろん、通信インタフェース37を介して接続されている外部コンピュータからダウンロードされたコンピュータプログラムであっても良い。
記憶装置33は、サーチデータ記憶部331及びガイドデータ記憶部332とを備えている。サーチデータ記憶部331は、コンテンツ提供者が、提供するコンテンツに対してユーザがアクセス可能なサーチデータ(コンテンツの特定部分を識別するタグ名称、タグ名称の内容を説明する単文又は単語群からなるテキストデータ及びタグ名称の属性を示す属性情報)をポインタ情報(動画コンテンツの場合には、加えてタイムスタンプ情報)に対応付けて記憶する。なお、ポインタ情報とは、コンテンツにアクセスすることが可能なコンテンツの存在位置を示す情報を広く意味している。コンテンツがWebページである場合にはURLがポインタ情報に相当し、動画コンテンツである場合には、再生可能なURLだけではなく、動画コンテンツの再生を開始するタイムスタンプ情報、再生を終了するタイムスタンプ情報もポインタ情報に含まれる。
ガイドデータ記憶部332は、ユーザが検索するための発話あるいはクリック、タッチ等の選択操作を促すために、サーチデータに基づいて生成されるガイドデータを記憶する。ガイドデータは、サーチデータの中から、コンテンツの特定部分を識別するタグ名称、タグ名称の内容を説明する単文又は単語群からなるテキストデータ及びタグ名称の属性を示す属性情報を抽出して、対応するサーチデータの識別情報に対応付けて生成される。ガイドデータを表示するスピーチウィンドウに一覧表示された状態で、ユーザの発話により表示されるガイドデータが絞り込まれる。ユーザが絞り込まれて表示されているガイドデータの中からいずれかのタグ名称を選択することで、選択されたタグ名称に対応付けられたサーチデータで特定されるコンテンツ(動画コンテンツ含む)を表示(あるいは再生)することができる。
通信インタフェース37は内部バス38に接続されており、インターネット、LAN、WAN等の外部のネットワーク網2に接続されることにより、外部コンピュータ等とデータ送受信を行うことが可能となっている。
I/Oインタフェース34は、入力装置であるキーボード41、マウス42と接続され、データの入力を行う。本実施の形態では、実際に音声を入力するのは、コンテンツ提供者又はユーザが使用している端末装置1a、1b(スマートフォン、タブレット等)であり、入力された音声データを通信インタフェース37を介して受信する。もちろん、検索支援サーバ3にマイク、スピーカ等を直接接続していても良い。
ビデオインタフェース35は、CRTディスプレイ、液晶ディスプレイ等の表示装置43と接続されている。本実施の形態では、実際に画像を出力表示するのは、コンテンツ提供者又はユーザが使用している端末装置1a、1b(スマートフォン、タブレット等)であり、検索支援サーバ3は、端末装置1a、1bへ(音声データを含む)画像データ等を通信インタフェース37を介して送信する。
図3は、本発明の実施の形態に係る端末装置1(1a、1b共通)の構成を模式的に示すブロック図である。本実施の形態に係る端末装置1は、少なくともCPU(中央演算装置)11、メモリ12、記憶装置13、I/Oインタフェース14、ビデオインタフェース15、可搬型メモリドライブ16、通信インタフェース17及び上述したハードウェアを接続する内部バス18で構成されている。
CPU11は、内部バス18を介して端末装置1の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置13に記憶されているコンピュータプログラム101に従って、種々のソフトウェア的機能を実行する。メモリ12は、SRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラム101の実行時にロードモジュールが展開され、コンピュータプログラム101の実行時に発生する一時的なデータ等を記憶する。
記憶装置13は、内蔵される固定型記憶装置(ハードディスク)、ROM等で構成されている。記憶装置13に記憶されたコンピュータプログラム101は、通信インタフェース17を介して接続されている外部コンピュータからダウンロードされ、実行時には記憶装置13からメモリ12へ展開して実行される。もちろん、プログラム及びデータ等の情報を記録したSDカード等の可搬型記録媒体91から可搬型メモリドライブ16を介してダウンロードされたコンピュータプログラムであっても良い。
通信インタフェース17は内部バス18に接続されており、インターネット、LAN、WAN等の外部のネットワーク網2に接続されることにより、外部コンピュータ等とデータ送受信を行うことが可能となっている。
I/Oインタフェース14は、キーボード203、マウス204等の入力装置の他、マイク201等の音声入力装置、スピーカ202等の音声出力装置と接続され、データの入出力を行う。通信インタフェース17を介してスマートホン等を接続し、音声入力装置及び音声出力装置を代用しても良い。
ビデオインタフェース15は、表示装置205と接続されており、検索支援サーバ3から送信されてくる入出力用の画像をブラウザ等で表示する。検索されたコンテンツや動画コンテンツは、表示装置205に表示しても良いし、別途ネットワーク網を介してデータ通信することが可能に接続されている外部のコンピュータで表示しても良い。
以下、上述した構成の検索支援サーバ3の動作について説明する。
図4は、本発明の実施の形態に係る検索支援サーバ3のサーチデータ生成処理の機能ブロック図である。図4では、コンテンツ提供者がサーチデータを生成し、ガイドデータを生成して、サイネージウィンドウ及び/又はスピーチウィンドウに表示する手順について説明する。
図4において、サーチデータ生成部401は、サイネージウィンドウ及び/又はスピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成する。サーチデータ生成部401は、抽出・再生部402、タグ入力受付部403、ポインタ探索部404、ポインタ割付受付部405、及び属性情報受付部406を備えている。
抽出・再生部402は、動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する動画コンテンツを再生する。より具体的には、抽出・再生部402は、音声文字起し部4021と、動画コンテンツ表示部4022とを備えている。
音声文字起し部4021は、対象となる動画コンテンツの音声部分を抽出して書き起こし、適切な文節ごとのタイムスタンプ情報と対応付けたテキストデータとして出力する。出力されたテキストデータは、動画コンテンツに含まれている音声に基づいてタグ名称を生成する参考にすることができる。
動画コンテンツ再生部4022は、出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する動画コンテンツの特定部分を再生する。タグ名称の候補の選択を受け付けた場合に、正しい動画コンテンツであるか否か、そしてタイムスタンプ情報を更新するために再生される。
なお、選択を受け付けたテキストデータ、ガイドデータ及び外部から取得したテキストデータを教師データとして学習し、音声文字起し部4021で使用する音声認識用の言語モデルを出力しても良い。学習方法としては、いわゆるAIを含み、周知の学習方法であれば特に限定されるものではない。
以下、動画コンテンツの特定部分に対応付けられるタグ情報の入力を受け付ける。本実施の形態では、タグ情報とは、少なくとも動画コンテンツの特定部分を識別するタグ名称、タグ名称の内容を説明する単文又は単語群からなるテキストデータ及びタグ名称の属性を示す属性情報で構成されている。
タグ入力受付部403は、表示出力されたテキストデータ、あるいは再生している動画コンテンツの特定部分に基づいて、タグ名称及びタグ名称の内容を示す単文又は単語群の入力を受け付ける。
ポインタ探索部404は、再生されている動画コンテンツの特定部分に基づいて、動画コンテンツの特定部分を示すポインタ情報を探索する。探索されるポインタ情報は、既に対応付けられているURLだけではなく、再生開始タイミング及び再生終了タイミングに関するタイムスタンプ情報も探索される。
動画コンテンツの場合、自動的に割り付けられた特定部分が、コンテンツ提供者が本当に提供したい部分であるとは限らない。不要な部分が含まれたり、必要な部分なのに分断されたりしている可能性がある。そこで、後述する画面操作によって、ポインタ情報の更新を行うことができる。これにより、過不足なく所望の動画コンテンツを提供することができる。
ポインタ割付受付部405は、入力を受け付けたタグ名称ごとに、探索されたポインタ情報の割り付けを受け付ける。これにより、タグ名称の選択を受け付けることにより、割り付けられたポインタ情報に従って、動画コンテンツの特定部分を再生することができる。
属性情報受付部406は、入力を受け付けたタグ名称ごとに、検索時に発話可能な属性情報の入力を受け付ける。後述するように属性情報をユーザが発話することにより、タグ名称を絞り込むことができる。
ここで、属性情報としては、例えば「新着」、「動画」、「使い方」、「料金」、「医療」など、動画コンテンツを絞り込むのに役立つ情報であり、しかも発話しやすい言葉であれば特に限定されるものではない。
このようにタグ名称及びタグ名称の内容を示す単文又は単語群、属性情報の入力を受け付け、タグ情報としてポインタ情報に対応付けてサーチデータを生成する。ガイドデータ生成部407は、生成されたサーチデータに含まれるタグ情報を、サーチデータを識別するサーチデータ識別情報と対応付けて、ガイドデータを生成する。
図5は、本発明の実施の形態に係る検索支援サーバ3が、コンテンツ提供者が使用する端末装置1aに表示させる入力受付画面の例示図である。図5に示す初期画面50が、コンテンツ提供者の使用する端末装置1aにポップアップ表示される。コンテンツ提供者は、ユーザに提供したい動画コンテンツを再生領域51において再生しながら、「割付」ボタン52を選択することによりタグ情報に動画コンテンツのシーンを割り付けることができる。
コンテンツ提供者による「割付」ボタン52の選択を受け付けた場合、選択を受け付けた動画コンテンツの音声部分を音声認識してすべて書き起こし、単文又は単語群として抽出して、文節ごとに再生開始点を示すタイムスタンプ情報を割り付けたトランスクリプションを作成する。作成されたトランスクリプションは、目次表示領域53に一覧表示、あるいは表示しきれない場合には、図5ではサーチデータ作成領域として使用されている共用ウインドウ60に表示される。表示しきれない場合には、スクロール操作等ですべてのトランスクリプションを表示することができる。
これにより、共用ウインドウ60にトランスクリプションとして表示されている動画コンテンツ中のシーンごとのタグ名称の候補の選択を受け付けた場合、対応付けられた動画コンテンツのシーンが再生される。
コンテンツ提供者は、動画コンテンツを再生しながら、所望の再生開始タイミングにおいて「マーク入力」ボタン61を選択する。「マーク入力」ボタン61の選択を受け付けた場合、仮のタグ情報が再生開始タイムスタンプをポインタ情報として作成される。仮のタグ情報は、動画コンテンツの再生時に随時生成して記憶することができる。
次に、コンテンツ提供者による「タグ入力」ボタン54の選択を受け付ける。「タグ入力」ボタン54の選択を受け付けた場合、一覧表示されている仮のタグ情報の選択を受け付けることで、共用ウインドウ60にタグ名称入力領域55、メタタグ入力領域56等を含むサーチデータ作成領域60が表示され、タグ情報の入力を受け付ける。
仮のタグ情報の一覧表示は、「タグ入力終了」ボタン59の選択を受け付けることにより行われる。仮のタグ情報の選択を受け付けてタグ情報の入力を行うことで、すべての仮のタグ情報に対してサーチデータを生成することができる。なお、属性情報入力領域は図5には図示されていないが、キーインできる入力領域あるいは選択ボタンを配して表示させて、入力を受け付ければ良い。
本実施の形態で特徴的なのは、コンテンツ提供者による発話でタグ情報の入力を受け付ける点と、「時間メータ」の存在である。例えばコンテンツ提供者が「時間メータ」と発話した場合、時間メータ57によりタグ情報と対応付けられている動画コンテンツの特定部分を更新することが可能なポインタ更新受付手段を備えている。
具体的には、共用ウインドウ60に表示されたサーチデータ作成領域に更新するタグ情報の作成画面を表示し、「時間メータ」との発話を受け付けた場合、時間メータのスライダを該タグ情報に対応付けられているポインタ情報の再生開始タイムスタンプに位置付けて表示するとともに移動可能となる。再生開始タイムスタンプが再生時間表示領域58に表示された状態でスライダを移動させると、スライダの位置に対応した再生時点のタイムスタンプが再生時間表示領域58に表示されつつ、再生領域51の動画コンテンツが変化する。
再生開始タイムスタンプ及び再生終了タイムスタンプ(以下、タイムスタンプ情報)も、コンテンツ提供者による「マーク入力」ボタン61の選択、あるいは「マーク」の発話で設定しても良い。例えば動画コンテンツを再生しながら、タイムスタンプ情報を設定したいシーンになった時点でコンテンツ提供者が「マーク入力」ボタン61を選択、あるいは「マーク」と発話することにより、タイムスタンプ情報を設定することができる。
タグ情報、再生開始タイムスタンプ及び再生終了タイムスタンプの設定が終了した場合、コンテンツ提供者は「タグ入力」ボタン54を選択する。「タグ入力」ボタン54の選択を受け付けた時点で、検索支援サーバ3は端末装置1aのブラウザに表示されている動画コンテンツのURLをポインタ情報として探索し、設定されたタイムスタンプ情報とともに、入力されたタグ名称に対応付けてサーチデータとしてサーチデータ記憶部331に記憶する。
ガイドデータは、サーチデータのタグ情報部分に、サーチデータを識別する識別情報を対応付けて生成する。図6は、本発明の実施の形態に係る検索支援サーバ3で生成されるサーチデータ及びガイドデータの例示図である。図6(a)は、生成されたガイドデータの例示図であり、図6(b)は、生成されたガイドデータの基礎となるサーチデータの例示図である。
図6(a)に示すように、ガイドデータは、サーチデータの何番目のタグ名称であるかを示す「番号」で対応付けられており、Webサイトを識別する識別情報である共通のサーチデータID(図6ではサーチデータID=XXXXXX)を有している。生成されたガイドデータはガイドデータ記憶部332に記憶される。
そして、「ポインタ情報」としてURL及びタイムスタンプ情報としての再生「開始」時刻及び再生「終了」時刻がタグ名称と対応付けて記憶されているのはサーチデータのみである。したがって、図5の「ガイドデータ」ボタン62の選択を受け付けることで、サーチデータのタグ情報をコピーし、サーチデータID(XXXXXX)と、サーチデータの何番目のタグ名称であるかを示す「番号」とを対応付けてガイドデータが生成される。図6(a)に示すガイドデータの「サーチデータID」欄が空白なのは、一のサーチデータのみに基づいて生成されたガイドデータであることを意味しており、他のサーチデータに基づいて生成されたガイドデータである場合には、他のサーチデータのサーチデータIDが記載される。
図5に示すサイネージウィンドウの共用ウインドウ60には、生成されたガイドデータの中からコンテンツ提供者がユーザに表示したいデータとして選択したガイドデータのタグ名称が表示されることが好ましい。この場合、「ガイドデータ」ボタン62の選択を受け付けると「編集」ボタンと「拡張」ボタン(図示せず)が表示される。「編集」ボタンの選択を受け付けた場合、共用ウィンドウ60内にキーイン等することにより、サイネージウィンドウの共用ウインドウ60に表示するタグ名称を設定することができる。「拡張」ボタンの選択を受け付けた場合には、他のサーチデータから生成されたガイドデータを追加することができる。追加されたガイドデータから目次データを取り出すことで、目次表示領域53に表示することができる。
すなわち、本実施の形態では、コンテンツ提供者ごとにサーチデータを生成しても良いし、同一コンテンツ提供者が複数立ち上げたWebサイトごとにサーチデータを生成しても良い。例えば、同一の会社のWebサイトであっても、事業部ごと、商品・サービスごとにWebサイトを立ち上げる機会が急増しており、コンテンツが日々増加する。これらのコンテンツを迅速にかつ確実に検索できるようにすることは、顧客サービスにおいても重要になる。
本実施の形態では、全てのガイドデータは、基礎となるサーチデータに基づいて生成されている。したがって、一のガイドデータに他のサーチデータに基づいて生成されたガイドデータさえ追加すれば、他のサーチデータに対応付けられているコンテンツ(動画コンテンツ含む)、すなわち他のWebサイトのコンテンツであっても迅速かつ確実に表示・再生することができるようになる。
図7は、本発明の実施の形態に係る検索支援サーバ3のサーチデータ及びガイドデータの例示図である。図7(a)は、一のコンテンツ提供者のサーチデータに基づくガイドデータの例示図であり、図7(b)は、動画コンテンツを提供する他のコンテンツ提供者のサーチデータの例示図である。
図6に示すサーチデータ及びガイドデータとの違いは、共通のサーチデータIDではなく、異なるサーチデータIDを有するガイドデータが含まれている点にある。すなわち、サーチデータ及びガイドデータを生成した時点では、サーチデータIDは共通である。本実施の形態では、サーチデータとガイドデータとの二段構造にすることにより、サーチデータIDが異なるガイドデータを設定することができる。これにより、サーチデータIDが異なるガイドデータの基礎となるサーチデータを読み出すことができ、サーチデータIDが異なるサーチデータ、すなわち異なるコンテンツ提供者が提供する動画コンテンツの特定部分を再生することが可能となる。
例えば共通のサーチデータIDを「YYYYYY」とする。そして、共通のサーチデータIDが「YYYYYY」を基礎として生成されたガイドデータには、他のサーチデータIDを基礎としたガイドデータを随時追加することができる。図7(a)の例では、サーチデータIDが「TTTTTT」であるガイドデータが追加されている。つまり、サーチデータIDが「TTTTTT」であるガイドデータの基礎となるサーチデータを読み出すことができるようになり、当該サーチデータに対応付けられている動画コンテンツを再生することができるようになる。
つまり、図7(b)に示すサーチデータIDが「TTTTTT」であるサーチデータを参照することができ、所望のコンテンツのポインタ情報を取得することができる。したがって、ガイドデータを追加するだけで、どのWebサイトのコンテンツであっても所望のコンテンツを表示することができる。なお、図7(b)において、ガイドデータの「サーチデータID」欄の空欄は、追加されたガイドデータではなく、サーチデータIDが共通のサーチデータID「YYYYYY」であるガイドデータであることを意味している。
図8は、本発明の実施の形態に係る検索支援サーバ3のサーチデータ及びガイドデータの他の例示図である。図8(a)は、一のコンテンツ提供者のサーチデータに基づくガイドデータの例示図であり、図8(b)は、他のコンテンツ提供者のサーチデータの例示図である。
例えば共通のサーチデータIDを「YYYYYY」とする。そして、サーチデータIDが「YYYYYY」であるサーチデータを基礎として生成されたガイドデータには、他のサーチデータIDを基礎としたコンテンツのガイドデータを随時追加することができる。図8(a)では、サーチデータIDが「PPPPPP」であるガイドデータが追加されている。つまり、サーチデータIDが「PPPPPP」であるガイドデータの基礎となるサーチデータを読み出すことができるようになり、当該サーチデータに対応付けられているコンテンツを表示することができるようになる。
つまり、図8(b)に示すサーチデータIDが「PPPPPP」であるサーチデータを参照することができ、所望のコンテンツのポインタ情報及びタイムスタンプ情報を取得することができる。したがって、ガイドデータを追加するだけで、どのWebサイトの動画コンテンツであっても所望の動画コンテンツの所望のシーンだけ再生することができる。なお、図8(b)において、ガイドデータの「サーチデータID」欄の空欄は、追加されたガイドデータではなく、サーチデータIDが「YYYYYY」であるガイドデータであることを意味している。
図4に戻って、サイネージウィンドウ表示部408は、生成されたガイドデータのタグ名称等を、コンテンツ提供者が選択して、ユーザが使用する端末装置1b上でサイネージウィンドウに表示させる。これにより、ユーザに対して、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導することができる。
図9は、本発明の実施の形態に係る検索支援サーバ3が、ユーザが使用する端末装置1b上で表示する入力受付画面900の例示図である。図9に示すように、動画コンテンツを表示可能なコンテンツウィンドウ901と一体となって、サイネージウィンドウ902が表示される。サイネージウィンドウ902には、文字列が流れて表示されるような形態で表示されることが好ましい。
具体的には、サイネージウィンドウ902に、選択されたガイドデータのタグ名称が表示される。図9において、矢印は、文字列がその方向に流れるように移動しながら表示することを意味する。サイネージウィンドウ902の表示を見たユーザは、コンテンツ提供者がどのような情報の提供を意図しているかを知ることができ、発話内容を工夫することができる。コンテンツ提供者は、ユーザに提供したい動画コンテンツの中のシーンを示すタグ名称あるいはユーザによる選択を誘導する文字列をサイネージウィンドウ902に表示することで、ユーザを提供したい動画コンテンツの中のシーンへと誘導することができる。
また、入力受付画面900には、動画コンテンツ中のシーンごとのタグ名称が目次として一覧表示される目次表示領域903を含む。直接目次を選択して、動画コンテンツの中のシーンをコンテンツウィンドウ901に再生させることができる。目次表示領域903に表示されているタグ名称の横の「i」ボタンを選択してタグ名称の説明を表示させることもできる。
図4に戻って、スピーチウィンドウ表示部409は、生成されたガイドデータのタグ名称をすべて、ユーザが使用する端末装置1b上でスピーチウィンドウに表示させる。目次表示領域903に表示しきれないガイドデータのタグ名称も、スピーチウィンドウには表示することができる。ユーザが発話することにより、ガイドデータのタグ名称を絞り込むことができる。絞り込むことで、スピーチウィンドウにスクロール等の操作をすることなくタグ名称を表示することができ、クリック、タッチ等の選択操作でタグ名称を選択することにより、対応付けられている動画コンテンツの特定部分を表示することができる。
図10は、本発明の実施の形態に係る検索支援サーバ3が、ユーザが使用する端末装置1bに表示させるスピーチウィンドウの例示図である。図10に示すように、生成されたガイドデータのタグ名称は、スピーチウィンドウ1001上で選択可能な状態でガイドデータ表示領域1002にすべて表示される。
ガイドデータ表示領域1002に表示しきれない場合も、スクロールボタン1003を操作することですべてのガイドデータのタグ名称を閲覧することができる。ガイドデータ表示領域1002に表示されているガイドデータのタグ名称の中から、一のタグ名称の選択を受け付ける。これにより、選択を受け付けたタグ名称のガイドデータの基礎となるサーチデータを特定することができるので、サーチデータに対応付けられている動画コンテンツの特定部分を再生することができる。
図10の例では、スピーチウィンドウ1001に表示されているタグ名称の選択を受け付けた場合、対応するコンテンツの特定部分を確認できるよう、端末装置1bに表示する。ユーザが使用する端末装置1bは、図10に示すようにデスクトップ型でも良いし、スマホ、タブレット等の携帯端末であっても良い。
図11は、本発明の実施の形態に係る検索支援サーバ3のCPU31のコンテンツ提供者の設定処理手順を示すフローチャートである。図11において、検索支援サーバ3のCPU31は、動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して(ステップS1101)、抽出された単文又は単語群の選択を受け付けた場合に対応する動画コンテンツを再生する(ステップS1102)。
CPU31は、表示出力されたテキストデータ、あるいは再生している動画コンテンツの特定部分に基づいて、タグ名称及びタグ名称の内容を示す単文又は単語群の入力を受け付ける(ステップS1103)。
CPU31は再生されている動画コンテンツの特定部分に基づいて、動画コンテンツの特定部分を示すポインタ情報を探索する(ステップS1104)。CPU31は、入力を受け付けたタグ名称ごとに、探索されたポインタ情報の割り付けを受け付ける(ステップS1105)。これにより、タグ名称の選択を受け付けることにより、割り付けられたポインタ情報に従って、動画コンテンツの特定部分を再生することができる。
CPU31は、入力を受け付けたタグ名称ごとに、検索時に発話可能な属性情報の入力を受け付ける(ステップS1106)。後述するように、属性情報をユーザが発話することにより、タグ名称を絞り込むことができる。
CPU31は、入力を受け付けたタグ名称及びタグ名称の内容を示す単文又は単語群、属性情報を、ポインタ情報に対応付けてサーチデータを生成する(ステップS1107)。CPU31は、生成されたサーチデータに含まれるタグ情報を、サーチデータを識別するサーチデータ識別情報と対応付けて、ガイドデータを生成する(ステップS1108)。
CPU31は、生成されたガイドデータのタグ名称等を、コンテンツ提供者が選択して、ユーザが使用する端末装置1b上でサイネージウィンドウに表示させ(ステップS1109)、生成されたガイドデータのタグ名称をすべて、ユーザが使用する端末装置1b上でスピーチウィンドウに表示させる(ステップS1110)。
以下、ユーザが検索処理を実行する手順について説明する。本実施の形態では、コンテンツ提供者がユーザの検索を誘導するサイネージウィンドウ及びスピーチウィンドウを表示させている点に特徴を有している。ただし、それだけではなく、ユーザにとって所望のコンテンツを迅速にかつ確実に検索表示させる工夫として、表示されるガイドデータのタグ名称をユーザが発話することにより絞り込むことができる点が従来の検索システムとの大きな相違点である。
図12は、本発明の実施の形態に係る検索支援サーバ3のユーザによる発話の音声認識処理の機能ブロック図である。図12では、ユーザの使用する端末装置1bに、図9に示すサイネージウィンドウ及び図10に示すスピーチウィンドウが表示されている状態でユーザによる発話を入力として受け付け、正しく音声認識する手順について説明する。
図12に示すように、発話受付部1201は、ユーザにより発話された音声データの入力を受け付ける。具体的には、端末装置1bにおいてユーザが発話した音声データを受信することで、音声データを取得する。
前処理部1202は、入力を受け付けた音声データに対して雑音除去、発話区間の検出等を実行する。前処理された音声データは、メタタグ音声認識部1203及び絞り込み音声認識部1208へ渡され、メタタグ音声認識部1203及び絞り込み音声認識部1208を並行して実行する。
メタタグ音声認識部1203は、前処理された音声データを認識してテキストデータに変換し、変換されたテキストデータに基づいて、ガイドデータのタグ名称及びタグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、一致度が所定値より大きい場合にタグ名称に対応するコンテンツの特定部分を表示する。つまり、メタタグ音声認識部1203で正しく認識できた場合には、他の音声認識処理と統合する処理等余分な処理を実行することなく認識結果を即座に出力することができる。
すなわち、メタタグ音声認識部1203は、テキストデータ変換部1204、一致度算出部1205、タグ名称特定部1206、コンテンツ表示・再生部1207を備えている。テキストデータ変換部1204は、前処理された音声データを、いわゆるディクテーショングラマーに基づいて認識してテキストデータに変換する。
一致度算出部1205は、すべてのタグ名称及びタグ名称の内容を示す単文又は単語群で形成された第一のデータセットを照会して、入力を受け付けた音声データとの一致度を算出する。
タグ名称特定部1206は、算出された一致度が最大であるタグ名称を特定する。一致度が最大であるタグ名称が、最も確からしい認識結果だからである。しかし、一致度が所定の閾値以下である場合には誤認識の可能性も高い。
コンテンツ表示・再生部1207は、算出された一致度が所定の閾値より大きいか否かを判断する。所定の閾値以下であると判断した場合には、認識精度が不十分であるとして再度の発話の待ち状態とする。所定の閾値より大きいと判断した場合には、特定されたタグ名称に対応付けられたコンテンツの特定部分を表示あるいは再生して、認識結果が正しいか否かを判断できる。
絞り込み音声認識部1208は、前処理された音声データに基づいて、いわゆるルールグラマーを用いて、ガイドデータのタグ情報のうち、属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積によるガイドデータの絞り込みを行い、絞り込まれたガイドデータのタグ名称及び属性情報を出力する。これにより、メタタグ音声認識部1103で妥当な認識結果を得られない場合であっても、次にユーザが発話する内容をさらに絞り込むことができるので、音声認識の成功率を高めることができ、結果として短時間で正しい認識結果を得ることができる。具体的には、絞り込み音声認識部1208は、属性抽出部1209、絞り込み部1210を備えている。
属性抽出部1209は、すべてのタグ情報に対応付けられている属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として属性情報を抽出する。絞り込み部1210は、抽出された属性情報の論理積としてタグ名称(ガイドデータ)を絞り込む。
絞り込み音声認識部1208は、絞り込まれたガイドデータの属性情報により、音声認識フィルタである第二のデータセットを更新する更新部1210を備えることが好ましい。第二のデータセットは、属性情報によりガイドデータが絞り込まれる都度更新されるので、ユーザによる次の発話をさらに制限することになり、正しい認識結果を得る確信度を高めることができ、より迅速に正しい認識結果を得ることが可能となる。
図13は、本発明の実施の形態に係る検索支援サーバ3のCPU31の音声認識処理の手順を示すフローチャートである。検索支援サーバ3のCPU31は、ユーザにより発話された音声データの入力を受け付ける(ステップS1301)。具体的には、端末装置1bにおいてユーザが発話した音声データを受信することで、音声データを取得する。
CPU31は、入力を受け付けた音声データに対して雑音除去、発話区間の検出等を実行する(ステップS1302)。前処理された音声データに基づいて、以下の2つの処理が並行して実行される。
まず、CPU31は、前処理された音声データに基づいて、前処理された音声データを、いわゆるディクテーショングラマーに基づいて認識してテキストデータに変換する(ステップS1303)。CPU31は、すべてのタグ名称及びタグ名称の内容を示す単文又は単語群で形成された第一のデータセットを照会して、入力を受け付けた音声データとの一致度を算出する(ステップS1304)。CPU31は、算出された一致度が最大であるタグ名称を特定する(ステップS1305)。
CPU31は、算出された一致度が所定の閾値より大きいか否かを判断する(ステップS1306)。CPU31が、所定の閾値以下であると判断した場合(ステップS1306:NO)、CPU31は、処理をステップS1301へ戻して、再度の発話の待ち状態となる。
CPU31が、所定の閾値より大きいと判断した場合(ステップS1306:YES)、CPU31は、特定されたタグ名称に対応付けられたコンテンツの特定部分を表示あるいは再生する(ステップS1307)。
一方、CPU31は、前処理された音声データに基づいて、全てのタグ名称に対応付けられている属性情報で形成された第二のデータセットを音声認識フィルタとして用い、認識結果の属性情報を抽出する(ステップS1308)。CPU31は、抽出された属性情報の論理積としてタグ名称(ガイドデータ)を絞り込む(ステップS1309)。CPU31は、絞り込まれたガイドデータのタグ名称及び属性情報により、音声認識フィルタである第二のデータセットを更新し(ステップS1310)、処理をステップS1301へ戻して、再度の発話の待ち状態となる。
以上のように本実施の形態によれば、Webサイト上に公開されている多数の動画コンテンツの中から、動画コンテンツを提供するコンテンツ提供者が、自分の動画コンテンツへユーザを誘導しやすいガイドデータをスピーチウィンドウやサイネージウィンドウに表示することができるとともに、ユーザ自らの意思で選択対象となるガイドデータを絞り込むことができるので、個々のユーザが表示されているガイドデータ通りに発話あるいは選択することにより、迅速にかつ確実にコンテンツ提供者が提供する動画コンテンツの特定部分をユーザに対して表示することが可能となる。
また、本実施の形態によれば、メタタグ音声認識処理と絞り込み音声認識処理とを並行して実行することにより、メタタグ音声認識が正しい場合にはそのまま認識結果を出力することができ、一方で、認識結果の確からしさが足りない場合には、より絞り込んだガイドデータに基づくタグ名称をスピーチウィンドウに表示することができる。したがって、ユーザは、比較的短時間で所望のコンテンツを表示又は再生することが可能となる。
なお、本発明は上記実施例に限定されるものではなく、本発明の趣旨の範囲内であれば多種の変更、改良等が可能である。例えば属性情報を含むタグ情報の入力方法は、上述した方法に限定されるものではなく、タグ名称を絞り込むことができる文字列を入力可能であれば特に限定されるものではない。
また、ユーザによる発話を認識する場合に、メタタグ音声認識部1203と並行に処理を実行する認識処理は、絞り込み音声認識部1208に限定されるものではなく、ユーザによる次の発話を限定することができる処理であれば特に限定されるものではない。
また、上記実施例では、スピーチウィンドウ81はユーザが使用する端末装置1b上に表示されているが、特にこれに限定されるものではなく、例えばデータ通信することが可能に接続されているスマートホン、タブレット等の外部の携帯端末装置上でリモート操作する形態であっても良い。
また、音声認識に用いるディクテーショングラマー及びルールグラマーは、テキストデータ、ガイドデータ及び外部から取得したテキストデータを教師データとして学習することにより生成することが望ましい。学習方法としては、いわゆる機械学習、深層学習のようにAIを用いても良いし、対応テーブルを拡充するような従来の方法であっても良く、特に限定されるものではない。
1、1a、1b 端末装置
2 ネットワーク網
3 検索支援サーバ208
11、31 CPU
12、32 メモリ
13、33 記憶装置
14、34 I/Oインタフェース
15、35 ビデオインタフェース
16、36 可搬型ディスクドライブ
17、37 通信インタフェース
18、38 内部バス
90、91 記憶媒体
100、101 コンピュータプログラム
331 サーチデータ記憶部
332 ガイドデータ記憶部

Claims (27)

  1. Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバであって、
    動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、
    前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウと
    をデータ通信することが可能に接続されている端末装置に表示させ、
    前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させることを特徴とする検索支援サーバ。
  2. 前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることを特徴とする請求項1に記載の検索支援サーバ。
  3. 前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成するサーチデータ生成手段を備え、
    該サーチデータ生成手段は、
    前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する抽出・再生手段と、
    再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付けるタグ入力受付手段と、
    再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索するポインタ探索手段と、
    入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付けるポインタ割付受付手段と、
    入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける属性情報受付手段と
    を備えることを特徴とする請求項2に記載の検索支援サーバ。
  4. 前記抽出・再生手段は、
    前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する音声文字起し手段と、
    出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生するコンテンツ再生手段と
    を備えることを特徴とする請求項3に記載の検索支援サーバ。
  5. 前記ポインタ割付手段は、探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付けるポインタ更新受付手段を備えることを特徴とする請求項3に記載の検索支援サーバ。
  6. 前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることを特徴とする請求項3乃至5のいずれか一項に記載の検索支援サーバ。
  7. 前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、
    ユーザにより発話された音声データの入力を受け付ける発話受付手段と、
    入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記コンテンツの特定部分を表示するメタタグ音声認識手段と、
    入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する絞り込み音声認識手段と
    を備え、前記メタタグ音声認識手段及び前記絞り込み音声認識手段を並行して実行することを特徴とする請求項3乃至6のいずれか一項に記載の検索支援サーバ。
  8. 前記メタタグ音声認識手段は、変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出し、
    前記絞り込み音声認識手段は、すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込むことを特徴とする請求項7に記載の検索支援サーバ。
  9. 前記絞り込み音声認識手段は、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新することを特徴とする請求項8に記載の検索支援サーバ。
  10. Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバで実行することが可能な検索支援方法であって、
    前記検索支援サーバが、
    動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、
    前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウと
    をデータ通信することが可能に接続されている端末装置に表示させる工程と、
    前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させる工程と
    を実行することを特徴とする検索支援方法。
  11. 前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることを特徴とする請求項10に記載の検索支援方法。
  12. 前記検索支援サーバが、
    前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する工程と、
    再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付ける工程と、
    再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索する工程と、
    入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付ける工程と、
    入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける工程と
    を実行し、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成することを特徴とする請求項11に記載の検索支援方法。
  13. 前記検索支援サーバが、
    前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する工程と、
    出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生する工程と
    を実行することを特徴とする請求項12に記載の検索支援方法。
  14. 前記検索支援サーバが、
    探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付ける工程を実行することを特徴とする請求項12に記載の検索支援方法。
  15. 前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることを特徴とする請求項12乃至14のいずれか一項に記載の検索支援方法。
  16. 前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、
    前記検索支援サーバが、
    ユーザにより発話された音声データの入力を受け付ける工程を実行し、
    前記検索支援サーバが、
    入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記コンテンツの特定部分を表示する工程、及び
    入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する工程
    を、並行して実行することを特徴とする請求項12乃至15のいずれか一項に記載の検索支援方法。
  17. 前記検索支援サーバが、
    変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出する工程と、
    すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込む工程と
    を実行することを特徴とする請求項16に記載の検索支援方法。
  18. 前記検索支援サーバが、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新する工程を実行することを特徴とする請求項17に記載の検索支援方法。
  19. Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバで実行することが可能なコンピュータプログラムであって、
    前記検索支援サーバを、
    動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、
    前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウと
    をデータ通信することが可能に接続されている端末装置に表示させる手段、及び
    前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させる手段
    として機能させることを特徴とするコンピュータプログラム。
  20. 前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることを特徴とする請求項19に記載のコンピュータプログラム。
  21. 前記検索支援サーバを、
    前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成するサーチデータ生成手段
    として機能させ、
    該サーチデータ生成手段を、
    前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する抽出・再生手段、
    再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付けるタグ入力受付手段、
    再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索するポインタ探索手段、
    入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付けるポインタ割付受付手段、及び
    入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける属性情報受付手段
    として機能させることを特徴とする請求項20に記載のコンピュータプログラム。
  22. 前記抽出・再生手段を、
    前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する音声文字起し手段、及び
    出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生するコンテンツ再生手段
    として機能させることを特徴とする請求項21に記載のコンピュータプログラム。
  23. 前記ポインタ割付手段を、探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付けるポインタ更新受付手段として機能させることを特徴とする請求項21に記載のコンピュータプログラム。
  24. 前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることを特徴とする請求項21乃至23のいずれか一項に記載のコンピュータプログラム。
  25. 前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、
    前記検索支援サーバを、
    ユーザにより発話された音声データの入力を受け付ける発話受付手段として機能させ、 前記検索支援サーバを、
    入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記コンテンツの特定部分を表示するメタタグ音声認識手段、及び
    入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する絞り込み音声認識手段
    として、並行して機能させることを特徴とする請求項21乃至24のいずれか一項に記載のコンピュータプログラム。
  26. 前記メタタグ音声認識手段を、変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出する手段として機能させ、
    前記絞り込み音声認識手段を、すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込む手段として機能させることを特徴とする請求項25に記載のコンピュータプログラム。
  27. 前記絞り込み音声認識手段を、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新する手段として機能させることを特徴とする請求項26に記載のコンピュータプログラム。
JP2021039268A 2021-03-11 2021-03-11 検索支援サーバ、検索支援方法及びコンピュータプログラム Active JP7297266B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021039268A JP7297266B2 (ja) 2021-03-11 2021-03-11 検索支援サーバ、検索支援方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021039268A JP7297266B2 (ja) 2021-03-11 2021-03-11 検索支援サーバ、検索支援方法及びコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2022139053A true JP2022139053A (ja) 2022-09-26
JP2022139053A5 JP2022139053A5 (ja) 2022-11-02
JP7297266B2 JP7297266B2 (ja) 2023-06-26

Family

ID=83399196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021039268A Active JP7297266B2 (ja) 2021-03-11 2021-03-11 検索支援サーバ、検索支援方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7297266B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010181461A (ja) * 2009-02-03 2010-08-19 Olympus Corp デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体
JP2013097578A (ja) * 2011-10-31 2013-05-20 Toshiba Corp 電子機器、映像表示装置、電子機器の制御方法、電子機器の制御プログラム
JP2020079982A (ja) * 2018-11-12 2020-05-28 株式会社日本経済新聞社 動画のためのタグ付け装置、方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010181461A (ja) * 2009-02-03 2010-08-19 Olympus Corp デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体
JP2013097578A (ja) * 2011-10-31 2013-05-20 Toshiba Corp 電子機器、映像表示装置、電子機器の制御方法、電子機器の制御プログラム
JP2020079982A (ja) * 2018-11-12 2020-05-28 株式会社日本経済新聞社 動画のためのタグ付け装置、方法、およびプログラム

Also Published As

Publication number Publication date
JP7297266B2 (ja) 2023-06-26

Similar Documents

Publication Publication Date Title
US10417344B2 (en) Exemplar-based natural language processing
EP3251115B1 (en) Updating language understanding classifier models for a digital personal assistant based on crowd-sourcing
KR100735820B1 (ko) 휴대 단말기에서 음성 인식에 의한 멀티미디어 데이터 검색방법 및 그 장치
EP2058800B1 (en) Method and system for recognizing speech for searching a database
US20060143007A1 (en) User interaction with voice information services
US20150032453A1 (en) Systems and methods for providing information discovery and retrieval
JP6229287B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US20150179168A1 (en) Multi-user, Multi-domain Dialog System
KR20140047633A (ko) 컨텍스트 정보를 이용한 음성 인식 복구
US10672379B1 (en) Systems and methods for selecting a recipient device for communications
JP2014203207A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US11501764B2 (en) Apparatus for media entity pronunciation using deep learning
JP2015122084A (ja) 自然言語音声サービス環境においてマルチモーダル機器対話を処理するシステム及び方法
JP2009505321A (ja) 再生装置の動作を制御する方法およびシステム
JP2002032213A (ja) ボイス・メール・メッセージを転記する方法およびシステム
CN108063969A (zh) 显示设备、控制显示设备的方法、服务器以及控制服务器的方法
KR20150036643A (ko) 내추럴 동작 입력을 사용한 문맥 관련 쿼리 조정
JP2014203208A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP3639776B2 (ja) 音声認識用辞書作成装置および音声認識用辞書作成方法、音声認識装置、携帯端末器、並びに、プログラム記録媒体
KR20080083290A (ko) 디지털 파일의 컬렉션에서 디지털 파일을 액세스하기 위한방법 및 장치
JP2009042968A (ja) 情報選別システム、情報選別方法及び情報選別用プログラム
KR20060100646A (ko) 영상물의 특정 위치를 검색하는 방법 및 영상 검색 시스템
JP7297266B2 (ja) 検索支援サーバ、検索支援方法及びコンピュータプログラム
US10841411B1 (en) Systems and methods for establishing a communications session
US20060149545A1 (en) Method and apparatus of speech template selection for speech recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230606

R150 Certificate of patent or registration of utility model

Ref document number: 7297266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150