JP7297266B2 - SEARCH SUPPORT SERVER, SEARCH SUPPORT METHOD, AND COMPUTER PROGRAM - Google Patents

SEARCH SUPPORT SERVER, SEARCH SUPPORT METHOD, AND COMPUTER PROGRAM Download PDF

Info

Publication number
JP7297266B2
JP7297266B2 JP2021039268A JP2021039268A JP7297266B2 JP 7297266 B2 JP7297266 B2 JP 7297266B2 JP 2021039268 A JP2021039268 A JP 2021039268A JP 2021039268 A JP2021039268 A JP 2021039268A JP 7297266 B2 JP7297266 B2 JP 7297266B2
Authority
JP
Japan
Prior art keywords
data
tag
search
speech
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021039268A
Other languages
Japanese (ja)
Other versions
JP2022139053A5 (en
JP2022139053A (en
Inventor
清幸 鈴木
克利 大川
竜平 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Media Inc
Original Assignee
Advanced Media Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Media Inc filed Critical Advanced Media Inc
Priority to JP2021039268A priority Critical patent/JP7297266B2/en
Publication of JP2022139053A publication Critical patent/JP2022139053A/en
Publication of JP2022139053A5 publication Critical patent/JP2022139053A5/ja
Application granted granted Critical
Publication of JP7297266B2 publication Critical patent/JP7297266B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、Webサイトにおいてコンテンツ提供者が提供する多数の動画コンテンツの中から、検索主体であるユーザが、希望する動画コンテンツの特定のシーンを、発話により絞り込むことで確実に表示することが可能な検索支援サーバ、検索支援方法及びコンピュータプログラムに関する。 According to the present invention, it is possible to reliably display a specific scene of video content desired by a user, who is the subject of a search, from a large number of video content provided by a content provider on a website by speaking. Search support server, search support method and computer program.

Webサイトには様々な情報が存在する。現状では、Webサイトのトップページのアイコンのクリックやクリック可能な言葉による説明、Google(R)、Yahoo(R)等の検索エンジンを利用した検索窓を使うことで、ユーザが希望する内容を含むと考えられるWebページへのアドレス、あるいは動画コンテンツそのものを抽出してユーザが視認可能な表示装置において再生している。 Various information exists on the website. Currently, it is possible to find the content that the user desires by clicking on the icon on the top page of the website, using a description using words that can be clicked, or using a search window using a search engine such as Google (R) or Yahoo (R). An address to a Web page or video content itself is extracted and reproduced on a display device that is visible to the user.

また、ユーザの発話により検索キーの入力を受け付ける場合、Google(R)、Microsoft(R)等が提供する音声認識エンジンを使用して、ユーザによる発話を認識している。これらの商用の音声認識エンジンは、広汎に発話のデータを収集し、機械学習、あるいは深層学習により生成された汎用型の音声認識エンジンとして提供されている。 Also, when receiving a search key input by user's utterance, a speech recognition engine provided by Google (R), Microsoft (R), etc. is used to recognize the user's utterance. These commercial speech recognition engines are provided as general-purpose speech recognition engines generated by extensively collecting speech data and machine learning or deep learning.

したがって、ユーザの発話を音声認識する場合に、コンテンツ提供者がユーザに対して提供を意図する検索キーを正しく認識することができない場合が生じるおそれがあった。そこで、例えば特許文献1には、複数の言語モデルを用いることで音声認識精度を高めている音声理解装置が開示されている。 Therefore, when recognizing the user's utterance by voice, there is a possibility that the search key that the content provider intends to provide to the user cannot be correctly recognized. Therefore, for example, Patent Document 1 discloses a speech understanding device that uses a plurality of language models to improve speech recognition accuracy.

また特許文献2には、ユーザに対して、番組やシーンを検索するためのキーとなる情報を画面上に表示しておき、ユーザの選択を受け付けるデジタル放送受信装置が開示されている。特許文献2では、コンテンツホルダが、検索情報を含むメタデータを作成して記憶しておき、該検索情報で検索される動画のシーン情報の一覧をユーザに表示することにより、ユーザが所望のシーンを選択して再生することが可能となっている。 Further, Japanese Patent Laid-Open No. 2002-200000 discloses a digital broadcast receiver that displays key information for a user to search for a program or scene on a screen and accepts a user's selection. In Patent Literature 2, a content holder creates and stores metadata including search information, and displays a list of scene information of moving images searched by the search information to the user. can be selected and played.

特開2010-170137号公報JP 2010-170137 A 特開2009-055643号公報JP 2009-055643 A

特許文献1では、複数の音声認識エンジンを用いて並列に処理し、得られた複数の認識結果に基づく言語理解エンジンの処理結果を統合処理している。しかし、複数の認識結果及び言語理解処理結果の統合処理には相当の時間を要するだけではなく、統合処理後の認識結果の確度を保証することができないため現実的ではない。したがって、ユーザの発話によって、短時間で正しい検索キーを取得することができる保証がないという問題点があった。 In Patent Document 1, processing is performed in parallel using a plurality of speech recognition engines, and the processing results of the language understanding engine based on the obtained plurality of recognition results are integrated. However, the process of integrating multiple recognition results and language understanding process results not only takes a considerable amount of time, but also cannot guarantee the accuracy of the recognition results after the integration process, which is not realistic. Therefore, there is a problem that there is no guarantee that the correct search key can be acquired in a short time by the user's utterance.

また、特許文献2では、コンテンツホルダの作成する検索情報を含むメタデータが一覧表示される。しかし、特許文献2では表示されているメタデータの中から選択する必要があるのに対して、メタデータの表示領域には物理的な制約があることから表示可能なメタデータ数に制限がある。したがって、ユーザ所望のシーンに紐づいたメタデータが表示されないケースも想定され、ユーザが所望のシーンを再生するには、結局所望のシーンを再生しながら探し出す必要があり、相当の手間と時間とを要するという問題点があった。また、一覧表示させるメタデータを作成するのにも相当の手間と時間とを要し、充分な数のメタデータを表示することができないので、メタデータの指示により再生されるシーンが必ずしもユーザの所望のシーンを再生しているという保証もない。 Further, in Patent Document 2, a list of metadata including search information created by a content holder is displayed. However, in Patent Document 2, it is necessary to select from displayed metadata, but the number of metadata that can be displayed is limited due to physical restrictions on the display area of metadata. . Therefore, it is conceivable that the metadata associated with the scene desired by the user may not be displayed, and in order for the user to reproduce the desired scene, it is necessary to search for the desired scene while reproducing the desired scene. There was a problem of requiring In addition, it takes a considerable amount of time and effort to create metadata to be displayed as a list, and a sufficient number of metadata cannot be displayed. There is also no guarantee that you are playing the desired scene.

本発明は、上記事情に鑑みてなされたものであり、動画コンテンツの特定部分(シーン)を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、全てのガイドデータを発話で絞り込んで表示することが可能なスピーチウィンドウを用いることで、ユーザが自己の目的に応じて絞り込んだガイドデータ通りに発話又は選択する限り、コンテンツ提供者がユーザに提供したい動画コンテンツの特定部分へ確実に誘導することが可能な検索支援サーバ、検索支援方法及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and includes a signage window that selectively displays guide data that guides speech for selecting tag information that indicates a specific portion (scene) of moving image content; By using a speech window that can display guide data narrowed down by utterance, as long as the user speaks or selects according to the guide data narrowed down according to his/her purpose, video content that the content provider wants to provide to the user. It is an object of the present invention to provide a search support server, a search support method, and a computer program that can reliably guide users to a specific part of the.

上記目的を達成するために本発明に係る検索支援サーバは、Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバであって、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウとをデータ通信することが可能に接続されている端末装置に表示させ、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させることを特徴とする。 In order to achieve the above object, a search support server according to the present invention is a search support server that supports a search for video content published on a website, and selects tag information indicating a specific portion of video content. Data communication is possible between a signage window that selectively displays guide data that induces the user's utterance and a speech window that can narrow down the guide data to be displayed from among the guide data according to the user's utterance. Displaying the tag information on the connected terminal device, receiving speech by the user of the tag information displayed on the signage window and/or the speech window, narrowing down the tag information to be displayed, and narrowing down the tag information By receiving a selection, a specific portion of the video content corresponding to the tag information for which the selection has been received is reproduced on the terminal device.

また、本発明に係る検索支援サーバは、前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることが好ましい。 Further, in the search support server according to the present invention, the tag information includes at least a tag name that identifies a specific part of the video content, text data consisting of a simple sentence or a group of words describing the contents of the tag name, and tag name It is preferable that it is composed of attribute information indicating an attribute.

また、本発明に係る検索支援サーバは、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成するサーチデータ生成手段を備え、該サーチデータ生成手段は、前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する抽出・再生手段と、再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付けるタグ入力受付手段と、再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索するポインタ探索手段と、入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付けるポインタ割付受付手段と、入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける属性情報受付手段とを備えることが好ましい。 Further, the search support server according to the present invention comprises search data generation means for generating search data that is the basis of guide data to be displayed on the signage window and/or the speech window, and the search data generation means extracting/reproducing means for extracting a simple sentence or a group of words indicating the content based on the contents of the content, and reproducing the video content corresponding to the selection of the extracted simple sentence or the group of words; tag input receiving means for receiving an input of the tag name and a simple sentence or a group of words indicating the content of the tag name based on the video content; and reproducing a specific portion of the video content based on the video content to be reproduced. Pointer searching means for searching for pointer information including start time and reproduction end time; pointer allocation receiving means for receiving allocation of the searched pointer information for each tag name whose input is received; and tag whose input is received. It is preferable to provide attribute information receiving means for receiving input of the attribute information that can be spoken at the time of searching for each name.

また、本発明に係る検索支援サーバは、前記抽出・再生手段は、前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する音声文字起し手段と、出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生するコンテンツ再生手段とを備えることが好ましい。 Further, in the search support server according to the present invention, the extracting/reproducing means scrutinizes the moving image content, recognizes the contained voice as a simple sentence or a group of words, and outputs it as text data. and content reproducing means for reproducing the video content corresponding to the selected text data when the selection of the output text data is received.

また、本発明に係る検索支援サーバは、前記ポインタ割付受付手段は、探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付けるポインタ更新受付手段を備えることが好ましい。 Further, in the search support server according to the present invention, the pointer allocation reception means reproduces the moving image content with respect to the reproduction start time and the reproduction end time of the specific portion of the moving image content included in the searched pointer information. It is preferable to provide a pointer update receiving means for receiving an update while updating the pointer.

また、本発明に係る検索支援サーバは、前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることが好ましい。 Further, in the search support server according to the present invention, it is preferable that the guide data is generated by associating the tag information included in the search data with search data identification information for identifying the search data.

また、本発明に係る検索支援サーバは、前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、ユーザにより発話された音声データの入力を受け付ける発話受付手段と、入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記動画コンテンツの特定部分を表示するメタタグ音声認識手段と、入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する絞り込み音声認識手段とを備え、前記メタタグ音声認識手段及び前記絞り込み音声認識手段を並行して実行することが好ましい。 Further, the search support server according to the present invention further includes speech accepting means for accepting input of voice data uttered by the user in order to narrow down the tag names displayed in the speech window and capable of accepting selection by the user. , converts the received voice data into text data, calculates the degree of matching of the converted text data with the tag name of the guide data and a simple sentence or word group indicating the content of the tag name, and calculates the calculated degree of matching Meta tag speech recognition means for identifying the tag name with the maximum value and displaying the specific part of the video content corresponding to the tag name when the degree of matching is greater than a predetermined value; extracts tag information that matches the attribute information from among the tag information of the guide data, narrows down the guide data by logical AND of one or more pieces of attribute information that match, and extracts the guide data that has been narrowed down It is preferable that the apparatus further comprises narrowed-down speech recognition means for outputting the tag name and the attribute information, and that the meta-tag speech recognition means and the narrowed-down speech recognition means are executed in parallel.

また、本発明に係る検索支援サーバは、前記メタタグ音声認識手段は、変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出し、前記絞り込み音声認識手段は、すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込むことが好ましい。 Further, in the search support server according to the present invention, the metatag speech recognition means converts the text data, all the tag names and the first data formed of simple sentences or word groups indicating the contents of the tag names The degree of matching with the set is calculated, and the narrowing-down speech recognition means extracts the second data set formed by the attribute information associated with all the tag names as the recognition result using the second data set as a speech recognition filter. Preferably, the guide data are narrowed down by logical product of the attribute information.

また、本発明に係る検索支援サーバは、前記絞り込み音声認識手段は、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新することが好ましい。 Further, in the search support server according to the present invention, it is preferable that the narrowed-down speech recognition means updates the second data set with the attribute information of the narrowed-down guide data.

次に、上記目的を達成するために本発明に係る検索支援方法は、Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバで実行することが可能な検索支援方法であって、前記検索支援サーバが、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウとをデータ通信することが可能に接続されている端末装置に表示させる工程と、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させる工程とを実行することを特徴とする。 Next, in order to achieve the above object, a search support method according to the present invention is a search support method that can be executed by a search support server that supports searches for video content published on a website, comprising: The search support server comprises a signage window for selectively displaying guide data for guiding speech for selecting tag information indicating a specific part of video content, and a user selecting guide data to be displayed from among the guide data. a step of displaying a speech window that can be narrowed down by an utterance on a terminal device connected to be capable of data communication; By receiving an utterance, narrowing down the tag information to be displayed, and receiving selection of the narrowed-down tag information, a specific part of the video content corresponding to the selected tag information is reproduced on the terminal device. It is characterized by performing the steps.

また、本発明に係る検索支援方法は、前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることが好ましい。 Further, in the search support method according to the present invention, the tag information includes at least a tag name that identifies a specific part of the moving image content, text data consisting of a simple sentence or a group of words describing the contents of the tag name, and the tag name. It is preferable that it is composed of attribute information indicating an attribute.

また、本発明に係る検索支援方法は、前記検索支援サーバが、前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する工程と、再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付ける工程と、再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索する工程と、入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付ける工程と、入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける工程とを実行し、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成することが好ましい。 Further, in the search support method according to the present invention, the search support server extracts a simple sentence or word group indicating the content based on the content of the video content, and accepts selection of the extracted simple sentence or word group. a step of reproducing the video content corresponding to the case; a step of accepting input of the tag name and a simple sentence or word group indicating the content of the tag name based on the video content to be played; and a step of receiving the video to be played. A step of searching for pointer information including a reproduction start time and a reproduction end time of a specific portion of the video content based on the content, and a step of receiving allocation of the searched pointer information for each of the received tag names. and a step of receiving an input of the attribute information that can be spoken at the time of searching for each of the tag names whose input has been received, and search data serving as a basis for guide data displayed in the signage window and/or the speech window. is preferably generated.

また、本発明に係る検索支援方法は、前記検索支援サーバが、前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する工程と、出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生する工程とを実行することが好ましい。 Further, in the search support method according to the present invention, the search support server closely examines the video content, recognizes the included speech as a simple sentence or word group, and outputs it as text data; When the selection of text data is accepted, it is preferable to perform the step of reproducing the moving image content corresponding to the text data for which the selection is accepted.

また、本発明に係る検索支援方法は、前記検索支援サーバが、探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付ける工程を実行することが好ましい。 Further, in the search support method according to the present invention, the search support server, while reproducing the video content, determines the reproduction start time and the reproduction end time of the specific portion of the video content, which are included in the searched pointer information. Preferably, a step of accepting updates is performed.

また、本発明に係る検索支援方法は、前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることが好ましい。 Further, in the search support method according to the present invention, it is preferable that the guide data is generated by associating the tag information included in the search data with search data identification information for identifying the search data.

また、本発明に係る検索支援方法は、前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、前記検索支援サーバが、ユーザにより発話された音声データの入力を受け付ける工程を実行し、前記検索支援サーバが、入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記動画コンテンツの特定部分を表示する工程、及び入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する工程を、並行して実行することが好ましい。 Further, in the search support method according to the present invention, in order to narrow down the tag names which are displayed in the speech window and which can be selected by the user, the search support server inputs voice data uttered by the user. a simple sentence or a group of words indicating the tag name of the guide data of the converted text data and the content of the tag name, wherein the search support server converts the received voice data into text data, and executes the receiving step; a step of calculating the degree of matching with respect to the tag name, identifying the tag name with the highest degree of matching calculated, and displaying a specific portion of the video content corresponding to the tag name when the degree of matching is greater than a predetermined value; and extracting the tag information that matches the attribute information from among the tag information of the guide data based on the received voice data, and narrowing down the guide data by logical AND of one or more pieces of attribute information that match. It is preferable that the step of outputting the tag name and the attribute information of the narrowed down guide data is executed in parallel.

また、本発明に係る検索支援方法は、前記検索支援サーバが、変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出する工程と、すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込む工程とを実行することが好ましい。 Further, in the search support method according to the present invention, the search support server provides a first data set formed of converted text data, simple sentences or word groups indicating all the tag names and the contents of the tag names. and the logic of the attribute information extracted as a recognition result using a second data set formed of the attribute information associated with all tag names as a speech recognition filter and narrowing down the guide data by product.

また、本発明に係る検索支援方法は、前記検索支援サーバが、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新する工程を実行することが好ましい。 Further, in the search support method according to the present invention, it is preferable that the search support server updates the second data set with the attribute information of the narrowed down guide data.

次に、上記目的を達成するために本発明に係るコンピュータプログラムは、Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバで実行することが可能なコンピュータプログラムであって、前記検索支援サーバを、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウとをデータ通信することが可能に接続されている端末装置に表示させる手段、及び前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させる手段として機能させることを特徴とする。 Next, in order to achieve the above object, a computer program according to the present invention is a computer program that can be executed by a search support server for supporting search of video content published on a website, the computer program comprising: A support server is provided with a signage window for selectively displaying guide data for guiding an utterance for selecting tag information indicating a specific portion of video content, and a user uttering the guide data to be displayed from among the guide data. means for displaying on a terminal device connected to a terminal device capable of data communication a speech window that can be narrowed down by a user; As a means for narrowing down the tag information to be received and displayed, and receiving selection of the narrowed-down tag information so that the terminal device reproduces a specific portion of the video content corresponding to the selected tag information. It is characterized by functioning.

また、本発明に係るコンピュータプログラムは、前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることが好ましい。 Further, in the computer program according to the present invention, the tag information includes at least a tag name that identifies a specific part of the video content, text data consisting of a simple sentence or a group of words describing the contents of the tag name, and attributes of the tag name. is preferably configured with attribute information indicating

また、本発明に係るコンピュータプログラムは、前記検索支援サーバを、前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成するサーチデータ生成手段として機能させ、該サーチデータ生成手段を、前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する抽出・再生手段、再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付けるタグ入力受付手段、再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索するポインタ探索手段、入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付けるポインタ割付受付手段、及び入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける属性情報受付手段として機能させることが好ましい。 Further, the computer program according to the present invention causes the search support server to function as search data generating means for generating search data serving as a basis for guide data displayed in the signage window and/or the speech window, and Extraction/playback for extracting a simple sentence or a group of words indicating content based on the content of the moving image content, and reproducing the corresponding moving image content when selection of the extracted simple sentence or group of words is accepted. means, tag input receiving means for receiving input of the tag name and simple sentences or word groups indicating the contents of the tag name based on the reproduced video content, and input of the video content based on the reproduced video content. Pointer searching means for searching for pointer information including reproduction start time and reproduction end time of a specific portion, pointer allocation receiving means for receiving allocation of the searched pointer information for each tag name whose input is received, and input reception. It is preferable to function as attribute information receiving means for receiving input of the attribute information that can be spoken at the time of searching for each of the tag names.

また、本発明に係るコンピュータプログラムは、前記抽出・再生手段を、前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する音声文字起し手段、及び出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生するコンテンツ再生手段として機能させることが好ましい。 Further, the computer program according to the present invention is a speech transcription means for examining the moving image content, recognizing the included speech as a simple sentence or a group of words, and outputting it as text data. And, when receiving the selection of the output text data, it is preferable to function as content reproducing means for reproducing the moving image content corresponding to the selected text data.

また、本発明に係るコンピュータプログラムは、前記ポインタ割付受付手段を、探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付けるポインタ更新受付手段として機能させることが好ましい。 Further, the computer program according to the present invention causes the pointer allocation reception means to obtain the reproduction start time and the reproduction end time of the specific portion of the moving image content, which are included in the searched pointer information, while reproducing the moving image content. It is preferable to function as pointer update receiving means for receiving updates.

また、本発明に係るコンピュータプログラムは、前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることが好ましい。 Further, in the computer program according to the present invention, it is preferable that the guide data is generated by associating the tag information included in the search data with search data identification information for identifying the search data.

また、本発明に係るコンピュータプログラムは、前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、前記検索支援サーバを、ユーザにより発話された音声データの入力を受け付ける発話受付手段として機能させ、前記検索支援サーバを、入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記動画コンテンツの特定部分を表示するメタタグ音声認識手段、及び入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する絞り込み音声認識手段として、並行して機能させることが好ましい。 Further, the computer program according to the present invention causes the search support server to input voice data uttered by the user in order to narrow down the tag names displayed in the speech window and capable of accepting selection by the user. Functioning as an utterance accepting means for accepting input, the search support server converts the input accepted voice data into text data, and a simple sentence or word indicating the tag name of the guide data of the converted text data and the content of the tag name A metatag for calculating a degree of matching with a group, identifying a tag name with the highest degree of matching calculated, and displaying a specific portion of the video content corresponding to the tag name when the degree of matching is greater than a predetermined value. extracting tag information matching the attribute information from among the tag information of the guide data based on the voice recognition means and the voice data received as an input; It is preferable to function in parallel as narrowed-down speech recognition means for narrowing down data and outputting the tag name and attribute information of the narrowed-down guide data.

また、本発明に係るコンピュータプログラムは、前記メタタグ音声認識手段を、変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出する手段として機能させ、前記絞り込み音声認識手段を、すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込む手段として機能させることが好ましい。 Further, the computer program according to the present invention provides a first data set formed of converted text data, simple sentences or word groups indicating all of the tag names and the content of the tag names. The second data set formed by the attribute information associated with all the tag names is functioned as a means for calculating the degree of matching, and the second data set formed by the attribute information associated with all tag names is used as a speech recognition result. It is preferable to function as means for narrowing down the guide data by logical product of the attribute information extracted as .

また、本発明に係るコンピュータプログラムは、前記絞り込み音声認識手段を、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新する手段として機能させることが好ましい。 Also, the computer program according to the present invention preferably causes the narrowed-down speech recognition means to function as means for updating the second data set with the attribute information of the narrowed-down guide data.

本発明によれば、Webサイト上に公開されている多数の動画コンテンツの中から、動画コンテンツを提供するコンテンツ提供者が、提供する動画コンテンツへユーザを誘導しやすいガイドデータをスピーチウィンドウやサイネージウィンドウに表示することができるとともに、ユーザ自らの意思で選択対象となるガイドデータを絞り込むことができるので、個々のユーザが表示されているガイドデータ通りに発話あるいは選択することにより、簡便にしかも迅速にコンテンツ提供者が提供する動画コンテンツをユーザの意向に沿って表示・再生することが可能となる。 According to the present invention, a content provider who provides moving image content from among a large number of moving image contents published on a website can display guide data that easily guides a user to the provided moving image content in a speech window or a signage window. In addition, the user can narrow down the guide data to be selected at his or her own will, so that each user can speak or select according to the displayed guide data, easily and quickly. It is possible to display/reproduce video content provided by a content provider in accordance with the user's intention.

本発明の実施の形態に係る音声検索システムの構成を模式的に示すブロック図である。1 is a block diagram schematically showing the configuration of a voice search system according to an embodiment of the present invention; FIG. 本発明の実施の形態に係る検索支援サーバの構成を模式的に示すブロック図である。1 is a block diagram schematically showing the configuration of a search support server according to an embodiment of the present invention; FIG. 本発明の実施の形態に係る端末装置の構成を模式的に示すブロック図である。1 is a block diagram schematically showing the configuration of a terminal device according to an embodiment of the present invention; FIG. 本発明の実施の形態に係る検索支援サーバのサーチデータ生成処理の機能ブロック図である。4 is a functional block diagram of search data generation processing of the search support server according to the embodiment of the present invention; FIG. 、本発明の実施の形態に係る検索支援サーバが、コンテンツ提供者が使用する端末装置に表示させる入力受付画面の例示図である。FIG. 4 is an exemplary view of an input reception screen displayed on a terminal device used by a content provider by the search support server according to the embodiment of the present invention; 本発明の実施の形態に係る検索支援サーバで生成されるサーチデータ及びガイドデータの例示図である。FIG. 4 is an exemplary diagram of search data and guide data generated by the search support server according to the embodiment of the present invention; 本発明の実施の形態に係る検索支援サーバのサーチデータ及びガイドデータの例示図である。FIG. 4 is an exemplary diagram of search data and guide data of the search support server according to the embodiment of the present invention; 本発明の実施の形態に係る検索支援サーバのサーチデータ及びガイドデータの他の例示図である。FIG. 8 is another exemplary diagram of search data and guide data of the search support server according to the embodiment of the present invention; 本発明の実施の形態に係る検索支援サーバが、ユーザが使用する端末装置上で表示する入力受付画面の例示図である。FIG. 4 is an exemplary diagram of an input acceptance screen displayed on a terminal device used by a user by the search support server according to the embodiment of the present invention; 本発明の実施の形態に係る検索支援サーバが、ユーザが使用する端末装置に表示させるスピーチウィンドウの例示図である。FIG. 4 is an exemplary diagram of a speech window displayed on a terminal device used by a user by the search support server according to the embodiment of the present invention; 本発明の実施の形態に係る検索支援サーバのCPUのコンテンツ提供者の設定処理手順を示すフローチャートである。9 is a flow chart showing a content provider setting processing procedure of the CPU of the search support server according to the embodiment of the present invention; 本発明の実施の形態に係る検索支援サーバのユーザによる発話の音声認識処理の機能ブロック図である。FIG. 4 is a functional block diagram of speech recognition processing of an utterance by a user of the search support server according to the embodiment of the present invention; 本発明の実施の形態に係る検索支援サーバのCPUの音声認識処理の手順を示すフローチャートである。4 is a flow chart showing the procedure of speech recognition processing of the CPU of the search support server according to the embodiment of the present invention;

以下、本発明の実施の形態に係る検索支援サーバについて、図面を参照して説明する。以下の実施の形態は、特許請求の範囲に記載された発明を限定するものではなく、実施の形態の中で説明されている特徴的事項の組み合わせの全てが解決手段の必須事項であるとは限らないことは言うまでもない。 A search support server according to an embodiment of the present invention will be described below with reference to the drawings. The following embodiments do not limit the invention described in the claims, and all combinations of characteristic items described in the embodiments are essential items for the solution. It goes without saying that there is no limit.

また、本発明は多くの異なる態様にて実施することが可能であり、実施の形態の記載内容に限定して解釈されるべきものではない。実施の形態を通じて同じ要素には同一の符号を付している。 Moreover, the present invention can be implemented in many different modes and should not be construed as being limited to the description of the embodiments. The same reference numerals are given to the same elements throughout the embodiments.

以下の実施の形態では、コンピュータシステムにコンピュータプログラムを導入した音声検索システムとして説明するが、当業者であれば明らかな通り、本発明はその一部をコンピュータで実行することが可能なコンピュータプログラムとして実施することができる。したがって、本発明は、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、全てのガイドデータを発話で絞り込んで表示することが可能なスピーチウィンドウを用いることで、ユーザが自己の目的に応じて絞り込んだガイドデータ通りに発話又は選択する限り、コンテンツ提供者がユーザに提供したい動画コンテンツの特定部分へ確実に誘導することが可能な検索支援サーバというハードウェアとしての実施の形態、ソフトウェアとしての実施の形態、又はソフトウェアとハードウェアとの組み合わせの実施の形態をとることができる。コンピュータプログラムは、ハードディスク、DVD、CD、光記憶装置、磁気記憶装置等の任意のコンピュータで読み取ることが可能な記録媒体に記録することができる。 In the following embodiments, a voice search system in which a computer program is installed in a computer system will be described. can be implemented. Therefore, the present invention can provide a signage window that selectively displays guide data that guides utterances for selecting tag information that indicates a specific portion of video content, and all guide data that can be narrowed down by utterances and displayed. By using such a speech window, as long as the user speaks or selects according to the guide data narrowed down according to the user's purpose, it is possible to reliably guide the user to a specific part of the video content that the content provider wants to provide to the user. The search support server can be implemented as hardware, as software, or as a combination of software and hardware. The computer program can be recorded on any computer-readable recording medium such as a hard disk, DVD, CD, optical storage device, or magnetic storage device.

本発明の実施の形態によれば、Webサイト上に公開されている多数の動画コンテンツの中から、動画コンテンツを提供するコンテンツ提供者が、提供する動画コンテンツへユーザを誘導しやすいガイドデータをスピーチウィンドウやサイネージウィンドウに表示することができるとともに、ユーザ自らの意思で選択対象となるガイドデータを絞り込むことができるので、個々のユーザが表示されているガイドデータ通りに発話あるいは選択することにより、簡便にしかも迅速にコンテンツ提供者が提供する動画コンテンツをユーザの意向に沿って表示・再生することが可能となる。 According to the embodiment of the present invention, a content provider who provides moving image content out of a large number of moving image contents published on a website speeches out guide data that easily guides a user to the provided moving image content. It can be displayed on a window or a signage window, and the guide data to be selected can be narrowed down by the user's own intention. Moreover, it is possible to quickly display and reproduce the moving image content provided by the content provider in accordance with the user's intention.

図1は、本発明の実施の形態に係る音声検索システムの構成を模式的に示すブロック図である。本実施の形態に係る音声検索システムは、コンテンツ提供者が使用する端末装置1aと、コンテンツや動画コンテンツを検索するユーザが使用する端末装置1bと、端末装置1a及び1bとデータ通信することが可能にインターネット等のネットワーク網2を介して接続されている検索支援サーバ3とで構成されている。端末装置1a、1bは、マイクやスピーカを接続してある据え置き型のPCに限定されるものではなく、マイクやスピーカを内蔵しているスマートホン、タブレット等の携帯端末であっても良い。 FIG. 1 is a block diagram schematically showing the configuration of a voice search system according to an embodiment of the invention. The voice search system according to the present embodiment can perform data communication with a terminal device 1a used by a content provider, a terminal device 1b used by a user searching for content or video content, and the terminal devices 1a and 1b. and a search support server 3 connected via a network 2 such as the Internet. The terminal devices 1a and 1b are not limited to stationary PCs to which microphones and speakers are connected, but may be portable terminals such as smart phones and tablets that have built-in microphones and speakers.

図2は、本発明の実施の形態に係る検索支援サーバ3の構成を模式的に示すブロック図である。本実施の形態に係る検索支援サーバ3は、少なくともCPU(中央演算装置)31、メモリ32、記憶装置33、I/Oインタフェース34、ビデオインタフェース35、可搬型メモリドライブ36、通信インタフェース37及び上述したハードウェアを接続する内部バス38で構成されている。 FIG. 2 is a block diagram schematically showing the configuration of the search support server 3 according to the embodiment of the invention. The search support server 3 according to this embodiment includes at least a CPU (Central Processing Unit) 31, a memory 32, a storage device 33, an I/O interface 34, a video interface 35, a portable memory drive 36, a communication interface 37, and the above-described It consists of an internal bus 38 that connects hardware.

CPU31は、内部バス38を介して検索支援サーバ3の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置33に記憶されているコンピュータプログラム100に従って、種々のソフトウェア的機能を実行する。メモリ32は、SRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラム100の実行時にロードモジュールが展開され、コンピュータプログラム100の実行時に発生する一時的なデータ等を記憶する。 The CPU 31 is connected to the above-described hardware units of the search support server 3 via the internal bus 38, controls the operation of the above-described hardware units, and executes the computer program 100 stored in the storage device 33. perform various software-like functions according to The memory 32 is composed of a volatile memory such as SRAM, SDRAM, etc. A load module is expanded when the computer program 100 is executed, and temporary data generated when the computer program 100 is executed is stored.

記憶装置33は、内蔵される固定型記憶装置(ハードディスク)、ROM等で構成されている。記憶装置33に記憶されたコンピュータプログラム100は、プログラム及びデータ等の情報を記録したDVD、CD-ROM、USBメモリ、SDカード等の可搬型記録媒体90から、可搬型メモリドライブ36によりダウンロードされ、実行時には記憶装置33からメモリ32へ展開して実行される。もちろん、通信インタフェース37を介して接続されている外部コンピュータからダウンロードされたコンピュータプログラムであっても良い。 The storage device 33 is composed of a built-in fixed storage device (hard disk), ROM, and the like. The computer program 100 stored in the storage device 33 is downloaded by the portable memory drive 36 from a portable recording medium 90 such as a DVD, CD-ROM, USB memory, SD card, etc. that records information such as programs and data, When executed, it is expanded from the storage device 33 to the memory 32 and executed. Of course, it may be a computer program downloaded from an external computer connected via the communication interface 37 .

記憶装置33は、サーチデータ記憶部331及びガイドデータ記憶部332とを備えている。サーチデータ記憶部331は、コンテンツ提供者が、提供するコンテンツに対してユーザがアクセス可能なサーチデータ(コンテンツの特定部分を識別するタグ名称、タグ名称の内容を説明する単文又は単語群からなるテキストデータ及びタグ名称の属性を示す属性情報)をポインタ情報(動画コンテンツの場合には、加えてタイムスタンプ情報)に対応付けて記憶する。なお、ポインタ情報とは、コンテンツにアクセスすることが可能なコンテンツの存在位置を示す情報を広く意味している。コンテンツがWebページである場合にはURLがポインタ情報に相当し、動画コンテンツである場合には、再生可能なURLだけではなく、動画コンテンツの再生を開始するタイムスタンプ情報、再生を終了するタイムスタンプ情報もポインタ情報に含まれる。 The storage device 33 has a search data storage section 331 and a guide data storage section 332 . The search data storage unit 331 stores search data (tag names that identify specific parts of the content, simple sentences or word groups that describe the content of the tag names) that can be accessed by users for content provided by content providers. attribute information indicating attributes of data and tag names) is stored in association with pointer information (and time stamp information in the case of video content). Note that the pointer information broadly means information indicating the location of content that can be accessed. If the content is a web page, the URL corresponds to the pointer information, and if the content is video content, not only the reproducible URL, but also time stamp information to start playing the video content and time stamp to end the playing. information is also included in the pointer information.

ガイドデータ記憶部332は、ユーザが検索するための発話あるいはクリック、タッチ等の選択操作を促すために、サーチデータに基づいて生成されるガイドデータを記憶する。ガイドデータは、サーチデータの中から、コンテンツの特定部分を識別するタグ名称、タグ名称の内容を説明する単文又は単語群からなるテキストデータ及びタグ名称の属性を示す属性情報を抽出して、対応するサーチデータの識別情報に対応付けて生成される。ガイドデータを表示するスピーチウィンドウに一覧表示された状態で、ユーザの発話により表示されるガイドデータが絞り込まれる。ユーザが絞り込まれて表示されているガイドデータの中からいずれかのタグ名称を選択することで、選択されたタグ名称に対応付けられたサーチデータで特定されるコンテンツ(動画コンテンツ含む)を表示(あるいは再生)することができる。 The guide data storage unit 332 stores guide data generated based on the search data in order to prompt the user to make an utterance for searching or a selection operation such as a click or a touch. The guide data extracts from the search data a tag name that identifies a specific part of the content, text data consisting of simple sentences or word groups that describe the content of the tag name, and attribute information that indicates the attribute of the tag name, It is generated in association with the identification information of the search data to be searched. The guide data to be displayed is narrowed down by the user's utterance while the list is displayed in the speech window displaying the guide data. When the user selects one of the tag names from the guide data that has been narrowed down and displayed, the content (including video content) specified by the search data associated with the selected tag name is displayed ( or playback).

通信インタフェース37は内部バス38に接続されており、インターネット、LAN、WAN等の外部のネットワーク網2に接続されることにより、外部コンピュータ等とデータ送受信を行うことが可能となっている。 The communication interface 37 is connected to an internal bus 38, and by connecting to an external network 2 such as the Internet, LAN, WAN, etc., it is possible to transmit and receive data to and from an external computer or the like.

I/Oインタフェース34は、入力装置であるキーボード41、マウス42と接続され、データの入力を行う。本実施の形態では、実際に音声を入力するのは、コンテンツ提供者又はユーザが使用している端末装置1a、1b(スマートフォン、タブレット等)であり、入力された音声データを通信インタフェース37を介して受信する。もちろん、検索支援サーバ3にマイク、スピーカ等を直接接続していても良い。 The I/O interface 34 is connected to a keyboard 41 and a mouse 42, which are input devices, to input data. In the present embodiment, it is the terminal device 1a, 1b (smartphone, tablet, etc.) used by the content provider or the user that actually inputs the voice, and the input voice data is transmitted via the communication interface 37. to receive. Of course, the search support server 3 may be directly connected with a microphone, a speaker, or the like.

ビデオインタフェース35は、CRTディスプレイ、液晶ディスプレイ等の表示装置43と接続されている。本実施の形態では、実際に画像を出力表示するのは、コンテンツ提供者又はユーザが使用している端末装置1a、1b(スマートフォン、タブレット等)であり、検索支援サーバ3は、端末装置1a、1bへ(音声データを含む)画像データ等を通信インタフェース37を介して送信する。 The video interface 35 is connected to a display device 43 such as a CRT display or liquid crystal display. In the present embodiment, it is the terminal devices 1a and 1b (smartphones, tablets, etc.) used by the content provider or the user that actually output and display the images. 1b via the communication interface 37, such as image data (including audio data).

図3は、本発明の実施の形態に係る端末装置1(1a、1b共通)の構成を模式的に示すブロック図である。本実施の形態に係る端末装置1は、少なくともCPU(中央演算装置)11、メモリ12、記憶装置13、I/Oインタフェース14、ビデオインタフェース15、可搬型メモリドライブ16、通信インタフェース17及び上述したハードウェアを接続する内部バス18で構成されている。 FIG. 3 is a block diagram schematically showing the configuration of the terminal device 1 (common to 1a and 1b) according to the embodiment of the present invention. The terminal device 1 according to the present embodiment includes at least a CPU (Central Processing Unit) 11, a memory 12, a storage device 13, an I/O interface 14, a video interface 15, a portable memory drive 16, a communication interface 17, and the hardware described above. It consists of an internal bus 18 that connects hardware.

CPU11は、内部バス18を介して端末装置1の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置13に記憶されているコンピュータプログラム101に従って、種々のソフトウェア的機能を実行する。メモリ12は、SRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラム101の実行時にロードモジュールが展開され、コンピュータプログラム101の実行時に発生する一時的なデータ等を記憶する。 The CPU 11 is connected to the above-described hardware units of the terminal device 1 via the internal bus 18 , controls the operation of the above-described hardware units, and executes computer programs 101 stored in the storage device 13 . , which performs various software-like functions. The memory 12 is composed of a volatile memory such as SRAM, SDRAM, etc. A load module is expanded when the computer program 101 is executed, and temporary data generated when the computer program 101 is executed is stored.

記憶装置13は、内蔵される固定型記憶装置(ハードディスク)、ROM等で構成されている。記憶装置13に記憶されたコンピュータプログラム101は、通信インタフェース17を介して接続されている外部コンピュータからダウンロードされ、実行時には記憶装置13からメモリ12へ展開して実行される。もちろん、プログラム及びデータ等の情報を記録したSDカード等の可搬型記録媒体91から可搬型メモリドライブ16を介してダウンロードされたコンピュータプログラムであっても良い。 The storage device 13 is composed of a built-in fixed storage device (hard disk), ROM, and the like. A computer program 101 stored in the storage device 13 is downloaded from an external computer connected via the communication interface 17, and expanded from the storage device 13 to the memory 12 at the time of execution. Of course, it may be a computer program downloaded via the portable memory drive 16 from a portable recording medium 91 such as an SD card recording information such as programs and data.

通信インタフェース17は内部バス18に接続されており、インターネット、LAN、WAN等の外部のネットワーク網2に接続されることにより、外部コンピュータ等とデータ送受信を行うことが可能となっている。 The communication interface 17 is connected to an internal bus 18, and by connecting to an external network 2 such as the Internet, LAN, WAN, etc., it is possible to transmit and receive data to and from an external computer or the like.

I/Oインタフェース14は、キーボード203、マウス204等の入力装置の他、マイク201等の音声入力装置、スピーカ202等の音声出力装置と接続され、データの入出力を行う。通信インタフェース17を介してスマートホン等を接続し、音声入力装置及び音声出力装置を代用しても良い。 The I/O interface 14 is connected to an input device such as the keyboard 203 and mouse 204, as well as an audio input device such as the microphone 201 and an audio output device such as the speaker 202, and inputs and outputs data. A smart phone or the like may be connected via the communication interface 17 to substitute the voice input device and the voice output device.

ビデオインタフェース15は、表示装置205と接続されており、検索支援サーバ3から送信されてくる入出力用の画像をブラウザ等で表示する。検索されたコンテンツや動画コンテンツは、表示装置205に表示しても良いし、別途ネットワーク網を介してデータ通信することが可能に接続されている外部のコンピュータで表示しても良い。 The video interface 15 is connected to the display device 205 and displays images for input/output transmitted from the search support server 3 on a browser or the like. The retrieved content and moving image content may be displayed on the display device 205, or may be displayed on an external computer that is separately connected to enable data communication via a network.

以下、上述した構成の検索支援サーバ3の動作について説明する。 The operation of the search support server 3 configured as described above will be described below.

図4は、本発明の実施の形態に係る検索支援サーバ3のサーチデータ生成処理の機能ブロック図である。図4では、コンテンツ提供者がサーチデータを生成し、ガイドデータを生成して、サイネージウィンドウ及び/又はスピーチウィンドウに表示する手順について説明する。 FIG. 4 is a functional block diagram of search data generation processing of the search support server 3 according to the embodiment of the present invention. FIG. 4 describes a procedure in which a content provider generates search data, generates guide data, and displays them on a signage window and/or a speech window.

図4において、サーチデータ生成部401は、サイネージウィンドウ及び/又はスピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成する。サーチデータ生成部401は、抽出・再生部402、タグ入力受付部403、ポインタ探索部404、ポインタ割付受付部405、及び属性情報受付部406を備えている。 In FIG. 4, a search data generation unit 401 generates search data that serves as a basis for guide data displayed in a signage window and/or a speech window. The search data generation unit 401 includes an extraction/reproduction unit 402 , a tag input reception unit 403 , a pointer search unit 404 , a pointer allocation reception unit 405 and an attribute information reception unit 406 .

抽出・再生部402は、動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する動画コンテンツを再生する。より具体的には、抽出・再生部402は、音声文字起し部4021と、動画コンテンツ表示部4022とを備えている。 The extracting/reproducing unit 402 extracts a simple sentence or word group indicating the content based on the content of the moving image content, and reproduces the corresponding moving image content when selection of the extracted simple sentence or word group is accepted. More specifically, the extraction/playback unit 402 includes a voice transcription unit 4021 and a video content display unit 4022 .

音声文字起し部4021は、対象となる動画コンテンツの音声部分を抽出して書き起こし、適切な文節ごとのタイムスタンプ情報と対応付けたテキストデータとして出力する。出力されたテキストデータは、動画コンテンツに含まれている音声に基づいてタグ名称を生成する参考にすることができる。 The voice transcription unit 4021 extracts and transcribes the voice portion of the target moving image content, and outputs it as text data associated with appropriate time stamp information for each phrase. The output text data can be used as a reference for generating tag names based on the audio included in the video content.

動画コンテンツ再生部4022は、出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する動画コンテンツの特定部分を再生する。タグ名称の候補の選択を受け付けた場合に、正しい動画コンテンツであるか否か、そしてタイムスタンプ情報を更新するために再生される。 When the selection of the output text data is received, the moving image content reproducing unit 4022 reproduces a specific part of the moving image content corresponding to the selected text data. When the selection of a tag name candidate is accepted, it is reproduced to check whether the video content is correct and to update the time stamp information.

なお、選択を受け付けたテキストデータ、ガイドデータ及び外部から取得したテキストデータを教師データとして学習し、音声文字起し部4021で使用する音声認識用の言語モデルを出力しても良い。学習方法としては、いわゆるAIを含み、周知の学習方法であれば特に限定されるものではない。 Note that the selected text data, the guide data, and the externally acquired text data may be learned as teacher data, and a language model for speech recognition used in the speech transcription unit 4021 may be output. The learning method includes so-called AI, and is not particularly limited as long as it is a well-known learning method.

以下、動画コンテンツの特定部分に対応付けられるタグ情報の入力を受け付ける。本実施の形態では、タグ情報とは、少なくとも動画コンテンツの特定部分を識別するタグ名称、タグ名称の内容を説明する単文又は単語群からなるテキストデータ及びタグ名称の属性を示す属性情報で構成されている。 Input of tag information associated with a specific portion of video content is then accepted. In the present embodiment, the tag information includes at least a tag name that identifies a specific part of video content, text data consisting of simple sentences or word groups that describe the content of the tag name, and attribute information that indicates the attribute of the tag name. ing.

タグ入力受付部403は、表示出力されたテキストデータ、あるいは再生している動画コンテンツの特定部分に基づいて、タグ名称及びタグ名称の内容を示す単文又は単語群の入力を受け付ける。 The tag input reception unit 403 receives input of a tag name and a simple sentence or word group indicating the content of the tag name based on the displayed text data or a specific portion of the video content being reproduced.

ポインタ探索部404は、再生されている動画コンテンツの特定部分に基づいて、動画コンテンツの特定部分を示すポインタ情報を探索する。探索されるポインタ情報は、既に対応付けられているURLだけではなく、再生開始タイミング及び再生終了タイミングに関するタイムスタンプ情報も探索される。 A pointer search unit 404 searches for pointer information indicating a specific portion of the moving image content based on the specific portion of the moving image content being reproduced. As pointer information to be searched, not only already associated URLs but also time stamp information relating to reproduction start timing and reproduction end timing are searched.

動画コンテンツの場合、自動的に割り付けられた特定部分が、コンテンツ提供者が本当に提供したい部分であるとは限らない。不要な部分が含まれたり、必要な部分なのに分断されたりしている可能性がある。そこで、後述する画面操作によって、ポインタ情報の更新を行うことができる。これにより、過不足なく所望の動画コンテンツを提供することができる。 In the case of video content, the automatically allocated specific portion is not necessarily the portion that the content provider really wants to provide. There is a possibility that unnecessary parts are included, or necessary parts are divided. Therefore, the pointer information can be updated by operating the screen to be described later. As a result, it is possible to provide the desired moving image content in just the right amount.

ポインタ割付受付部405は、入力を受け付けたタグ名称ごとに、探索されたポインタ情報の割り付けを受け付ける。これにより、タグ名称の選択を受け付けることにより、割り付けられたポインタ情報に従って、動画コンテンツの特定部分を再生することができる。 The pointer allocation reception unit 405 receives allocation of searched pointer information for each tag name whose input is received. Accordingly, by accepting the selection of the tag name, it is possible to reproduce a specific portion of the moving image content according to the allocated pointer information.

属性情報受付部406は、入力を受け付けたタグ名称ごとに、検索時に発話可能な属性情報の入力を受け付ける。後述するように属性情報をユーザが発話することにより、タグ名称を絞り込むことができる。 The attribute information reception unit 406 receives input of attribute information that can be spoken at the time of searching for each tag name whose input is received. The tag names can be narrowed down by the user uttering the attribute information as will be described later.

ここで、属性情報としては、例えば「新着」、「動画」、「使い方」、「料金」、「医療」など、動画コンテンツを絞り込むのに役立つ情報であり、しかも発話しやすい言葉であれば特に限定されるものではない。 Here, the attribute information is information useful for narrowing down the video contents, such as "new", "movie", "how to use", "price", "medical", etc., and if it is an easy-to-utter word, It is not limited.

このようにタグ名称及びタグ名称の内容を示す単文又は単語群、属性情報の入力を受け付け、タグ情報としてポインタ情報に対応付けてサーチデータを生成する。ガイドデータ生成部407は、生成されたサーチデータに含まれるタグ情報を、サーチデータを識別するサーチデータ識別情報と対応付けて、ガイドデータを生成する。 In this way, input of a tag name, a simple sentence or a group of words indicating the contents of the tag name, and attribute information is received, and search data is generated in association with pointer information as tag information. The guide data generation unit 407 generates guide data by associating the tag information included in the generated search data with the search data identification information for identifying the search data.

図5は、本発明の実施の形態に係る検索支援サーバ3が、コンテンツ提供者が使用する端末装置1aに表示させる入力受付画面の例示図である。図5に示す初期画面50が、コンテンツ提供者の使用する端末装置1aにポップアップ表示される。コンテンツ提供者は、ユーザに提供したい動画コンテンツを再生領域51において再生しながら、「割付」ボタン52を選択することによりタグ情報に動画コンテンツのシーンを割り付けることができる。 FIG. 5 is an exemplary diagram of an input reception screen displayed on the terminal device 1a used by the content provider by the search support server 3 according to the embodiment of the present invention. An initial screen 50 shown in FIG. 5 is popped up on the terminal device 1a used by the content provider. The content provider can allocate the scene of the moving image content to the tag information by selecting the "Assign" button 52 while reproducing the moving image content to be provided to the user in the reproduction area 51 .

コンテンツ提供者による「割付」ボタン52の選択を受け付けた場合、選択を受け付けた動画コンテンツの音声部分を音声認識してすべて書き起こし、単文又は単語群として抽出して、文節ごとに再生開始点を示すタイムスタンプ情報を割り付けたトランスクリプションを作成する。作成されたトランスクリプションは、目次表示領域53に一覧表示、あるいは表示しきれない場合には、図5ではサーチデータ作成領域として使用されている共用ウインドウ60に表示される。表示しきれない場合には、スクロール操作等ですべてのトランスクリプションを表示することができる。 When the selection of the "assignment" button 52 by the content provider is accepted, the audio portion of the video content for which the selection has been accepted is transcribed by voice recognition, extracted as simple sentences or word groups, and the playback start point is set for each phrase. Create a transcription with the timestamp information shown. The created transcriptions are listed in the table of contents display area 53, or if they cannot be displayed, they are displayed in the shared window 60 used as the search data creation area in FIG. If it cannot be displayed, all the transcriptions can be displayed by scrolling operation or the like.

これにより、共用ウインドウ60にトランスクリプションとして表示されている動画コンテンツ中のシーンごとのタグ名称の候補の選択を受け付けた場合、対応付けられた動画コンテンツのシーンが再生される。 As a result, when selection of a tag name candidate for each scene in the video content displayed as a transcription in the common window 60 is accepted, the associated scene of the video content is reproduced.

コンテンツ提供者は、動画コンテンツを再生しながら、所望の再生開始タイミングにおいて「マーク入力」ボタン61を選択する。「マーク入力」ボタン61の選択を受け付けた場合、仮のタグ情報が再生開始タイムスタンプをポインタ情報として作成される。仮のタグ情報は、動画コンテンツの再生時に随時生成して記憶することができる。 The content provider selects the "mark input" button 61 at a desired reproduction start timing while reproducing the moving image content. When the selection of the "input mark" button 61 is accepted, provisional tag information is created with the reproduction start time stamp as pointer information. Temporary tag information can be generated and stored at any time during playback of video content.

次に、コンテンツ提供者による「タグ入力」ボタン54の選択を受け付ける。「タグ入力」ボタン54の選択を受け付けた場合、一覧表示されている仮のタグ情報の選択を受け付けることで、共用ウインドウ60にタグ名称入力領域55、メタタグ入力領域56等を含むサーチデータ作成領域60が表示され、タグ情報の入力を受け付ける。 Next, selection of the "input tag" button 54 by the content provider is accepted. When the selection of the "input tag" button 54 is accepted, the search data creation area including the tag name input area 55, the meta tag input area 56, etc. is displayed in the shared window 60 by accepting the selection of the provisional tag information displayed in the list. 60 is displayed to accept input of tag information.

仮のタグ情報の一覧表示は、「タグ入力終了」ボタン59の選択を受け付けることにより行われる。仮のタグ情報の選択を受け付けてタグ情報の入力を行うことで、すべての仮のタグ情報に対してサーチデータを生成することができる。なお、属性情報入力領域は図5には図示されていないが、キーインできる入力領域あるいは選択ボタンを配して表示させて、入力を受け付ければ良い。 A list of provisional tag information is displayed by accepting selection of the "end tag input" button 59. FIG. By accepting selection of temporary tag information and inputting tag information, search data can be generated for all temporary tag information. Although the attribute information input area is not shown in FIG. 5, an input area for key-in or selection buttons may be arranged and displayed to accept input.

本実施の形態で特徴的なのは、コンテンツ提供者による発話でタグ情報の入力を受け付ける点と、「時間メータ」の存在である。例えばコンテンツ提供者が「時間メータ」と発話した場合、時間メータ57によりタグ情報と対応付けられている動画コンテンツの特定部分を更新することが可能なポインタ更新受付手段を備えている。 The characteristic features of this embodiment are that the input of tag information is accepted by the content provider's speech, and the existence of the "time meter". For example, when the content provider utters "time meter", the time meter 57 is provided with pointer update reception means capable of updating a specific portion of the video content associated with the tag information.

具体的には、共用ウインドウ60に表示されたサーチデータ作成領域に更新するタグ情報の作成画面を表示し、「時間メータ」との発話を受け付けた場合、時間メータのスライダを該タグ情報に対応付けられているポインタ情報の再生開始タイムスタンプに位置付けて表示するとともに移動可能となる。再生開始タイムスタンプが再生時間表示領域58に表示された状態でスライダを移動させると、スライダの位置に対応した再生時点のタイムスタンプが再生時間表示領域58に表示されつつ、再生領域51の動画コンテンツが変化する。 Specifically, when a screen for creating tag information to be updated is displayed in the search data creation area displayed in the common window 60, and an utterance of "time meter" is accepted, the slider of the time meter corresponds to the tag information. It is positioned and displayed at the reproduction start time stamp of the attached pointer information and can be moved. When the slider is moved while the playback start time stamp is displayed in the playback time display area 58, the time stamp at the time of playback corresponding to the position of the slider is displayed in the playback time display area 58, and the video content in the playback area 51 is displayed. changes.

再生開始タイムスタンプ及び再生終了タイムスタンプ(以下、タイムスタンプ情報)も、コンテンツ提供者による「マーク入力」ボタン61の選択、あるいは「マーク」の発話で設定しても良い。例えば動画コンテンツを再生しながら、タイムスタンプ情報を設定したいシーンになった時点でコンテンツ提供者が「マーク入力」ボタン61を選択、あるいは「マーク」と発話することにより、タイムスタンプ情報を設定することができる。 The playback start time stamp and playback end time stamp (hereinafter referred to as time stamp information) may also be set by the content provider's selection of the "mark input" button 61 or utterance of "mark". For example, the content provider can set the time stamp information by selecting the "mark input" button 61 or by speaking "mark" at the scene where the time stamp information is to be set while reproducing the moving image content. can be done.

タグ情報、再生開始タイムスタンプ及び再生終了タイムスタンプの設定が終了した場合、コンテンツ提供者は「タグ入力」ボタン54を選択する。「タグ入力」ボタン54の選択を受け付けた時点で、検索支援サーバ3は端末装置1aのブラウザに表示されている動画コンテンツのURLをポインタ情報として探索し、設定されたタイムスタンプ情報とともに、入力されたタグ名称に対応付けてサーチデータとしてサーチデータ記憶部331に記憶する。 When the tag information, playback start time stamp and playback end time stamp have been set, the content provider selects the "input tag" button 54 . When the "input tag" button 54 is selected, the search support server 3 searches for the URL of the video content displayed on the browser of the terminal device 1a as pointer information, and along with the set time stamp information, The search data is stored in the search data storage unit 331 as search data in association with the tag name.

ガイドデータは、サーチデータのタグ情報部分に、サーチデータを識別する識別情報を対応付けて生成する。図6は、本発明の実施の形態に係る検索支援サーバ3で生成されるサーチデータ及びガイドデータの例示図である。図6(a)は、生成されたガイドデータの例示図であり、図6(b)は、生成されたガイドデータの基礎となるサーチデータの例示図である。 Guide data is generated by associating identification information for identifying search data with the tag information portion of search data. FIG. 6 is an exemplary diagram of search data and guide data generated by the search support server 3 according to the embodiment of the present invention. FIG. 6(a) is an exemplary diagram of generated guide data, and FIG. 6(b) is an exemplary diagram of search data that is the basis of the generated guide data.

図6(a)に示すように、ガイドデータは、サーチデータの何番目のタグ名称であるかを示す「番号」で対応付けられており、Webサイトを識別する識別情報である共通のサーチデータID(図6ではサーチデータID=XXXXXX)を有している。生成されたガイドデータはガイドデータ記憶部332に記憶される。 As shown in FIG. 6(a), the guide data are associated with a "number" indicating the order of the tag name of the search data, and common search data that is identification information for identifying a website. It has an ID (search data ID=XXXXXX in FIG. 6). The generated guide data is stored in the guide data storage unit 332 .

そして、「ポインタ情報」としてURL及びタイムスタンプ情報としての再生「開始」時刻及び再生「終了」時刻がタグ名称と対応付けて記憶されているのはサーチデータのみである。したがって、図5の「ガイドデータ」ボタン62の選択を受け付けることで、サーチデータのタグ情報をコピーし、サーチデータID(XXXXXX)と、サーチデータの何番目のタグ名称であるかを示す「番号」とを対応付けてガイドデータが生成される。図6(a)に示すガイドデータの「サーチデータID」欄が空白なのは、一のサーチデータのみに基づいて生成されたガイドデータであることを意味しており、他のサーチデータに基づいて生成されたガイドデータである場合には、他のサーチデータのサーチデータIDが記載される。 Only the search data is stored in association with the URL as the "pointer information" and the reproduction "start" time and the reproduction "end" time as the time stamp information in association with the tag name. Therefore, by accepting the selection of the "guide data" button 62 in FIG. 5, the tag information of the search data is copied, and the search data ID (XXXXXXX) and the "number" indicating the number of the tag name of the search data. ” are associated with each other to generate guide data. The fact that the "search data ID" column of the guide data shown in FIG. 6(a) is blank means that the guide data is generated based on only one search data, and is generated based on other search data. If the guide data is the guide data that has been written, the search data ID of the other search data is described.

図5に示すサイネージウィンドウの共用ウインドウ60には、生成されたガイドデータの中からコンテンツ提供者がユーザに表示したいデータとして選択したガイドデータのタグ名称が表示されることが好ましい。この場合、「ガイドデータ」ボタン62の選択を受け付けると「編集」ボタンと「拡張」ボタン(図示せず)が表示される。「編集」ボタンの選択を受け付けた場合、共用ウィンドウ60内にキーイン等することにより、サイネージウィンドウの共用ウインドウ60に表示するタグ名称を設定することができる。「拡張」ボタンの選択を受け付けた場合には、他のサーチデータから生成されたガイドデータを追加することができる。追加されたガイドデータから目次データを取り出すことで、目次表示領域53に表示することができる。 The shared window 60 of the signage window shown in FIG. 5 preferably displays the tag name of the guide data selected by the content provider as the data that the content provider wants to display to the user from among the generated guide data. In this case, when the selection of the "guide data" button 62 is accepted, an "edit" button and an "expand" button (not shown) are displayed. When the selection of the "edit" button is accepted, by keying in the common window 60, the tag name to be displayed in the common window 60 of the signage window can be set. When the selection of the "expand" button is accepted, guide data generated from other search data can be added. The table of contents data can be displayed in the table of contents display area 53 by extracting the table of contents data from the added guide data.

すなわち、本実施の形態では、コンテンツ提供者ごとにサーチデータを生成しても良いし、同一コンテンツ提供者が複数立ち上げたWebサイトごとにサーチデータを生成しても良い。例えば、同一の会社のWebサイトであっても、事業部ごと、商品・サービスごとにWebサイトを立ち上げる機会が急増しており、コンテンツが日々増加する。これらのコンテンツを迅速にかつ確実に検索できるようにすることは、顧客サービスにおいても重要になる。 That is, in the present embodiment, search data may be generated for each content provider, or search data may be generated for each of multiple websites launched by the same content provider. For example, even if it is a website of the same company, there is a rapid increase in the number of opportunities to set up a website for each business division or product/service, and the amount of content is increasing day by day. Being able to find this content quickly and reliably is also important for customer service.

本実施の形態では、全てのガイドデータは、基礎となるサーチデータに基づいて生成されている。したがって、一のガイドデータに他のサーチデータに基づいて生成されたガイドデータさえ追加すれば、他のサーチデータに対応付けられているコンテンツ(動画コンテンツ含む)、すなわち他のWebサイトのコンテンツであっても迅速かつ確実に表示・再生することができるようになる。 In the present embodiment, all guide data are generated based on basic search data. Therefore, if only guide data generated based on other search data is added to one guide data, content (including video content) associated with other search data, that is, content of another website can be obtained. can be quickly and reliably displayed and reproduced.

図7は、本発明の実施の形態に係る検索支援サーバ3のサーチデータ及びガイドデータの例示図である。図7(a)は、一のコンテンツ提供者のサーチデータに基づくガイドデータの例示図であり、図7(b)は、動画コンテンツを提供する他のコンテンツ提供者のサーチデータの例示図である。 FIG. 7 is an exemplary diagram of search data and guide data of the search support server 3 according to the embodiment of the present invention. FIG. 7(a) is an exemplary diagram of guide data based on search data of one content provider, and FIG. 7(b) is an exemplary diagram of search data of another content provider who provides video content. .

図6に示すサーチデータ及びガイドデータとの違いは、共通のサーチデータIDではなく、異なるサーチデータIDを有するガイドデータが含まれている点にある。すなわち、サーチデータ及びガイドデータを生成した時点では、サーチデータIDは共通である。本実施の形態では、サーチデータとガイドデータとの二段構造にすることにより、サーチデータIDが異なるガイドデータを設定することができる。これにより、サーチデータIDが異なるガイドデータの基礎となるサーチデータを読み出すことができ、サーチデータIDが異なるサーチデータ、すなわち異なるコンテンツ提供者が提供する動画コンテンツの特定部分を再生することが可能となる。 The difference between the search data and the guide data shown in FIG. 6 is that guide data having different search data IDs are included instead of the common search data ID. That is, when the search data and the guide data are generated, the search data ID is common. In this embodiment, the two-stage structure of search data and guide data makes it possible to set guide data with different search data IDs. As a result, it is possible to read out search data that is the basis of guide data with different search data IDs, and to reproduce search data with different search data IDs, that is, specific portions of video content provided by different content providers. Become.

例えば共通のサーチデータIDを「YYYYYY」とする。そして、共通のサーチデータIDが「YYYYYY」を基礎として生成されたガイドデータには、他のサーチデータIDを基礎としたガイドデータを随時追加することができる。図7(a)の例では、サーチデータIDが「TTTTTT」であるガイドデータが追加されている。つまり、サーチデータIDが「TTTTTT」であるガイドデータの基礎となるサーチデータを読み出すことができるようになり、当該サーチデータに対応付けられている動画コンテンツを再生することができるようになる。 For example, let the common search data ID be "YYYYYY". Guide data based on other search data IDs can be added as needed to the guide data generated based on the common search data ID "YYYYYY". In the example of FIG. 7A, guide data with a search data ID of "TTTTTT" is added. That is, it becomes possible to read out the search data that is the basis of the guide data whose search data ID is "TTTTTT", and to reproduce the video content associated with the search data.

つまり、図7(b)に示すサーチデータIDが「TTTTTT」であるサーチデータを参照することができ、所望のコンテンツのポインタ情報を取得することができる。したがって、ガイドデータを追加するだけで、どのWebサイトのコンテンツであっても所望のコンテンツを表示することができる。なお、図7(b)において、ガイドデータの「サーチデータID」欄の空欄は、追加されたガイドデータではなく、サーチデータIDが共通のサーチデータID「YYYYYY」であるガイドデータであることを意味している。 That is, it is possible to refer to the search data whose search data ID is "TTTTTT" shown in FIG. 7B, and to obtain the pointer information of the desired content. Therefore, by simply adding guide data, desired content can be displayed regardless of the content of any website. In FIG. 7B, blanks in the "search data ID" column of the guide data indicate that the guide data is not the added guide data but the guide data whose search data ID is the common search data ID "YYYYYY". means.

図8は、本発明の実施の形態に係る検索支援サーバ3のサーチデータ及びガイドデータの他の例示図である。図8(a)は、一のコンテンツ提供者のサーチデータに基づくガイドデータの例示図であり、図8(b)は、他のコンテンツ提供者のサーチデータの例示図である。 FIG. 8 is another exemplary diagram of search data and guide data of the search support server 3 according to the embodiment of the present invention. FIG. 8(a) is an exemplary diagram of guide data based on search data of one content provider, and FIG. 8(b) is an exemplary diagram of search data of another content provider.

例えば共通のサーチデータIDを「YYYYYY」とする。そして、サーチデータIDが「YYYYYY」であるサーチデータを基礎として生成されたガイドデータには、他のサーチデータIDを基礎としたコンテンツのガイドデータを随時追加することができる。図8(a)では、サーチデータIDが「PPPPPP」であるガイドデータが追加されている。つまり、サーチデータIDが「PPPPPP」であるガイドデータの基礎となるサーチデータを読み出すことができるようになり、当該サーチデータに対応付けられているコンテンツを表示することができるようになる。 For example, let the common search data ID be "YYYYYY". Guide data of contents based on other search data IDs can be added to the guide data generated based on the search data with the search data ID of "YYYYYY" at any time. In FIG. 8A, guide data whose search data ID is "PPPPPP" is added. That is, it becomes possible to read the search data that is the basis of the guide data whose search data ID is "PPPPPP", and to display the content associated with the search data.

つまり、図8(b)に示すサーチデータIDが「PPPPPP」であるサーチデータを参照することができ、所望のコンテンツのポインタ情報及びタイムスタンプ情報を取得することができる。したがって、ガイドデータを追加するだけで、どのWebサイトの動画コンテンツであっても所望の動画コンテンツの所望のシーンだけ再生することができる。なお、図8(b)において、ガイドデータの「サーチデータID」欄の空欄は、追加されたガイドデータではなく、サーチデータIDが「YYYYYY」であるガイドデータであることを意味している。 That is, it is possible to refer to the search data whose search data ID is "PPPPPP" shown in FIG. 8(b), and to obtain pointer information and time stamp information of desired content. Therefore, by simply adding guide data, only desired scenes of desired moving image content can be reproduced regardless of the moving image content of any website. Note that in FIG. 8B, blanks in the "search data ID" column of the guide data mean that the guide data is not added guide data but guide data whose search data ID is "YYYYYY".

図4に戻って、サイネージウィンドウ表示部408は、生成されたガイドデータのタグ名称等を、コンテンツ提供者が選択して、ユーザが使用する端末装置1b上でサイネージウィンドウに表示させる。これにより、ユーザに対して、動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導することができる。 Returning to FIG. 4, the signage window display unit 408 causes the content provider to select the tag name and the like of the generated guide data and display it on the signage window on the terminal device 1b used by the user. As a result, the user can be guided to utter an utterance for selecting the tag information indicating the specific portion of the video content.

図9は、本発明の実施の形態に係る検索支援サーバ3が、ユーザが使用する端末装置1b上で表示する入力受付画面900の例示図である。図9に示すように、動画コンテンツを表示可能なコンテンツウィンドウ901と一体となって、サイネージウィンドウ902が表示される。サイネージウィンドウ902には、文字列が流れて表示されるような形態で表示されることが好ましい。 FIG. 9 is an exemplary diagram of an input reception screen 900 displayed on the terminal device 1b used by the user by the search support server 3 according to the embodiment of the present invention. As shown in FIG. 9, a signage window 902 is displayed together with a content window 901 capable of displaying video content. It is preferable that the signage window 902 is displayed in such a manner that the character string is displayed in a flowing manner.

具体的には、サイネージウィンドウ902に、選択されたガイドデータのタグ名称が表示される。図9において、矢印は、文字列がその方向に流れるように移動しながら表示することを意味する。サイネージウィンドウ902の表示を見たユーザは、コンテンツ提供者がどのような情報の提供を意図しているかを知ることができ、発話内容を工夫することができる。コンテンツ提供者は、ユーザに提供したい動画コンテンツの中のシーンを示すタグ名称あるいはユーザによる選択を誘導する文字列をサイネージウィンドウ902に表示することで、ユーザを提供したい動画コンテンツの中のシーンへと誘導することができる。 Specifically, the signage window 902 displays the tag name of the selected guide data. In FIG. 9, an arrow means that the character string is displayed while flowing in that direction. The user who sees the display of the signage window 902 can know what kind of information the content provider intends to provide, and can devise the contents of the utterance. The content provider displays, on the signage window 902, a tag name indicating a scene in the video content to be provided to the user or a character string to guide the selection by the user, thereby allowing the user to view the scene in the video content to be provided. can be induced.

また、入力受付画面900には、動画コンテンツ中のシーンごとのタグ名称が目次として一覧表示される目次表示領域903を含む。直接目次を選択して、動画コンテンツの中のシーンをコンテンツウィンドウ901に再生させることができる。目次表示領域903に表示されているタグ名称の横の「i」ボタンを選択してタグ名称の説明を表示させることもできる。 The input acceptance screen 900 also includes a table of contents display area 903 in which tag names for each scene in the video content are listed as a table of contents. A scene in the video content can be played in the content window 901 by directly selecting the table of contents. An explanation of the tag name can also be displayed by selecting the "i" button next to the tag name displayed in the table of contents display area 903 .

図4に戻って、スピーチウィンドウ表示部409は、生成されたガイドデータのタグ名称をすべて、ユーザが使用する端末装置1b上でスピーチウィンドウに表示させる。目次表示領域903に表示しきれないガイドデータのタグ名称も、スピーチウィンドウには表示することができる。ユーザが発話することにより、ガイドデータのタグ名称を絞り込むことができる。絞り込むことで、スピーチウィンドウにスクロール等の操作をすることなくタグ名称を表示することができ、クリック、タッチ等の選択操作でタグ名称を選択することにより、対応付けられている動画コンテンツの特定部分を表示することができる。 Returning to FIG. 4, the speech window display unit 409 displays all tag names of the generated guide data in a speech window on the terminal device 1b used by the user. Tag names of guide data that cannot be displayed in the table of contents display area 903 can also be displayed in the speech window. The user can speak to narrow down the tag names of the guide data. By narrowing down, it is possible to display the tag name in the speech window without performing operations such as scrolling. can be displayed.

図10は、本発明の実施の形態に係る検索支援サーバ3が、ユーザが使用する端末装置1bに表示させるスピーチウィンドウの例示図である。図10に示すように、生成されたガイドデータのタグ名称は、スピーチウィンドウ1001上で選択可能な状態でガイドデータ表示領域1002にすべて表示される。 FIG. 10 is an exemplary diagram of a speech window displayed on the terminal device 1b used by the user by the search support server 3 according to the embodiment of the present invention. As shown in FIG. 10, all tag names of generated guide data are displayed in a guide data display area 1002 in a selectable state on a speech window 1001 .

ガイドデータ表示領域1002に表示しきれない場合も、スクロールボタン1003を操作することですべてのガイドデータのタグ名称を閲覧することができる。ガイドデータ表示領域1002に表示されているガイドデータのタグ名称の中から、一のタグ名称の選択を受け付ける。これにより、選択を受け付けたタグ名称のガイドデータの基礎となるサーチデータを特定することができるので、サーチデータに対応付けられている動画コンテンツの特定部分を再生することができる。 Even if all the tag names cannot be displayed in the guide data display area 1002, the tag names of all the guide data can be browsed by operating the scroll button 1003. FIG. A selection of one tag name from the tag names of the guide data displayed in the guide data display area 1002 is accepted. As a result, it is possible to specify the search data that is the basis of the guide data of the tag name whose selection has been accepted, so that the specified part of the video content associated with the search data can be reproduced.

図10の例では、スピーチウィンドウ1001に表示されているタグ名称の選択を受け付けた場合、対応するコンテンツの特定部分を確認できるよう、端末装置1bに表示する。ユーザが使用する端末装置1bは、図10に示すようにデスクトップ型でも良いし、スマホ、タブレット等の携帯端末であっても良い。 In the example of FIG. 10, when the selection of the tag name displayed in the speech window 1001 is accepted, the specific part of the corresponding content is displayed on the terminal device 1b so that the user can check it. The terminal device 1b used by the user may be a desktop type as shown in FIG. 10, or may be a mobile terminal such as a smartphone or a tablet.

図11は、本発明の実施の形態に係る検索支援サーバ3のCPU31のコンテンツ提供者の設定処理手順を示すフローチャートである。図11において、検索支援サーバ3のCPU31は、動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して(ステップS1101)、抽出された単文又は単語群の選択を受け付けた場合に対応する動画コンテンツを再生する(ステップS1102)。 FIG. 11 is a flow chart showing a content provider setting processing procedure of the CPU 31 of the search support server 3 according to the embodiment of the present invention. In FIG. 11, the CPU 31 of the search support server 3 extracts a simple sentence or a word group indicating the content based on the content of the video content (step S1101), and when the selection of the extracted simple sentence or word group is accepted, The corresponding video content is reproduced (step S1102).

CPU31は、表示出力されたテキストデータ、あるいは再生している動画コンテンツの特定部分に基づいて、タグ名称及びタグ名称の内容を示す単文又は単語群の入力を受け付ける(ステップS1103)。 The CPU 31 accepts input of a tag name and a simple sentence or word group indicating the content of the tag name based on the displayed text data or a specific portion of the video content being reproduced (step S1103).

CPU31は再生されている動画コンテンツの特定部分に基づいて、動画コンテンツの特定部分を示すポインタ情報を探索する(ステップS1104)。CPU31は、入力を受け付けたタグ名称ごとに、探索されたポインタ情報の割り付けを受け付ける(ステップS1105)。これにより、タグ名称の選択を受け付けることにより、割り付けられたポインタ情報に従って、動画コンテンツの特定部分を再生することができる。 CPU 31 searches for pointer information indicating a specific portion of the moving image content based on the specific portion of the moving image content being reproduced (step S1104). The CPU 31 accepts allocation of searched pointer information for each tag name whose input is accepted (step S1105). Accordingly, by accepting the selection of the tag name, it is possible to reproduce a specific portion of the moving image content according to the assigned pointer information.

CPU31は、入力を受け付けたタグ名称ごとに、検索時に発話可能な属性情報の入力を受け付ける(ステップS1106)。後述するように、属性情報をユーザが発話することにより、タグ名称を絞り込むことができる。 The CPU 31 receives input of attribute information that can be spoken at the time of searching for each tag name whose input is received (step S1106). As will be described later, the tag names can be narrowed down by the user uttering the attribute information.

CPU31は、入力を受け付けたタグ名称及びタグ名称の内容を示す単文又は単語群、属性情報を、ポインタ情報に対応付けてサーチデータを生成する(ステップS1107)。CPU31は、生成されたサーチデータに含まれるタグ情報を、サーチデータを識別するサーチデータ識別情報と対応付けて、ガイドデータを生成する(ステップS1108)。 The CPU 31 associates the input tag name, simple sentence or word group indicating the content of the tag name, and attribute information with the pointer information to generate search data (step S1107). CPU 31 associates the tag information included in the generated search data with the search data identification information for identifying the search data to generate guide data (step S1108).

CPU31は、生成されたガイドデータのタグ名称等を、コンテンツ提供者が選択して、ユーザが使用する端末装置1b上でサイネージウィンドウに表示させ(ステップS1109)、生成されたガイドデータのタグ名称をすべて、ユーザが使用する端末装置1b上でスピーチウィンドウに表示させる(ステップS1110)。 The CPU 31 causes the content provider to select the tag name and the like of the generated guide data and displays it on the signage window on the terminal device 1b used by the user (step S1109), and displays the tag name of the generated guide data. All are displayed in the speech window on the terminal device 1b used by the user (step S1110).

以下、ユーザが検索処理を実行する手順について説明する。本実施の形態では、コンテンツ提供者がユーザの検索を誘導するサイネージウィンドウ及びスピーチウィンドウを表示させている点に特徴を有している。ただし、それだけではなく、ユーザにとって所望のコンテンツを迅速にかつ確実に検索表示させる工夫として、表示されるガイドデータのタグ名称をユーザが発話することにより絞り込むことができる点が従来の検索システムとの大きな相違点である。 A procedure for a user to execute search processing will be described below. This embodiment is characterized in that the content provider displays a signage window and a speech window for guiding the user's search. However, in addition to this, as a device for quickly and reliably searching and displaying desired content for the user, the user can speak the tag name of the displayed guide data to narrow down the search system, which is different from the conventional search system. This is a big difference.

図12は、本発明の実施の形態に係る検索支援サーバ3のユーザによる発話の音声認識処理の機能ブロック図である。図12では、ユーザの使用する端末装置1bに、図9に示すサイネージウィンドウ及び図10に示すスピーチウィンドウが表示されている状態でユーザによる発話を入力として受け付け、正しく音声認識する手順について説明する。 FIG. 12 is a functional block diagram of speech recognition processing of an utterance by the user of the search support server 3 according to the embodiment of the present invention. In FIG. 12, a procedure for accepting a user's utterance as an input while the signage window shown in FIG. 9 and the speech window shown in FIG. 10 are displayed on the terminal device 1b used by the user and correctly recognizing the voice will be described.

図12に示すように、発話受付部1201は、ユーザにより発話された音声データの入力を受け付ける。具体的には、端末装置1bにおいてユーザが発話した音声データを受信することで、音声データを取得する。 As shown in FIG. 12, an utterance accepting unit 1201 accepts an input of voice data uttered by a user. Specifically, the voice data is obtained by receiving the voice data uttered by the user in the terminal device 1b.

前処理部1202は、入力を受け付けた音声データに対して雑音除去、発話区間の検出等を実行する。前処理された音声データは、メタタグ音声認識部1203及び絞り込み音声認識部1208へ渡され、メタタグ音声認識部1203及び絞り込み音声認識部1208を並行して実行する。 The preprocessing unit 1202 performs noise removal, speech period detection, and the like on the received voice data. The preprocessed speech data is passed to the metatag speech recognition unit 1203 and the narrowed speech recognition unit 1208, and the metatag speech recognition unit 1203 and the narrowed speech recognition unit 1208 are executed in parallel.

メタタグ音声認識部1203は、前処理された音声データを認識してテキストデータに変換し、変換されたテキストデータに基づいて、ガイドデータのタグ名称及びタグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、一致度が所定値より大きい場合にタグ名称に対応するコンテンツの特定部分を表示する。つまり、メタタグ音声認識部1203で正しく認識できた場合には、他の音声認識処理と統合する処理等余分な処理を実行することなく認識結果を即座に出力することができる。 The metatag speech recognition unit 1203 recognizes the preprocessed speech data and converts it into text data, and based on the converted text data, matches the tag name of the guide data and a simple sentence or word group indicating the content of the tag name. The degree of matching is calculated, the tag name with the highest calculated degree of matching is identified, and when the degree of matching is greater than a predetermined value, a specific portion of the content corresponding to the tag name is displayed. In other words, if the metatag speech recognition unit 1203 can correctly recognize the speech, the recognition result can be immediately output without executing extra processing such as integration with other speech recognition processing.

すなわち、メタタグ音声認識部1203は、テキストデータ変換部1204、一致度算出部1205、タグ名称特定部1206、コンテンツ表示・再生部1207を備えている。テキストデータ変換部1204は、前処理された音声データを、いわゆるディクテーショングラマーに基づいて認識してテキストデータに変換する。 That is, the metatag speech recognition unit 1203 includes a text data conversion unit 1204 , a match calculation unit 1205 , a tag name specification unit 1206 and a content display/playback unit 1207 . A text data conversion unit 1204 recognizes the preprocessed voice data based on a so-called dictation grammar and converts it into text data.

一致度算出部1205は、すべてのタグ名称及びタグ名称の内容を示す単文又は単語群で形成された第一のデータセットを照会して、入力を受け付けた音声データとの一致度を算出する。 The degree-of-match calculation unit 1205 refers to the first data set formed of simple sentences or word groups indicating all tag names and the content of the tag names, and calculates the degree of match with the received voice data.

タグ名称特定部1206は、算出された一致度が最大であるタグ名称を特定する。一致度が最大であるタグ名称が、最も確からしい認識結果だからである。しかし、一致度が所定の閾値以下である場合には誤認識の可能性も高い。 The tag name identification unit 1206 identifies the tag name with the highest calculated degree of matching. This is because the tag name with the highest degree of matching is the most probable recognition result. However, if the degree of matching is equal to or less than a predetermined threshold, there is a high possibility of erroneous recognition.

コンテンツ表示・再生部1207は、算出された一致度が所定の閾値より大きいか否かを判断する。所定の閾値以下であると判断した場合には、認識精度が不十分であるとして再度の発話の待ち状態とする。所定の閾値より大きいと判断した場合には、特定されたタグ名称に対応付けられたコンテンツの特定部分を表示あるいは再生して、認識結果が正しいか否かを判断できる。 Content display/playback unit 1207 determines whether or not the calculated degree of matching is greater than a predetermined threshold. If it is determined that the value is equal to or less than the predetermined threshold value, it is determined that the recognition accuracy is insufficient, and the system waits for another utterance. When it is determined that the value is larger than the predetermined threshold, it is possible to display or reproduce the specific portion of the content associated with the specified tag name and determine whether or not the recognition result is correct.

絞り込み音声認識部1208は、前処理された音声データに基づいて、いわゆるルールグラマーを用いて、ガイドデータのタグ情報のうち、属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積によるガイドデータの絞り込みを行い、絞り込まれたガイドデータのタグ名称及び属性情報を出力する。これにより、メタタグ音声認識部1103で妥当な認識結果を得られない場合であっても、次にユーザが発話する内容をさらに絞り込むことができるので、音声認識の成功率を高めることができ、結果として短時間で正しい認識結果を得ることができる。具体的には、絞り込み音声認識部1208は、属性抽出部1209、絞り込み部1210を備えている。 Based on the preprocessed speech data, the narrowed-down speech recognition unit 1208 uses a so-called rule grammar to extract tag information of the guide data that matches the attribute information, and extracts one or more pieces of attribute information that match. The guide data is narrowed down by the logical product of , and the tag name and attribute information of the narrowed down guide data are output. As a result, even if the metatag speech recognition unit 1103 cannot obtain an appropriate recognition result, it is possible to further narrow down what the user will say next, so that the success rate of speech recognition can be increased. As a result, correct recognition results can be obtained in a short time. Specifically, the narrowed-down speech recognition unit 1208 includes an attribute extraction unit 1209 and a narrowing-down unit 1210 .

属性抽出部1209は、すべてのタグ情報に対応付けられている属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として属性情報を抽出する。絞り込み部1210は、抽出された属性情報の論理積としてタグ名称(ガイドデータ)を絞り込む。 The attribute extraction unit 1209 extracts attribute information as a recognition result using the second data set formed of attribute information associated with all tag information as a speech recognition filter. The narrowing down unit 1210 narrows down the tag name (guide data) as a logical product of the extracted attribute information.

絞り込み音声認識部1208は、絞り込まれたガイドデータの属性情報により、音声認識フィルタである第二のデータセットを更新する更新部1210を備えることが好ましい。第二のデータセットは、属性情報によりガイドデータが絞り込まれる都度更新されるので、ユーザによる次の発話をさらに制限することになり、正しい認識結果を得る確信度を高めることができ、より迅速に正しい認識結果を得ることが可能となる。 The narrowed-down speech recognition unit 1208 preferably includes an updating unit 1210 that updates the second data set, which is the speech recognition filter, according to the attribute information of the narrowed-down guide data. Since the second data set is updated each time the guide data is narrowed down by the attribute information, the user's next utterance is further restricted, and the degree of certainty that correct recognition results are obtained can be increased, and the recognition result can be obtained more quickly. A correct recognition result can be obtained.

図13は、本発明の実施の形態に係る検索支援サーバ3のCPU31の音声認識処理の手順を示すフローチャートである。検索支援サーバ3のCPU31は、ユーザにより発話された音声データの入力を受け付ける(ステップS1301)。具体的には、端末装置1bにおいてユーザが発話した音声データを受信することで、音声データを取得する。 FIG. 13 is a flow chart showing the procedure of speech recognition processing of the CPU 31 of the search support server 3 according to the embodiment of the present invention. The CPU 31 of the search support server 3 receives input of voice data uttered by the user (step S1301). Specifically, the voice data is obtained by receiving the voice data uttered by the user in the terminal device 1b.

CPU31は、入力を受け付けた音声データに対して雑音除去、発話区間の検出等を実行する(ステップS1302)。前処理された音声データに基づいて、以下の2つの処理が並行して実行される。 CPU 31 performs noise removal, detection of a speech period, and the like on the received voice data (step S1302). Based on the preprocessed audio data, the following two processes are performed in parallel.

まず、CPU31は、前処理された音声データに基づいて、前処理された音声データを、いわゆるディクテーショングラマーに基づいて認識してテキストデータに変換する(ステップS1303)。CPU31は、すべてのタグ名称及びタグ名称の内容を示す単文又は単語群で形成された第一のデータセットを照会して、入力を受け付けた音声データとの一致度を算出する(ステップS1304)。CPU31は、算出された一致度が最大であるタグ名称を特定する(ステップS1305)。 First, the CPU 31 recognizes the preprocessed voice data based on the so-called dictation grammar and converts it into text data (step S1303). The CPU 31 refers to all tag names and the first data set formed of simple sentences or word groups indicating the contents of the tag names, and calculates the degree of matching with the received voice data (step S1304). The CPU 31 identifies the tag name with the highest calculated degree of matching (step S1305).

CPU31は、算出された一致度が所定の閾値より大きいか否かを判断する(ステップS1306)。CPU31が、所定の閾値以下であると判断した場合(ステップS1306:NO)、CPU31は、処理をステップS1301へ戻して、再度の発話の待ち状態となる。 CPU 31 determines whether or not the calculated degree of matching is greater than a predetermined threshold (step S1306). When the CPU 31 determines that it is equal to or less than the predetermined threshold (step S1306: NO), the CPU 31 returns the process to step S1301 and waits for another utterance.

CPU31が、所定の閾値より大きいと判断した場合(ステップS1306:YES)、CPU31は、特定されたタグ名称に対応付けられたコンテンツの特定部分を表示あるいは再生する(ステップS1307)。 When the CPU 31 determines that the value is greater than the predetermined threshold (step S1306: YES), the CPU 31 displays or reproduces the specified portion of the content associated with the specified tag name (step S1307).

一方、CPU31は、前処理された音声データに基づいて、全てのタグ名称に対応付けられている属性情報で形成された第二のデータセットを音声認識フィルタとして用い、認識結果の属性情報を抽出する(ステップS1308)。CPU31は、抽出された属性情報の論理積としてタグ名称(ガイドデータ)を絞り込む(ステップS1309)。CPU31は、絞り込まれたガイドデータのタグ名称及び属性情報により、音声認識フィルタである第二のデータセットを更新し(ステップS1310)、処理をステップS1301へ戻して、再度の発話の待ち状態となる。 On the other hand, based on the preprocessed voice data, the CPU 31 extracts the attribute information of the recognition result using the second data set formed of attribute information associated with all tag names as a voice recognition filter. (step S1308). The CPU 31 narrows down the tag name (guide data) as a logical product of the extracted attribute information (step S1309). The CPU 31 updates the second data set, which is the voice recognition filter, using the narrowed-down tag name and attribute information of the guide data (step S1310), returns the process to step S1301, and waits for another utterance. .

以上のように本実施の形態によれば、Webサイト上に公開されている多数の動画コンテンツの中から、動画コンテンツを提供するコンテンツ提供者が、自分の動画コンテンツへユーザを誘導しやすいガイドデータをスピーチウィンドウやサイネージウィンドウに表示することができるとともに、ユーザ自らの意思で選択対象となるガイドデータを絞り込むことができるので、個々のユーザが表示されているガイドデータ通りに発話あるいは選択することにより、迅速にかつ確実にコンテンツ提供者が提供する動画コンテンツの特定部分をユーザに対して表示することが可能となる。 As described above, according to the present embodiment, a content provider who provides video content from among a large number of video content published on a website can easily guide a user to its own video content. can be displayed in the speech window or signage window, and the guide data to be selected can be narrowed down by the user's own intention. , it is possible to quickly and reliably display a specific portion of video content provided by a content provider to a user.

また、本実施の形態によれば、メタタグ音声認識処理と絞り込み音声認識処理とを並行して実行することにより、メタタグ音声認識が正しい場合にはそのまま認識結果を出力することができ、一方で、認識結果の確からしさが足りない場合には、より絞り込んだガイドデータに基づくタグ名称をスピーチウィンドウに表示することができる。したがって、ユーザは、比較的短時間で所望のコンテンツを表示又は再生することが可能となる。 Further, according to the present embodiment, by executing the metatag speech recognition process and the narrowing down speech recognition process in parallel, when the metatag speech recognition is correct, the recognition result can be output as it is. If the certainty of the recognition result is insufficient, the tag name based on the narrowed-down guide data can be displayed in the speech window. Therefore, the user can display or reproduce desired content in a relatively short period of time.

なお、本発明は上記実施例に限定されるものではなく、本発明の趣旨の範囲内であれば多種の変更、改良等が可能である。例えば属性情報を含むタグ情報の入力方法は、上述した方法に限定されるものではなく、タグ名称を絞り込むことができる文字列を入力可能であれば特に限定されるものではない。 The present invention is not limited to the above embodiments, and various modifications and improvements are possible within the scope of the present invention. For example, the method of inputting tag information including attribute information is not limited to the method described above, and is not particularly limited as long as it is possible to input a character string that can narrow down the tag name.

また、ユーザによる発話を認識する場合に、メタタグ音声認識部1203と並行に処理を実行する認識処理は、絞り込み音声認識部1208に限定されるものではなく、ユーザによる次の発話を限定することができる処理であれば特に限定されるものではない。 Further, when recognizing a user's utterance, the recognition processing that executes processing in parallel with the metatag speech recognition unit 1203 is not limited to the narrowed-down speech recognition unit 1208, and may limit the next utterance by the user. It is not particularly limited as long as it can be processed.

また、上記実施例では、スピーチウィンドウ81はユーザが使用する端末装置1b上に表示されているが、特にこれに限定されるものではなく、例えばデータ通信することが可能に接続されているスマートホン、タブレット等の外部の携帯端末装置上でリモート操作する形態であっても良い。 Also, in the above embodiment, the speech window 81 is displayed on the terminal device 1b used by the user, but the present invention is not limited to this. Alternatively, remote operation may be performed on an external portable terminal device such as a tablet.

また、音声認識に用いるディクテーショングラマー及びルールグラマーは、テキストデータ、ガイドデータ及び外部から取得したテキストデータを教師データとして学習することにより生成することが望ましい。学習方法としては、いわゆる機械学習、深層学習のようにAIを用いても良いし、対応テーブルを拡充するような従来の方法であっても良く、特に限定されるものではない。 Also, the dictation grammar and rule grammar used for speech recognition are desirably generated by learning text data, guide data, and externally acquired text data as teacher data. As a learning method, AI such as so-called machine learning or deep learning may be used, or a conventional method such as expanding a correspondence table may be used, and is not particularly limited.

1、1a、1b 端末装置
2 ネットワーク網
3 検索支援サーバ208
11、31 CPU
12、32 メモリ
13、33 記憶装置
14、34 I/Oインタフェース
15、35 ビデオインタフェース
16、36 可搬型ディスクドライブ
17、37 通信インタフェース
18、38 内部バス
90、91 記憶媒体
100、101 コンピュータプログラム
331 サーチデータ記憶部
332 ガイドデータ記憶部
Reference Signs List 1, 1a, 1b terminal device 2 network network 3 search support server 208
11, 31 CPU
12, 32 memory 13, 33 storage device 14, 34 I/O interface 15, 35 video interface 16, 36 portable disk drive 17, 37 communication interface 18, 38 internal bus 90, 91 storage medium 100, 101 computer program 331 search Data storage unit 332 Guide data storage unit

Claims (11)

Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバであって、
動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、
前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウと
をデータ通信することが可能に接続されている端末装置に表示させ、
前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させることを特徴とする検索支援サーバ。
A search support server for supporting search of video content published on a website,
a signage window for selectively displaying guide data for guiding speech for selecting tag information indicating a specific part of video content;
causing a terminal device connected to be capable of data communication to display a speech window capable of narrowing down the guide data to be displayed from among the guide data according to the user's utterance;
Accepting the selection by accepting the user's speech of the tag information displayed in the signage window and/or the speech window, narrowing down the displayed tag information, and accepting the selection of the narrowed down tag information. A search support server that causes the terminal device to reproduce a specific portion of the video content corresponding to the tag information.
前記タグ情報は、少なくとも前記動画コンテンツの特定部分を識別するタグ名称、前記タグ名称の内容を説明する単文又は単語群からなるテキストデータ及び前記タグ名称の属性を示す属性情報で構成されていることを特徴とする請求項1に記載の検索支援サーバ。 The tag information is composed of at least a tag name identifying a specific part of the video content, text data consisting of a simple sentence or a group of words describing the content of the tag name, and attribute information indicating attributes of the tag name. 2. The search support server according to claim 1, characterized by: 前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示するガイドデータの基礎となるサーチデータを生成するサーチデータ生成手段を備え、
該サーチデータ生成手段は、
前記動画コンテンツの内容に基づいて、内容を示す単文又は単語群を抽出して、抽出された単文又は単語群の選択を受け付けた場合に対応する前記動画コンテンツを再生する抽出・再生手段と、
再生される前記動画コンテンツに基づいて、前記タグ名称及び前記タグ名称の内容を示す単文又は単語群の入力を受け付けるタグ入力受付手段と、
再生される前記動画コンテンツに基づいて、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間を含むポインタ情報を探索するポインタ探索手段と、
入力を受け付けた前記タグ名称ごとに、探索された前記ポインタ情報の割り付けを受け付けるポインタ割付受付手段と、
入力を受け付けた前記タグ名称ごとに、検索時に発話可能な前記属性情報の入力を受け付ける属性情報受付手段と
を備えることを特徴とする請求項2に記載の検索支援サーバ。
Search data generation means for generating search data that is the basis of guide data to be displayed in the signage window and/or the speech window;
The search data generation means is
extracting/reproducing means for extracting a simple sentence or word group indicating content based on the content of the moving image content, and reproducing the corresponding moving image content when selection of the extracted simple sentence or word group is accepted;
tag input receiving means for receiving input of the tag name and simple sentences or word groups indicating the content of the tag name based on the reproduced video content;
pointer search means for searching for pointer information including a reproduction start time and a reproduction end time of a specific portion of the moving image content based on the moving image content being reproduced;
Pointer allocation receiving means for receiving allocation of the searched pointer information for each tag name whose input is received;
3. The search support server according to claim 2, further comprising attribute information receiving means for receiving an input of said attribute information that can be spoken at the time of searching for each said tag name whose input has been received.
前記抽出・再生手段は、
前記動画コンテンツを精査して、含まれている音声を単文又は単語群として認識してテキストデータとして出力する音声文字起し手段と、
出力されたテキストデータの選択を受け付けた場合、選択を受け付けたテキストデータに対応する前記動画コンテンツを再生するコンテンツ再生手段と
を備えることを特徴とする請求項3に記載の検索支援サーバ。
The extraction/regeneration means is
a speech transcription means for scrutinizing the video content, recognizing the included speech as a simple sentence or word group and outputting it as text data;
4. The search support server according to claim 3, further comprising content reproduction means for, when receiving a selection of output text data, reproducing the video content corresponding to the selected text data.
前記ポインタ割付受付手段は、探索された前記ポインタ情報に含まれる、前記動画コンテンツの特定部分の再生開始時間及び再生終了時間について、前記動画コンテンツを再生しながら更新を受け付けるポインタ更新受付手段を備えることを特徴とする請求項3に記載の検索支援サーバ。 The pointer allocation receiving means includes pointer update receiving means for receiving updates of the reproduction start time and the reproduction end time of the specific portion of the moving image content, which are included in the searched pointer information, while reproducing the moving image content. 4. The search support server according to claim 3, characterized by: 前記ガイドデータは、前記サーチデータに含まれる前記タグ情報を、前記サーチデータを識別するサーチデータ識別情報と対応付けて生成されることを特徴とする請求項3乃至5のいずれか一項に記載の検索支援サーバ。 6. The guide data according to any one of claims 3 to 5, wherein the guide data is generated by associating the tag information included in the search data with search data identification information for identifying the search data. search support server. 前記スピーチウィンドウに表示され、ユーザによる選択を受け付けることが可能な前記タグ名称を絞り込むために、
ユーザにより発話された音声データの入力を受け付ける発話受付手段と、
入力を受け付けた音声データをテキストデータに変換し、変換したテキストデータの前記ガイドデータの前記タグ名称及び前記タグ名称の内容を示す単文又は単語群に対する一致度を算出し、算出された一致度が最大であるタグ名称を特定するとともに、前記一致度が所定値より大きい場合に前記タグ名称に対応する前記動画コンテンツの特定部分を表示するメタタグ音声認識手段と、
入力を受け付けた音声データに基づいて、前記ガイドデータの前記タグ情報のうち、前記属性情報に一致するものを抽出し、一致する一又は複数の属性情報の論理積による前記ガイドデータの絞り込みを行い、絞り込まれた前記ガイドデータの前記タグ名称及び前記属性情報を出力する絞り込み音声認識手段と
を備え、前記メタタグ音声認識手段及び前記絞り込み音声認識手段を並行して実行することを特徴とする請求項3乃至6のいずれか一項に記載の検索支援サーバ。
To narrow down the tag names that are displayed in the speech window and that can be selected by a user,
an utterance receiving means for receiving an input of voice data uttered by a user;
Converting voice data received as input into text data, calculating the degree of matching of the converted text data with the tag name of the guide data and a simple sentence or word group indicating the content of the tag name, and calculating the degree of matching Meta tag speech recognition means for identifying the maximum tag name and displaying a specific portion of the video content corresponding to the tag name when the degree of matching is greater than a predetermined value;
Based on the received voice data, the tag information of the guide data that matches the attribute information is extracted, and the guide data is narrowed down by logical product of one or more pieces of attribute information that match. and narrowing-down speech recognition means for outputting said tag name and said attribute information of said guide data narrowed down, wherein said meta-tag speech recognition means and said narrowing-down speech recognition means are executed in parallel. 7. The search support server according to any one of 3 to 6.
前記メタタグ音声認識手段は、変換されたテキストデータと、すべての前記タグ名称及び前記タグ名称の内容を示す単文又は単語群で形成された第一のデータセットとの一致度を算出し、
前記絞り込み音声認識手段は、すべてのタグ名称に対応付けられている前記属性情報で形成された第二のデータセットを音声認識フィルタとして用いた認識結果として抽出された前記属性情報の論理積により前記ガイドデータを絞り込むことを特徴とする請求項7に記載の検索支援サーバ。
The metatag speech recognition means calculates the degree of matching between the converted text data and a first data set formed of simple sentences or word groups indicating all the tag names and the contents of the tag names,
The narrowed-down speech recognition means uses a logical product of the attribute information extracted as a recognition result using a second data set formed of the attribute information associated with all tag names as a speech recognition filter to perform the 8. The search support server according to claim 7, wherein the guide data is narrowed down.
前記絞り込み音声認識手段は、絞り込まれたガイドデータの前記属性情報により前記第二のデータセットを更新することを特徴とする請求項8に記載の検索支援サーバ。 9. The search support server according to claim 8, wherein said narrowed-down speech recognition means updates said second data set with said attribute information of the narrowed-down guide data. Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバで実行することが可能な検索支援方法であって、
前記検索支援サーバが、
動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、
前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウと
をデータ通信することが可能に接続されている端末装置に表示させる工程と、
前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させる工程と
を実行することを特徴とする検索支援方法。
A search support method that can be executed by a search support server that supports searches for video content published on a website, comprising:
The search support server
a signage window for selectively displaying guide data for guiding speech for selecting tag information indicating a specific part of video content;
a step of displaying a speech window capable of narrowing down guide data to be displayed from among the guide data by user's utterance on a terminal device connected so as to be capable of data communication;
Accepting the selection by accepting the user's speech of the tag information displayed in the signage window and/or the speech window, narrowing down the displayed tag information, and accepting the selection of the narrowed down tag information. and causing the terminal device to reproduce a specific portion of the video content corresponding to the tag information.
Webサイト上に公開される動画コンテンツの検索を支援する検索支援サーバで実行することが可能なコンピュータプログラムであって、
前記検索支援サーバを、
動画コンテンツの特定部分を示すタグ情報を選択するための発話を誘導するガイドデータを選択的に表示するサイネージウィンドウと、
前記ガイドデータの中から、表示するべきガイドデータをユーザの発話により絞り込むことが可能なスピーチウィンドウと
をデータ通信することが可能に接続されている端末装置に表示させる手段、及び
前記サイネージウィンドウ及び/又は前記スピーチウィンドウに表示された前記タグ情報のユーザによる発話を受け付けて、表示される前記タグ情報を絞り込み、絞り込まれた前記タグ情報の選択を受け付けることにより、選択を受け付けた前記タグ情報に対応する前記動画コンテンツの特定部分を前記端末装置において再生させる手段
として機能させることを特徴とするコンピュータプログラム。
A computer program that can be executed by a search support server that supports searches for video content published on a website,
the search support server,
a signage window for selectively displaying guide data for guiding speech for selecting tag information indicating a specific part of video content;
means for displaying a speech window capable of narrowing down the guide data to be displayed from the guide data by user's utterance on a terminal device connected to data communication, and the signage window and/or Alternatively, receiving speech by the user of the tag information displayed in the speech window, narrowing down the displayed tag information, and receiving selection of the narrowed-down tag information, thereby corresponding to the selected tag information. A computer program functioning as a means for reproducing a specific portion of said moving image content on said terminal device.
JP2021039268A 2021-03-11 2021-03-11 SEARCH SUPPORT SERVER, SEARCH SUPPORT METHOD, AND COMPUTER PROGRAM Active JP7297266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021039268A JP7297266B2 (en) 2021-03-11 2021-03-11 SEARCH SUPPORT SERVER, SEARCH SUPPORT METHOD, AND COMPUTER PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021039268A JP7297266B2 (en) 2021-03-11 2021-03-11 SEARCH SUPPORT SERVER, SEARCH SUPPORT METHOD, AND COMPUTER PROGRAM

Publications (3)

Publication Number Publication Date
JP2022139053A JP2022139053A (en) 2022-09-26
JP2022139053A5 JP2022139053A5 (en) 2022-11-02
JP7297266B2 true JP7297266B2 (en) 2023-06-26

Family

ID=83399196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021039268A Active JP7297266B2 (en) 2021-03-11 2021-03-11 SEARCH SUPPORT SERVER, SEARCH SUPPORT METHOD, AND COMPUTER PROGRAM

Country Status (1)

Country Link
JP (1) JP7297266B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010181461A (en) 2009-02-03 2010-08-19 Olympus Corp Digital photograph frame, information processing system, program, and information storage medium
JP2013097578A (en) 2011-10-31 2013-05-20 Toshiba Corp Electronic apparatus, video display device, control method of electronic apparatus, and control program of electronic apparatus
JP2020079982A (en) 2018-11-12 2020-05-28 株式会社日本経済新聞社 Tagging device for moving images, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010181461A (en) 2009-02-03 2010-08-19 Olympus Corp Digital photograph frame, information processing system, program, and information storage medium
JP2013097578A (en) 2011-10-31 2013-05-20 Toshiba Corp Electronic apparatus, video display device, control method of electronic apparatus, and control program of electronic apparatus
JP2020079982A (en) 2018-11-12 2020-05-28 株式会社日本経済新聞社 Tagging device for moving images, method, and program

Also Published As

Publication number Publication date
JP2022139053A (en) 2022-09-26

Similar Documents

Publication Publication Date Title
KR100735820B1 (en) Speech recognition method and apparatus for multimedia data retrieval in mobile device
EP2058800B1 (en) Method and system for recognizing speech for searching a database
US9640175B2 (en) Pronunciation learning from user correction
US20060143007A1 (en) User interaction with voice information services
JP6229287B2 (en) Information processing apparatus, information processing method, and computer program
US20150032453A1 (en) Systems and methods for providing information discovery and retrieval
JP2014203207A (en) Information processing unit, information processing method, and computer program
KR20140047633A (en) Speech recognition repair using contextual information
JP2009505321A (en) Method and system for controlling operation of playback device
CN108063969A (en) Display device, the method for controlling display device, server and the method for controlling server
JP2002032213A (en) Method and system for transcribing voice mail message
US11501764B2 (en) Apparatus for media entity pronunciation using deep learning
KR102029276B1 (en) Answering questions using environmental context
JP2007171809A (en) Information processor and information processing method
JP2014203208A (en) Information processing unit, information processing method, and computer program
JP3639776B2 (en) Speech recognition dictionary creation device, speech recognition dictionary creation method, speech recognition device, portable terminal device, and program recording medium
KR20080083290A (en) A method and apparatus for accessing a digital file from a collection of digital files
JP2009042968A (en) Information selection system, information selection method, and program for information selection
KR20060100646A (en) Method and system for searching the position of an image thing
JP7297266B2 (en) SEARCH SUPPORT SERVER, SEARCH SUPPORT METHOD, AND COMPUTER PROGRAM
US20060149545A1 (en) Method and apparatus of speech template selection for speech recognition
JP7257010B2 (en) SEARCH SUPPORT SERVER, SEARCH SUPPORT METHOD, AND COMPUTER PROGRAM
KR20120083025A (en) Multimedia device for providing voice recognition service by using at least two of database and the method for controlling the same
US7970617B2 (en) Image processing apparatus and image processing method with speech registration
JP5196114B2 (en) Speech recognition apparatus and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230606

R150 Certificate of patent or registration of utility model

Ref document number: 7297266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150