JP4177018B2 - Content distribution method and program for causing computer to perform processing in the method - Google Patents

Content distribution method and program for causing computer to perform processing in the method Download PDF

Info

Publication number
JP4177018B2
JP4177018B2 JP2002120768A JP2002120768A JP4177018B2 JP 4177018 B2 JP4177018 B2 JP 4177018B2 JP 2002120768 A JP2002120768 A JP 2002120768A JP 2002120768 A JP2002120768 A JP 2002120768A JP 4177018 B2 JP4177018 B2 JP 4177018B2
Authority
JP
Japan
Prior art keywords
keyword
information
content
keywords
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002120768A
Other languages
Japanese (ja)
Other versions
JP2003316710A (en
Inventor
直樹 毛海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002120768A priority Critical patent/JP4177018B2/en
Publication of JP2003316710A publication Critical patent/JP2003316710A/en
Application granted granted Critical
Publication of JP4177018B2 publication Critical patent/JP4177018B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はコンテンツ配信方法に係り、特に、店舗内に設置された表示装置(例えば、飲食用テーブル上のディスプレイ)に表示する映像等のコンテンツ情報を配信するためのコンテンツ配信方法に関する。
【0002】
また、本発明は、そのようなコンテンツ配信方法における処理をコンピュータに行わせるためのプログラムに関する。
【0003】
【従来の技術】
近年、飲食店等の店舗には、映像等を表示させるために大型のディスプレイが設置されている場合がある。このディスプレイには、予め時間帯によって設定された映画や音楽映像、広告等が表示されると共に、その映像に合せて音声が出力される。このようなディスプレイを有する店舗を利用する利用者は、無意識のうちにディスプレイに表示された映像を見ながら食事を行なっていた。
【0004】
【発明が解決しようとする課題】
しかしながら、上記のように、所定の店舗に設置されたディスプレイには、予め設定された映像のみが表示されるため、利用者の意志とは関係なく映像が表示されてしまい、利用者にとって関心のない映像を見たり、音声を聞いたりしなければならない。従って、店舗側ではディスプレイに映像や広告を表示させることにより、店舗滞在時間を増やし、食事のオーダーを増加させる等の効果を期待することができないという問題点があった。
【0005】
また、従来、利用者の会話から特定の利用者の音声を認識し、その音声に応じたコンテンツを配信する技術が開示されているが、この場合、特定の利用者の音声、即ち、特定の利用者の会話内容のみがコンテンツ配信決定に影響するため、偏ったコンテンツ配信になってしまうという問題点があった。
【0006】
そこで、本発明の課題は、複数の利用者による会話の中で共通の話題に関連するコンテンツを配信することができるコンテンツ配信方法及びその方法における処理をコンピュータに行わせるためのプログラムを提供することである。
【0007】
【課題を解決するための手段】
上記の課題を解決するため、本発明は、コンピュータによる、複数の利用者の会話情報に基づいてコンテンツ情報を配信するコンテンツ配信方法であって、前記コンピュータが、
上記会話情報からキーワードを抽出する第1のキーワード抽出手順と、上記第1のキーワード抽出手順で抽出されたキーワードに対し、利用者と対応付けて、キーワードの頻出度である頻度情報をキーワードDBに記憶する頻度情報記憶手順と、上記キーワードのうち、各利用者のキーワード頻出度情報の合計が所定値以上のキーワードであって、該キーワードが前記複数の利用者の各々から、より同等の頻度で発生したキーワードを上記キーワードDBから抽出する第2のキーワード抽出手順と、キーワードに対応するコンテンツが格納されているコンテンツ情報DBを検索し、上記第2のキーワード抽出手順により抽出された上記キーワードに対応するコンテンツ情報を配信する配信手順とを有する構成とされる。
【0008】
このようなコンテンツ配信方法では、複数の利用者の会話情報に基づいて、頻度の高いキーワードを管理し、そのキーワードのうち複数の利用者により同等の頻度で発生したキーワードを抽出し、抽出されたキーワードに基づいて上記コンテンツ情報を配信することにより、複数の利用者による会話の中で共通の話題に関連するコンテンツを配信することができる。
【0009】
また、上記課題を解決するため、本発明は、上記コンテンツ配信方法による処理をコンピュータに行なわせるためのプログラムとすることもできる。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
【0011】
図1は、本発明の実施の一形態に係るコンテンツ配信方法におけるシステム構成図を示している。図1において、コンテンツ配信方法におけるコンテンツ配信システム10は、コンテンツ配信処理を行う複数の店舗2〜2Nと、店舗2内に設けられた店舗サーバ20と、店舗サーバ20にLAN15で接続され、店舗2を利用する利用者により操作される複数の利用者側端末30と、コンテンツの配信を行うコンテンツサーバ40等で構成されるシステムである。
【0012】
図1において、店舗2内の店舗サーバ20、コンテンツサーバ40はサーバコンピュータであって、CPU(中央処理装置)によって各構成が制御される。CPUは、メモリユニットに格納されたプログラムに従ってコンテンツ配信方法での処理を行う。ネットワーク1を介して店舗2の店舗サーバ20及び利用者側端末30と、コンテンツサーバ40とに接続される。尚、利用者側端末30は、店舗サーバ20のみに接続され、店舗サーバ20に蓄積されたコンテンツ情報が配信されるようにしてもよい。
【0013】
店舗サーバ20は、主に、コンテンツ配信処理に係る処理を実行するプログラムをインストールするインストーラ11と、データ通信を制御する通信制御処理部12と、データの表示を制御する表示制御処理部13と、データの入出力を制御する入出力制御処理部14と、利用者側端末30で取得した音声情報に基づいて特定の利用者を認識する音声情報認識処理部21と、音声情報に基づいて利用者側端末30の特定の利用者を判定する音声情報判定処理部22と、音声情報に基づいてコンテンツを配信するためのキーワードを抽出するキーワード抽出処理部23と、キーワード抽出処理部23により抽出されたキーワードに基づいてコンテンツ配信指示を行うコンテンツ配信指示処理部24と、音声情報からのキーワードが格納されたキーワードDB25と、利用者側端末30を利用している利用者個人を識別するための個人識別情報が格納された個人識別情報DB26と、キーワードの抽出を行うための閾値テーブル27とを有する。
【0014】
通信制御処理部12は、ネットワーク1を介して送受信データを制御する処理部であって、ネットワーク網に接続するための通信ユニットを有する。表示制御処理部13は、ディスプレイ等の表示ユニットを有し、表示用データを制御して該表示ユニットに表示させる。入出力制御処理部14は、マウス、キーボード等の入力ユニット及びプリンタ等の出力ユニットを制御し、データの入出力を制御する。インストーラ11は、本発明の一実施例に係るコンテンツ配信方法を実現するためのプログラムが記録されたCD−ROM50から該プログラムを読み出し、その読み出されたプログラムを、例えば、補助記憶装置等にインストールする。そして、後述されるコンテンツ配信方法における処理が起動されると、補助記憶装置にインストールされた当該プログラムに従って、CPUがその処理を開始する。尚、当該プログラムを格納する媒体としてCD−ROMに限定するものではなく、コンピュータが読み取り可能な媒体であればよい。
【0015】
音声情報認識処理部21は、利用者側端末30で取得した音声情報と個人識別情報DB26に格納された個人識別情報とに基づいて、特定の利用者を認識し、認識した結果の個人情報を更新する等の処理を行う。音声情報判定処理部22は、音声情報と個人識別情報DB26に格納された個人情報とに基づいて、利用者側端末30の特定の利用者を判定し、判定結果に基づいて音声情報からのキーワード情報をキーワードDB25に格納する。キーワード抽出処理部23は、音声情報とキーワードDB25に格納されたキーワード情報と、キーワードの抽出を行うための閾値テーブル27とに基づいて、コンテンツを配信するためのキーワードを抽出する。コンテンツ配信指示処理部24は、キーワード抽出処理部23により抽出されたキーワードに基づいて、コンテンツサーバ40へコンテンツ配信指示を行う。キーワードDB25に格納されたキーワード情報については、図11、図12、図14で、個人識別情報DB26に格納された個人識別情報については、図10で、閾値テーブル27については、図13で詳細に説明する。
【0016】
店舗2に設けられた複数の利用者側端末30は、表示制御処理部31と、音声情報取得処理部32とを有する。表示制御処理部31は、ディスプレイ等の表示ユニットを有し、コンテンツサーバ40もしくは店舗サーバ20から送信されたコンテンツ情報を制御して該表示ユニットに表示させる処理を行う。音声情報取得処理部32は、マイク等の音声取得ユニットを有し、利用者が会話している時の音声情報を取得して店舗サーバ20に送信する処理を行う。この音声情報については、図9で詳細に説明する。
【0017】
コンテンツサーバ40は、多種多様なコンテンツ情報が格納されたコンテンツDB41と、配信処理部42とを有する。配信処理部42は、各店舗2に設けられた店舗サーバ20からコンテンツ配信指示を受信し、コンテンツ配信指示とコンテンツDB41に格納されたコンテンツ情報とに基づいて、所定のコンテンツ情報を利用者側端末30もしくは店舗サーバ20に送信する。
【0018】
次に、コンテンツ配信方法の処理手順について説明する。図2は、コンテンツ配信処理を説明するためのフローチャート図である。先ず、ステップS10の処理で、店舗サーバ20により個人識別情報が取得済みであるか否か、即ち、利用者側端末30で一定期間の会話での音声情報から生成された個人識別情報が個人識別情報DB26に格納されているか否かを判断する。ステップS10の処理で個人識別情報が取得済みでない場合、ステップS11の処理で、店舗サーバ20の音声情報認識処理部21により音声情報認識処理を行う。この音声情報認識処理手順については、図3で詳細に説明する。ステップS10の処理で個人識別情報が取得済みである場合、ステップS12の処理で、店舗サーバ20の音声情報判定処理部22及びキーワード抽出処理部23により一定期間の音声情報と個人識別情報と、閾値テーブル27の値に基づいて音声情報の判定とキーワード抽出処理を行う。この音声情報判定処理手順については、図4、図5で、頻出キーワード抽出処理手順については、図6で詳細に説明する。ステップS13の処理で、店舗サーバ20のコンテンツ配信指示処理部24により抽出されたキーワードをコンテンツサーバ40に送信してコンテンツ配信指示を行う。コンテンツ配信指示処理手順については、図7で詳細に説明する。ステップS14の処理で、店舗サーバ20によりコンテンツ配信処理が終了したか否かを判断する。ステップS14の処理でコンテンツ配信処理が終了していない場合、ステップS12からの処理を繰り返す。
【0019】
尚、ステップS14の処理で、コンテンツ配信処理が終了したか否かの判断は、店舗サーバ20に予め設定された期間に基づいて判断される。また、店舗サーバ20の操作者がコンテンツ配信処理の終了を判断するようにしてもよい。
【0020】
図3は、音声情報認識処理を説明するためのフローチャート図である。図3において、ステップS20の処理で、店舗サーバ20の音声情報認識処理部21により、利用者側端末30の音声情報取得処理部32により取得された音声情報を受信する。
【0021】
図9は、音声情報のテーブルを示す図である。図9において、音声情報取得処理部32により取得される音声情報のテーブル320には、その利用者側端末30が設置されたテーブルで利用者が会話した時の音声情報が格納され、その音声情報は店舗サーバー20に送信される。
【0022】
ステップS21の処理で、音声情報認識処理部21により受信した音声情報から音韻情報や、発声レベル情報を解析する。ステップS22の処理で、音声情報認識処理部21により個人識別情報DB26に格納された個人識別情報を取得して個人識別処理を行う。ステップS23の処理で、音声情報認識処理部21により個人識別情報に、ステップS21の処理で解析した音声情報と近似したデータがあるか否かを判断する。ステップS23の処理で個人識別情報に解析した音声情報と近似したデータがない場合、ステップS24の処理で音声情報認識処理部21により解析した音声情報を個人識別情報として個人識別情報DB26に格納する。
【0023】
図10は、個人識別情報DBに格納されるテーブルを示す図である。図10において、個人識別情報DB26に格納されるテーブル260には、利用者側端末30の利用者を特定する個人特定情報と、音声情報に基づいて解析される音韻情報と、発声レベル情報とが格納される。例えば、テーブル260には、個人特定情報「0001」に関連付けて音韻情報「データA」、発声レベル情報「レベル1」とが格納されている。
【0024】
ステップS23の処理で個人識別情報に解析した音声情報と近似したデータがある場合、ステップS25の処理で、音声情報認識処理部21により利用者側端末30で会話を行っている全員の音声情報、即ち、個人識別情報を取得したか否かを判断する。ステップS25の処理で、全員の個人識別情報を取得した場合、音声情報認識処理を終了する。ステップS25の処理で、全員の個人識別情報を取得していない場合、ステップS20からの処理を繰り返す。
【0025】
尚、ステップS25の処理で、全員の個人識別情報を取得したか否かの判断は、店舗サーバ20に予め設定された期間に新規の登録がない場合に、全員の個人識別情報を取得した判断を行う。また、店舗サーバ20の操作者が全員の個人識別情報を取得したか否かの判断を行うようにしてもよい。
【0026】
図4、図5は、音声情報判定処理を説明するためのフローチャート図である。図4において、先ず、ステップS30の処理で、音声情報判定処理部22により利用者側端末30からの音声情報を受信する。ステップS31の処理で、音声情報判定処理部22により受信した音声情報から音韻情報や、発声レベル情報を解析する。ステップS32の処理で、音声情報判定処理部22により個人識別情報DB26に格納された個人識別情報に基づいて、どの利用者が発した音声情報であるか否かを判定する個人判定処理を行う。ステップS33の処理で、音声情報判定処理部22により音声情報からキーワードを抽出する。ステップS34の処理で、音声情報判定処理部22により抽出したキーワードと、ステップS32の処理による個人判定結果とに基づいて、キーワードDB25に格納されたキーワード情報の頻出度情報及び標準偏差情報とを格納する。尚、頻出度情報は、各利用者の音声情報に発生するキーワードの頻出度である。また、標準偏差情報は、キーワード毎に各利用者の音声情報に発生したキーワードの頻出度の分散を示す標準偏差値である。即ち、標準偏差値の小さいキーワードは、複数の利用者に同等の頻度で発生したキーワードと判断される。
【0027】
例えば、ステップS33の処理で、音声情報判定処理部22は図9に示す音声情報テーブル320の音声情報「沖縄の海はきれいだった。」からキーワード「沖縄」、「海」等を抽出する。キーワード「沖縄」、「海」等を抽出した後、ステップS34の処理により、キーワードDB25に格納されたキーワード「沖縄」、「海」のそれぞれの頻出度情報に1加算して更新する。ステップS35の処理で、音声情報判定処理部22により一連の音声情報取得が終了したか否か、即ち、個人判定結果の利用者の発する一連の音声情報取得が終了したか否かを判断する。ステップS35の処理で一連の音声情報取得が終了していない場合、ステップS33からの処理を繰り返す。ステップS35の処理で一連の音声情報取得が終了した場合、ステップS36の処理で音声情報判定処理部22により音声情報の取得を開始してから一定時間が経過したか否かを判断する。ステップS36の処理で音声情報の取得を開始してから一定時間が経過していない場合、ステップS30からの処理を繰り返す。ステップS36の処理で音声情報の取得を開始してから一定時間が経過している場合、ステップS37の処理で音声情報判定処理部22によりコンテンツ配信処理が初回であるか否かを判断する。
【0028】
ステップS37の処理でコンテンツ配信処理が初回である場合、図5に示すステップS40の処理でキーワード抽出処理部23によりキーワードDB25のキーワード情報に基づいて頻出度情報の高いキーワードを抽出する処理を行う。ステップS40の頻出キーワード抽出処理手順については、図6で詳細に説明する。ステップS41の処理で、音声情報判定処理部22により、抽出された頻出キーワード情報をキーワードDB25に格納する。ステップS42の処理で、音声情報判定処理部22により頻出キーワードの頻出度情報及び標準偏差情報をキーワードDB25に格納する。ステップS43の処理で、音声情報判定処理部22により頻出キーワードの配信フラグをONに設定してキーワードDB25に格納する。
【0029】
図4に示すステップS37の処理でコンテンツ配信処理が初回でない場合、図5に示すステップS44の処理で音声情報判定処理部22によりキーワードDB25から抽出キーワードの頻出度情報を読み込む。ステップS45の処理で音声情報判定処理部22によりキーワードDB25に格納されたキーワード情報から共通のキーワード、即ち、今回抽出したキーワードと同じ前回抽出したキーワードを抽出する。ステップS46の処理で、音声情報判定処理部22により今回抽出したキーワードと前回抽出したキーワードの頻出度情報の差が、閾値テーブル27に設定された閾値よりも小さいか否かを判断する。ステップS46の処理で各キーワードの頻出度の差が閾値よりも小さい場合、ステップS40からの処理を行う。ステップS46の処理で各キーワードの頻出度情報の差が閾値よりも大きい場合、ステップS47の処理で音声情報判定処理部22により頻出キーワードの配信フラグをOFFに設定してキーワードDB25に格納する。
【0030】
図6は、頻出キーワード抽出処理を説明するためのフローチャート図である。図6において、先ず、ステップS50の処理で、キーワード抽出処理部23によりキーワードDB25に格納されたキーワード情報から1ワードを読み込む。ステップS51の処理で、キーワード抽出処理部23によりキーワードの標準偏差情報が閾値テーブル27に設定された閾値以上であるか否かを判断する。ステップS51の処理でキーワードの標準偏差情報が閾値以下である場合、ステップS52の処理でキーワード抽出処理部23により頻出度情報が閾値以上か否かを判断する。ステップS52の処理で頻出度情報が閾値以である場合、ステップS53の処理で、キーワード抽出処理部23により読み込んだキーワード情報を一時的にキーワードDB25に格納する。
【0031】
ステップS54の処理で、キーワード抽出処理部23によりキーワードDB25に格納されたキーワード情報が全て検索されたか否かを判断する。ステップS54の処理でキーワードDB25に格納されたキーワード情報が全て検索された場合、ステップS55の処理でキーワード抽出処理部23により標準偏差情報の最も低いキーワードを抽出し、キーワードDB25に一時的に格納する。
【0032】
図7は、コンテンツ配信指示処理を説明するためのフローチャート図である。図7において、先ず、ステップS60の処理は、コンテンツ配信指示処理部24によりキーワードDB25に格納された配信フラグを読み込む。ステップS61の処理は、コンテンツ配信指示処理部24により読み込んだ配信フラグがONかOFFかを判断する。ステップS61の処理で配信フラグがOFFの場合、ステップS60からの処理を繰り返す。ステップS61の処理で配信フラグがONの場合、ステップS62の処理でコンテンツ配信指示処理部24によりキーワードDB25に格納されたキーワード情報を読み込む。ステップS63の処理で、コンテンツ配信指示処理部24によりコンテンツサーバ40へコンテンツ配信指示が送信される。
【0033】
図8は、配信処理を説明するためのフローチャート図である。図8において、先ず、ステップS70の処理で、コンテンツサーバ40の配信処理部42は店舗サーバ20からコンテンツ配信指示を受信する。ステップS71の処理で、配信処理部42はコンテンツDB41に格納された複数のキーワードに対応するコンテンツ情報と、受信したコンテンツ配信指示のキーワードとに基づいて、そのキーワードに応じたコンテンツ情報を検索する。ステップS72の処理で、配信処理部42は配信するコンテンツ情報を決定する。ステップS73の処理で、配信処理部42は決定したコンテンツ情報を利用者端末30へ配信する。
【0034】
次に、キーワードDB25に格納されるキーワード情報及び閾値テーブルについて説明する。
【0035】
図11は、キーワードDBに格納されるテーブルを示す図である。図11において、キーワードDB25に格納されるテーブル250には、抽出されたキーワード情報と、そのキーワードの標準偏差情報と、キーワードを発した個人特定情報と、そのキーワードの頻出度情報とが格納される。例えば、テーブル250には、キーワード情報「沖縄」、標準偏差情報「40」、個人特定情報「0001」、頻出度情報「85」とが格納される。尚、テーブル250には、抽出したキーワードの頻出度情報の合計が格納される。
【0036】
図12は、キーワードDBに格納されるテーブルを示す図である。図12において、キーワードDB25に格納されるテーブル251は、キーワード抽出処理部23により図11に示すキーワード情報に基づいて、標準偏差情報が閾値より小さく、また、頻出度情報が閾値より大きいキーワード情報が格納されたテーブルである。例えば、テーブル251には、頻出度情報「50/175」、標準偏差情報「3」、キーワード情報「泡盛」、配信プラグ「OFF」とが格納される。
【0037】
図13は、閾値テーブルを示す図である。図13において、閾値テーブル27には、予め設定された閾値が格納されている。例えば、閾値テーブル27には、頻出度情報の閾値「0.25」、標準偏差情報の閾値「2」、前回と今回の頻出度情報の差の閾値「0.1」とが格納されている。
【0038】
図14は、キーワードDBに格納されるテーブルを示す図である。図14において、キーワードDB25に格納されるテーブル252には、図12に示す抽出された頻出度情報の高いキーワード情報から、コンテンツ配信指示処理部24により、配信フラグONのキーワード情報が格納される。例えば、テーブル252には、頻出度情報「25/175」、標準偏差情報「1.5」、配信フラグ「ON」が格納される。
【0039】
尚、上記コンテンツ配信方法において、音声情報に限定されることなく、インターネット上でチャット機能を用いて複数の利用者により発生される文字情報に基づいて、複数の利用者により同等の頻度で発生した共通のキーワードを抽出するようにしてもよい。
【0040】
尚、上記コンテンツ配信方法において、抽出されたキーワードに基づいた広告情報を配信するようにしてもよい。
【0041】
このように、上記コンテンツ配信方法において、複数の利用者での会話の音声情報に基づいて、発生した頻出度情報の高いキーワードとそのキーワード毎の標準偏差情報と、利用者毎の頻出度情報とを管理し、管理された複数のキーワードのうち、閾値に基づいて複数の利用者により同等の頻度で発生したキーワードを抽出し、抽出されたキーワードに基づいてコンテンツ情報の配信の指示を示す識別子をそのキーワードに格納することにより、複数の利用者による会話の中で共通の話題に関連するコンテンツを配信することができる。
【0042】
また、上記コンテンツ配信方法において、前回コンテンツの配信の指示を行ったキーワードの頻出度情報と、今回抽出されたキーワードの頻出度情報の差が閾値よりも大きい場合に、前回と異なるコンテンツ情報の配信を指示することにより、利用者の会話の状況に応じたコンテンツを配信することができる。
(付記1) 複数の利用者の会話情報に基づいてコンテンツ情報を配信するコンテンツ配信方法であって、
上記会話情報に基づいて頻度の高いキーワードを管理する管理手順と、
上記管理手順による上記キーワードのうち、上記複数の利用者により同等の頻度で発生したキーワードを抽出するキーワード抽出手順と、
上記キーワード抽出手順により抽出された上記キーワードに基づいて上記コンテンツ情報を配信する配信手順とを有することを特徴とするコンテンツ配信方法。
(付記2) 上記管理手順は、上記キーワード毎に関連付けて上記キーワードの標準偏差を示す標準偏差情報を管理し、
上記キーワード抽出手順は、上記標準偏差情報が閾値以下となるキーワードを抽出することを特徴とする付記1記載のコンテンツ配信方法。
(付記3) 上記管理手順は、上記キーワード毎に関連付けて上記利用者毎に発生された頻出度を示す頻出度情報を管理し、
上記キーワード抽出手順は、上記頻出度情報が閾値以上となるキーワードを抽出することを特徴とする付記1又は2記載のコンテンツ配信方法。
(付記4) 上記キーワード抽出手順は、前回抽出されたキーワードの頻出度情報と今回抽出されたキーワードの頻出度情報との差が閾値以下であるか否かを判断する判断手順を有し、
上記配信手順は、上記判断手順による判断結果に基づいて上記コンテンツ情報を配信しない指示を示す情報を設定する配信不可設定手順を有することを特徴とする付記3記載のコンテンツ配信方法。
(付記5) 更に、上記頻出度情報の閾値と上記標準偏差情報の閾値、及び前回抽出されたキーワードの頻出度情報と今回抽出されたキーワードの頻出度情報との差の閾値とを示すテーブルを管理する閾値管理手順を有することを特徴とする付記2乃至4いずれか一項記載のコンテンツ配信方法。
(付記6) 上記会話情報は、上記複数の利用者により口頭で発生された音声情報であることを特徴とする付記1乃至5いずれか一項記載のコンテンツ配信方法。
(付記7) 上記会話情報は、インターネット上で上記複数の利用者によりオンラインで入力された文字情報であることを特徴とする付記1乃至6いずれか一項記載のコンテンツ配信方法。
(付記8) 上記コンテンツ情報は、上記キーワードに基づいた広告情報であることを特徴とする付記1乃至7いずれか一項記載のコンテンツ配信方法。
(付記9) 複数の利用者の会話情報に基づいてコンテンツ情報を配信するコンテンツ配信方法における処理をコンピュータに行なわせるためのプログラムであって、
上記会話情報に基づいて頻度の高いキーワードを管理する管理手順と、
上記管理手順による上記キーワードのうち、上記複数の利用者により同等の頻度で発生したキーワードを抽出するキーワード抽出手順と、
上記キーワード抽出手順により抽出された上記キーワードに基づいて上記コンテンツ情報を配信する配信手順とを有することを特徴とするプログラム。
(付記10) 複数の利用者の会話情報に基づいてコンテンツ情報を配信するコンテンツ配信方法における処理をコンピュータに行なわせるためのプログラムを格納した記憶媒体であって、
上記会話情報に基づいて頻度の高いキーワードを管理する管理手順と、
上記管理手順による上記キーワードのうち、上記複数の利用者により同等の頻度で発生したキーワードを抽出するキーワード抽出手順と、
上記キーワード抽出手順により抽出された上記キーワードに基づいて上記コンテンツ情報を配信する配信手順とを有することを特徴とするプログラムを格納した記憶媒体。
【0043】
【発明の効果】
上述の如く本発明によれば、複数の利用者の会話情報に基づいて、頻度の高いキーワードを管理し、そのキーワードのうち複数の利用者により同等の頻度で発生したキーワードを抽出し、抽出されたキーワードに基づいて上記コンテンツ情報を配信することにより、複数の利用者による会話の中で共通の話題に関連するコンテンツを配信することができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態に係るコンテンツ配信方法におけるシステム構成図である。
【図2】コンテンツ配信処理の全体を説明するためのフローチャート図である。
【図3】音声情報認識処理を説明するためのフローチャート図である。
【図4】音声情報判定処理を説明するためのフローチャート図である。
【図5】音声情報判定処理を説明するためのフローチャート図である。
【図6】頻出キーワード抽出処理を説明するためのフローチャート図である。
【図7】コンテンツ配信指示処理を説明するためのフローチャート図である。
【図8】配信処理を説明するためのフローチャート図である。
【図9】音声情報のテーブルを示す図である。
【図10】個人識別情報DBに格納されるテーブルを示す図である。
【図11】キーワードDBに格納されるテーブルを示す図である。
【図12】キーワードDBに格納されるテーブルを示す図である。
【図13】閾値テーブルを示す図である。
【図14】キーワードDBに格納されるテーブルを示す図である。
【符号の説明】
1 ネットワーク
2〜2N 店舗
10 コンテンツ配信システム
11 インストーラ
12 通信制御処理部
13 表示制御処理部
14 入出力制御処理部
15 LAN
20 店舗サーバ
21 音声情報認識処理部
22 音声情報判定処理部
23 キーワード抽出処理部
24 コンテンツ配信指示処理部
25 キーワードDB
26 個人識別情報DB
27 閾値テーブル
30 利用者側端末
31 表示制御処理部
32 音声情報取得処理部
40 コンテンツサーバ
41 コンテンツDB
42 配信処理部
50 CD−ROM
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a content distribution method, and more particularly to a content distribution method for distributing content information such as video to be displayed on a display device (for example, a display on a table for eating and drinking) installed in a store.
[0002]
The present invention also relates to a program for causing a computer to perform processing in such a content distribution method.
[0003]
[Prior art]
In recent years, a large display may be installed in a store such as a restaurant to display a video or the like. On this display, movies, music videos, advertisements, etc. set in advance according to the time zone are displayed, and sound is output in accordance with the videos. A user who uses a store having such a display is unconsciously eating while watching the video displayed on the display.
[0004]
[Problems to be solved by the invention]
However, as described above, only the preset video is displayed on the display installed in a predetermined store, so that the video is displayed regardless of the user's intention, which is of interest to the user. You have to see no video or listen to audio. Therefore, there is a problem in that the store side cannot expect effects such as increasing the staying time in the store and increasing the order of meals by displaying images and advertisements on the display.
[0005]
Conventionally, a technology for recognizing a specific user's voice from a user's conversation and distributing content corresponding to the voice has been disclosed. In this case, a specific user's voice, that is, a specific user's voice is disclosed. Since only the user's conversation content affects the content distribution decision, there is a problem that the content distribution becomes uneven.
[0006]
Accordingly, an object of the present invention is to provide a content distribution method capable of distributing content related to a common topic in a conversation by a plurality of users, and a program for causing a computer to perform processing in the method. It is.
[0007]
[Means for Solving the Problems]
In order to solve the above problems, the present invention provides a content distribution method for distributing content information based on conversation information of a plurality of users by a computer, wherein the computer includes:
The first keyword extraction procedure for extracting a keyword from the conversation information and the keyword extracted by the first keyword extraction procedure are associated with the user and are the frequency of the keywords frequently appearing. Out Frequency information storage procedure for storing the degree information in the keyword DB, and among the above keywords, The total of keyword frequency information of each user is a keyword having a predetermined value or more, and the keyword is obtained from each of the plurality of users. A second keyword extraction procedure for extracting keywords generated at a more equal frequency from the keyword DB, and a content information DB in which content corresponding to the keyword is stored are searched and extracted by the second keyword extraction procedure. And a distribution procedure for distributing content information corresponding to the keyword.
[0008]
In such a content distribution method, keywords that are frequently used are managed based on conversation information of a plurality of users, and keywords that are generated at a similar frequency by a plurality of users are extracted and extracted. By distributing the content information based on keywords, it is possible to distribute content related to a common topic in a conversation by a plurality of users.
[0009]
In order to solve the above problems, the present invention provides a program for causing a computer to perform the processing according to the content distribution method. And You can also
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0011]
FIG. 1 shows a system configuration diagram in a content distribution method according to an embodiment of the present invention. In FIG. 1, a content distribution system 10 in the content distribution method is connected to a plurality of stores 2 to 2N that perform content distribution processing, a store server 20 provided in the store 2, and the store server 20 via a LAN 15. This is a system including a plurality of user terminals 30 operated by a user who uses the content server 40, a content server 40 that distributes content, and the like.
[0012]
In FIG. 1, a store server 20 and a content server 40 in the store 2 are server computers, and each component is controlled by a CPU (central processing unit). The CPU performs processing in the content distribution method according to the program stored in the memory unit. The network server 1 is connected to the store server 20 of the store 2, the user terminal 30, and the content server 40. In addition, the user side terminal 30 may be connected only to the store server 20 and the content information stored in the store server 20 may be distributed.
[0013]
The store server 20 mainly includes an installer 11 that installs a program for executing processing related to content distribution processing, a communication control processing unit 12 that controls data communication, a display control processing unit 13 that controls display of data, An input / output control processing unit 14 that controls input / output of data, a voice information recognition processing unit 21 that recognizes a specific user based on voice information acquired by the user terminal 30, and a user based on the voice information The voice information determination processing unit 22 that determines a specific user of the side terminal 30, the keyword extraction processing unit 23 that extracts a keyword for distributing content based on the voice information, and the keyword extraction processing unit 23 A content distribution instruction processing unit 24 that issues a content distribution instruction based on a keyword, and a key that stores a keyword from audio information. Having a word DB 25, a personal identification information DB26 to the personal identification information is stored for identifying the individual user utilizing user-side terminal 30, and a threshold table 27 for the extraction of keywords.
[0014]
The communication control processing unit 12 is a processing unit that controls transmission / reception data via the network 1 and includes a communication unit for connecting to a network. The display control processing unit 13 includes a display unit such as a display, and controls display data to display on the display unit. The input / output control processing unit 14 controls input / output of data by controlling an input unit such as a mouse and a keyboard and an output unit such as a printer. The installer 11 reads the program from the CD-ROM 50 on which the program for realizing the content distribution method according to the embodiment of the present invention is recorded, and installs the read program in an auxiliary storage device or the like, for example. To do. Then, when processing in the content distribution method described later is started, the CPU starts the processing according to the program installed in the auxiliary storage device. The medium for storing the program is not limited to a CD-ROM, and any medium that can be read by a computer may be used.
[0015]
The voice information recognition processing unit 21 recognizes a specific user based on the voice information acquired by the user terminal 30 and the personal identification information stored in the personal identification information DB 26, and the personal information as a result of the recognition is obtained. Processing such as updating is performed. The voice information determination processing unit 22 determines a specific user of the user side terminal 30 based on the voice information and the personal information stored in the personal identification information DB 26, and based on the determination result, the keyword from the voice information. Information is stored in the keyword DB 25. The keyword extraction processing unit 23 extracts keywords for distributing content based on the voice information, the keyword information stored in the keyword DB 25, and the threshold value table 27 for extracting keywords. The content distribution instruction processing unit 24 issues a content distribution instruction to the content server 40 based on the keywords extracted by the keyword extraction processing unit 23. The keyword information stored in the keyword DB 25 is shown in FIG. 11, FIG. 12 and FIG. 14, the personal identification information stored in the personal identification information DB 26 is shown in FIG. 10, and the threshold table 27 is shown in detail in FIG. explain.
[0016]
The plurality of user terminals 30 provided in the store 2 include a display control processing unit 31 and a voice information acquisition processing unit 32. The display control processing unit 31 includes a display unit such as a display, and performs processing of controlling content information transmitted from the content server 40 or the store server 20 and displaying the content information on the display unit. The voice information acquisition processing unit 32 includes a voice acquisition unit such as a microphone, and performs a process of acquiring voice information when the user is talking and transmitting the voice information to the store server 20. This audio information will be described in detail with reference to FIG.
[0017]
The content server 40 includes a content DB 41 that stores a variety of content information and a distribution processing unit 42. The distribution processing unit 42 receives the content distribution instruction from the store server 20 provided in each store 2, and based on the content distribution instruction and the content information stored in the content DB 41, the predetermined content information is stored on the user side terminal. 30 or to the store server 20.
[0018]
Next, the processing procedure of the content distribution method will be described. FIG. 2 is a flowchart for explaining the content distribution processing. First, in the process of step S10, whether or not the personal identification information has been acquired by the store server 20, that is, the personal identification information generated from the voice information in the conversation for a certain period at the user side terminal 30 is the personal identification. It is determined whether it is stored in the information DB 26. If the personal identification information has not been acquired in the process of step S10, the voice information recognition process is performed by the voice information recognition processing unit 21 of the store server 20 in the process of step S11. The voice information recognition processing procedure will be described in detail with reference to FIG. If the personal identification information has already been acquired in the process of step S10, the voice information determination processing unit 22 and the keyword extraction processing unit 23 of the store server 20 use the voice information, the personal identification information, and the threshold value in the process of step S12. Based on the values in the table 27, voice information determination and keyword extraction processing are performed. The voice information determination processing procedure will be described in detail with reference to FIGS. 4 and 5, and the frequent keyword extraction processing procedure will be described in detail with reference to FIG. In the process of step S13, the keyword extracted by the content distribution instruction processing unit 24 of the store server 20 is transmitted to the content server 40 to instruct content distribution. The content distribution instruction processing procedure will be described in detail with reference to FIG. In the process of step S14, the store server 20 determines whether the content distribution process is finished. If the content distribution process has not ended in the process of step S14, the process from step S12 is repeated.
[0019]
In step S14, whether or not the content distribution process is completed is determined based on a period preset in the store server 20. Further, the operator of the store server 20 may determine the end of the content distribution process.
[0020]
FIG. 3 is a flowchart for explaining the voice information recognition process. In FIG. 3, the voice information acquired by the voice information acquisition processing unit 32 of the user side terminal 30 is received by the voice information recognition processing unit 21 of the store server 20 in the process of step S20.
[0021]
FIG. 9 shows a voice information table. In FIG. 9, the audio information table 320 acquired by the audio information acquisition processing unit 32 stores the audio information when the user has a conversation at the table where the user terminal 30 is installed. Is transmitted to the store server 20.
[0022]
In step S21, phoneme information and utterance level information are analyzed from the voice information received by the voice information recognition processing unit 21. In step S22, the voice information recognition processing unit 21 acquires the personal identification information stored in the personal identification information DB 26 and performs personal identification processing. In step S23, the voice information recognition processing unit 21 determines whether the personal identification information includes data approximate to the voice information analyzed in step S21. When there is no data approximate to the voice information analyzed in the personal identification information in the process of step S23, the voice information analyzed by the voice information recognition processing unit 21 in the process of step S24 is stored in the personal identification information DB 26 as the personal identification information.
[0023]
FIG. 10 is a diagram showing a table stored in the personal identification information DB. In FIG. 10, the table 260 stored in the personal identification information DB 26 includes personal identification information that identifies the user of the user side terminal 30, phonological information that is analyzed based on voice information, and utterance level information. Stored. For example, the table 260 stores phonological information “data A” and utterance level information “level 1” in association with the personal identification information “0001”.
[0024]
If there is data similar to the voice information analyzed in the personal identification information in the process of step S23, the voice information of all who are talking on the user terminal 30 by the voice information recognition processing unit 21 in the process of step S25, That is, it is determined whether or not personal identification information has been acquired. If the personal identification information of all members is acquired in the process of step S25, the voice information recognition process is terminated. If all the personal identification information has not been acquired in the process of step S25, the process from step S20 is repeated.
[0025]
In the process of step S25, whether or not all the personal identification information has been acquired is determined based on whether or not all the personal identification information has been acquired when there is no new registration in the store server 20 in a preset period. I do. Further, it may be determined whether or not the operator of the store server 20 has acquired all the personal identification information.
[0026]
4 and 5 are flowcharts for explaining the audio information determination process. In FIG. 4, first, in the process of step S <b> 30, the voice information determination processing unit 22 receives voice information from the user side terminal 30. In step S31, phoneme information and utterance level information are analyzed from the voice information received by the voice information determination processing unit 22. In the process of step S32, based on the personal identification information stored in the personal identification information DB 26 by the voice information determination processing unit 22, a personal determination process is performed to determine which user has issued the voice information. In the process of step S33, the voice information determination processing unit 22 extracts keywords from the voice information. The frequency information and standard deviation information of the keyword information stored in the keyword DB 25 are stored based on the keyword extracted by the voice information determination processing unit 22 in the process of step S34 and the individual determination result by the process of step S32. To do. The frequency information is a frequency of keywords that occur in the voice information of each user. Also, the standard deviation information is the keyword generated in the voice information of each user for each keyword. Frequent Standard deviation value indicating variance. That is, a keyword having a small standard deviation value is determined as a keyword that has occurred with a similar frequency to a plurality of users.
[0027]
For example, in the process of step S33, the voice information determination processing unit 22 extracts the keywords “Okinawa”, “Sea”, and the like from the voice information “Okinawa sea was beautiful” in the voice information table 320 shown in FIG. After extracting the keywords “Okinawa”, “Ocean”, etc., 1 is added to each frequency information of the keywords “Okinawa” and “Ocean” stored in the keyword DB 25 and updated by the processing of Step S34. In the process of step S35, it is determined whether or not a series of voice information acquisition is completed by the voice information determination processing unit 22, that is, whether or not a series of voice information acquisition issued by the user of the personal determination result is completed. If the series of voice information acquisition is not completed in the process of step S35, the process from step S33 is repeated. When a series of voice information acquisition is completed in the process of step S35, it is determined whether or not a predetermined time has elapsed since the voice information determination processing unit 22 starts acquiring the voice information in the process of step S36. If the predetermined time has not elapsed since the start of the acquisition of the voice information in the process of step S36, the process from step S30 is repeated. When a predetermined time has elapsed since the start of the acquisition of audio information in the process of step S36, the audio information determination processing unit 22 determines whether or not the content distribution process is the first time in the process of step S37.
[0028]
If the content distribution process is the first time in the process of step S37, the keyword extraction processing unit 23 performs a process of extracting a keyword with high frequency information based on the keyword information in the keyword DB 25 in the process of step S40 shown in FIG. The frequent keyword extraction processing procedure in step S40 will be described in detail with reference to FIG. In the process of step S41, the extracted frequent keyword information is stored in the keyword DB 25 by the voice information determination processing unit 22. In the process of step S42, the voice information determination processing unit 22 stores the frequency information and standard deviation information of the frequent keywords in the keyword DB 25. In the processing of step S43, the voice information determination processing unit 22 sets the frequent keyword distribution flag to ON and stores it in the keyword DB 25.
[0029]
If the content distribution process is not the first time in the process of step S37 shown in FIG. 4, the voice information determination processing unit 22 reads the frequency information of the extracted keywords from the keyword DB 25 in the process of step S44 shown in FIG. In step S45, the voice information determination processing unit 22 extracts a common keyword from the keyword information stored in the keyword DB 25, that is, the keyword extracted the same time as the keyword extracted this time. In the process of step S46, it is determined whether or not the difference between the frequency information of the keyword extracted this time and the previously extracted keyword by the voice information determination processing unit 22 is smaller than the threshold value set in the threshold value table 27. If the difference in the frequency of occurrence of each keyword is smaller than the threshold value in step S46, the processing from step S40 is performed. If the difference in the frequency information of each keyword is larger than the threshold value in step S46, the voice information determination processing unit 22 sets the frequent keyword distribution flag to OFF and stores it in the keyword DB 25 in step S47.
[0030]
FIG. 6 is a flowchart for explaining frequent keyword extraction processing. In FIG. 6, first, in the process of step S <b> 50, one word is read from the keyword information stored in the keyword DB 25 by the keyword extraction processing unit 23. In step S 51, the keyword extraction processing unit 23 determines whether the keyword standard deviation information is equal to or greater than a threshold value set in the threshold value table 27. If the standard deviation information of the keyword is equal to or smaller than the threshold value in step S51, the keyword extraction processing unit 23 determines whether the frequency information is equal to or larger than the threshold value in step S52. In the process of step S52, the frequency information is below a threshold value. under If so, the keyword information read by the keyword extraction processing unit 23 is temporarily stored in the keyword DB 25 in the process of step S53.
[0031]
In the processing of step S54, it is determined whether or not all keyword information stored in the keyword DB 25 has been searched by the keyword extraction processing unit 23. When all the keyword information stored in the keyword DB 25 is searched in the process of step S54, the keyword extraction processing unit 23 extracts the keyword having the lowest standard deviation information in the process of step S55 and temporarily stores it in the keyword DB 25. .
[0032]
FIG. 7 is a flowchart for explaining the content distribution instruction process. In FIG. 7, first, in the process of step S <b> 60, the distribution flag stored in the keyword DB 25 is read by the content distribution instruction processing unit 24. In step S61, it is determined whether the distribution flag read by the content distribution instruction processing unit 24 is ON or OFF. If the distribution flag is OFF in the process of step S61, the process from step S60 is repeated. If the distribution flag is ON in the process of step S61, the content distribution instruction processing unit 24 reads the keyword information stored in the keyword DB 25 in the process of step S62. In step S63, the content distribution instruction processing unit 24 transmits a content distribution instruction to the content server 40.
[0033]
FIG. 8 is a flowchart for explaining the distribution process. In FIG. 8, first, the distribution processing unit 42 of the content server 40 receives a content distribution instruction from the store server 20 in the process of step S <b> 70. In step S71, the distribution processing unit 42 searches for content information corresponding to the keyword based on the content information corresponding to the plurality of keywords stored in the content DB 41 and the keyword of the received content distribution instruction. In the process of step S72, the distribution processing unit 42 determines content information to be distributed. In step S73, the distribution processing unit 42 distributes the determined content information to the user terminal 30.
[0034]
Next, the keyword information and threshold value table stored in the keyword DB 25 will be described.
[0035]
FIG. 11 is a diagram showing a table stored in the keyword DB. In FIG. 11, a table 250 stored in the keyword DB 25 stores extracted keyword information, standard deviation information of the keyword, personal identification information that issued the keyword, and frequency information of the keyword. . For example, the table 250 stores keyword information “Okinawa”, standard deviation information “40”, personal identification information “0001”, and frequency information “85”. The table 250 stores the total frequency information of the extracted keywords.
[0036]
FIG. 12 is a diagram illustrating a table stored in the keyword DB. 12, the table 251 stored in the keyword DB 25 includes keyword information whose standard deviation information is smaller than the threshold and whose frequency information is larger than the threshold based on the keyword information shown in FIG. 11 by the keyword extraction processing unit 23. It is a stored table. For example, the frequency information “50/175”, the standard deviation information “3”, the keyword information “Awamori”, and the distribution plug “OFF” are stored in the table 251.
[0037]
FIG. 13 shows a threshold table. In FIG. 13, the threshold value table 27 stores preset threshold values. For example, the threshold value table 27 stores the threshold value “0.25” of the frequency information, the threshold value “2” of the standard deviation information, and the threshold value “0.1” of the difference between the previous frequency information and the current frequency information. .
[0038]
FIG. 14 is a diagram illustrating a table stored in the keyword DB. In FIG. 14, in the table 252 stored in the keyword DB 25, the keyword information of the distribution flag ON is stored by the content distribution instruction processing unit 24 from the extracted keyword information with high frequency information shown in FIG. For example, the table 252 stores the frequency information “25/175”, the standard deviation information “1.5”, and the distribution flag “ON”.
[0039]
In the above content distribution method, it is not limited to voice information, but is generated by a plurality of users at the same frequency based on character information generated by a plurality of users using the chat function on the Internet. You may make it extract a common keyword.
[0040]
In the content distribution method, advertisement information based on the extracted keyword may be distributed.
[0041]
As described above, in the content distribution method, based on the voice information of conversations among a plurality of users, the generated keywords with high frequency information, the standard deviation information for each keyword, the frequency information for each user, An identifier indicating a content information distribution instruction based on the extracted keyword is extracted from a plurality of managed keywords that are generated at a similar frequency by a plurality of users based on a threshold value. By storing in the keyword, it is possible to distribute content related to a common topic in a conversation by a plurality of users.
[0042]
In addition, in the above content distribution method, when the difference between the frequency information of the keyword that is instructed to distribute the previous content and the frequency information of the keyword extracted this time is larger than the threshold, the distribution of the content information that is different from the previous time By instructing, it is possible to distribute content according to the conversation situation of the user.
(Supplementary Note 1) A content distribution method for distributing content information based on conversation information of a plurality of users,
A management procedure for managing frequently used keywords based on the conversation information,
A keyword extraction procedure for extracting keywords generated by the plurality of users at the same frequency among the keywords by the management procedure;
A distribution procedure for distributing the content information based on the keyword extracted by the keyword extraction procedure.
(Additional remark 2) The said management procedure manages the standard deviation information which shows the standard deviation of the said keyword in association with every said keyword,
The content distribution method according to appendix 1, wherein the keyword extraction procedure extracts keywords whose standard deviation information is equal to or less than a threshold value.
(Additional remark 3) The said management procedure manages the frequency information which shows the frequency which generate | occur | produced for every said user in association with every said keyword,
The content distribution method according to appendix 1 or 2, wherein the keyword extraction procedure extracts keywords whose frequency information is equal to or greater than a threshold value.
(Additional remark 4) The said keyword extraction procedure has a judgment procedure which judges whether the difference of the frequency information of the keyword extracted last time and the frequency information of the keyword extracted this time is below a threshold value,
The content delivery method according to appendix 3, wherein the delivery procedure includes a delivery disabling setting procedure for setting information indicating an instruction not to deliver the content information based on a determination result obtained by the determination procedure.
(Additional remark 5) Furthermore, the table which shows the threshold value of the said frequency information, the threshold value of the said standard deviation information, and the threshold value of the difference between the frequency information of the keyword extracted last time and the frequency information of the keyword extracted this time The content distribution method according to any one of appendices 2 to 4, further comprising a threshold management procedure for management.
(Supplementary note 6) The content distribution method according to any one of supplementary notes 1 to 5, wherein the conversation information is voice information generated orally by the plurality of users.
(Supplementary note 7) The content distribution method according to any one of supplementary notes 1 to 6, wherein the conversation information is character information input online by the plurality of users on the Internet.
(Supplementary note 8) The content distribution method according to any one of supplementary notes 1 to 7, wherein the content information is advertisement information based on the keyword.
(Supplementary Note 9) A program for causing a computer to perform processing in a content distribution method for distributing content information based on conversation information of a plurality of users,
A management procedure for managing frequently used keywords based on the conversation information,
A keyword extraction procedure for extracting keywords generated by the plurality of users at the same frequency among the keywords by the management procedure;
A distribution procedure for distributing the content information based on the keyword extracted by the keyword extraction procedure.
(Supplementary Note 10) A storage medium storing a program for causing a computer to perform processing in a content distribution method for distributing content information based on conversation information of a plurality of users,
A management procedure for managing frequently used keywords based on the conversation information,
A keyword extraction procedure for extracting keywords generated by the plurality of users at the same frequency among the keywords by the management procedure;
And a distribution procedure for distributing the content information based on the keyword extracted by the keyword extraction procedure.
[0043]
【The invention's effect】
As described above, according to the present invention, frequently used keywords are managed based on conversation information of a plurality of users, and keywords generated by a plurality of users at the same frequency are extracted and extracted from the keywords. By distributing the content information based on the keywords, it is possible to distribute content related to a common topic in a conversation by a plurality of users.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram in a content distribution method according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining the entire content distribution process;
FIG. 3 is a flowchart for explaining voice information recognition processing;
FIG. 4 is a flowchart for explaining audio information determination processing;
FIG. 5 is a flowchart for explaining audio information determination processing;
FIG. 6 is a flowchart for explaining frequent keyword extraction processing;
FIG. 7 is a flowchart for explaining content distribution instruction processing;
FIG. 8 is a flowchart for explaining distribution processing;
FIG. 9 is a diagram showing a table of audio information.
FIG. 10 is a diagram showing a table stored in a personal identification information DB.
FIG. 11 is a diagram showing a table stored in a keyword DB.
FIG. 12 is a diagram showing a table stored in a keyword DB.
FIG. 13 is a diagram showing a threshold table.
FIG. 14 is a diagram showing a table stored in a keyword DB.
[Explanation of symbols]
1 network
2-2N store
10 Content distribution system
11 Installer
12 Communication control processing unit
13 Display control processor
14 Input / output control processor
15 LAN
20 store server
21 Voice information recognition processor
22 Voice information determination processing section
23 Keyword extraction processing unit
24 Content distribution instruction processing unit
25 Keyword DB
26 Personal identification information DB
27 Threshold table
30 User terminal
31 Display control processing unit
32 Voice information acquisition processing unit
40 content server
41 Content DB
42 Distribution processing section
50 CD-ROM

Claims (2)

コンピュータによる、複数の利用者の会話情報に基づいてコンテンツ情報を配信するコンテンツ配信方法であって、
前記コンピュータが、
上記会話情報からキーワードを抽出する第1のキーワード抽出手順と、
上記第1のキーワード抽出手順で抽出されたキーワードに対し、利用者と対応付けて、キーワードの頻出度である頻度情報をキーワードDBに記憶する頻度情報記憶手順と、
上記キーワードのうち、各利用者のキーワード頻出度情報の合計が所定値以上のキーワードであって、該キーワードが前記複数の利用者の各々から、より同等の頻度で発生したキーワードを上記キーワードDBから抽出する第2のキーワード抽出手順と、
キーワードに対応するコンテンツが格納されているコンテンツ情報DBを検索し、上記第2のキーワード抽出手順により抽出された上記キーワードに対応するコンテンツ情報を配信する配信手順とを実行することを特徴とするコンテンツ配信方法。
A content distribution method for distributing content information based on conversation information of a plurality of users by a computer,
The computer is
A first keyword extraction procedure for extracting keywords from the conversation information;
The relative first keyword extracting keywords extracted in step, in association with the user, and the frequency information storage procedure for storing the frequent output of information is a keyword frequent degree keyword DB,
Among the above keywords, keywords whose total keyword frequency information of each user is equal to or greater than a predetermined value, and keywords that are generated from each of the plurality of users at a more equal frequency are obtained from the keyword DB. A second keyword extraction procedure to extract;
A content information DB storing content corresponding to a keyword, and executing a distribution procedure for distributing content information corresponding to the keyword extracted by the second keyword extraction procedure Delivery method.
複数の利用者の会話情報に基づいてコンテンツ情報を配信するコンテンツ配信方法における処理をコンピュータに行なわせるためのプログラムであって、
上記会話情報からキーワードを抽出する第1のキーワード抽出手順と、
上記第1のキーワード抽出手順で抽出されたキーワードに対し、利用者と対応付けて、キーワードの頻出度である頻度情報をキーワードDBに記憶する頻度情報記憶手順と、
上記キーワードのうち、各利用者のキーワード頻出度情報の合計が所定値以上のキーワードであって、該キーワードが前記複数の利用者の各々から、より同等の頻度で発生したキーワードを上記キーワードDBから抽出する第2のキーワード抽出手順と、
キーワードに対応するコンテンツが格納されているコンテンツ情報DBを検索し、上記第2のキーワード抽出手順により抽出された上記キーワードに対応するコンテンツ情報を配信する配信手順とをコンピュータに行わせることを特徴とするプログラム。
A program for causing a computer to perform processing in a content distribution method for distributing content information based on conversation information of a plurality of users,
A first keyword extraction procedure for extracting keywords from the conversation information;
The relative first keyword extracting keywords extracted in step, in association with the user, and the frequency information storage procedure for storing the frequent output of information is a keyword frequent degree keyword DB,
Among the above keywords, keywords whose total keyword frequency information of each user is equal to or greater than a predetermined value, and keywords that are generated from each of the plurality of users at a more equal frequency are obtained from the keyword DB. A second keyword extraction procedure to extract;
Searching a content information DB in which content corresponding to a keyword is stored, and causing a computer to perform a distribution procedure for distributing content information corresponding to the keyword extracted by the second keyword extraction procedure. Program to do.
JP2002120768A 2002-04-23 2002-04-23 Content distribution method and program for causing computer to perform processing in the method Expired - Fee Related JP4177018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002120768A JP4177018B2 (en) 2002-04-23 2002-04-23 Content distribution method and program for causing computer to perform processing in the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002120768A JP4177018B2 (en) 2002-04-23 2002-04-23 Content distribution method and program for causing computer to perform processing in the method

Publications (2)

Publication Number Publication Date
JP2003316710A JP2003316710A (en) 2003-11-07
JP4177018B2 true JP4177018B2 (en) 2008-11-05

Family

ID=29536898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002120768A Expired - Fee Related JP4177018B2 (en) 2002-04-23 2002-04-23 Content distribution method and program for causing computer to perform processing in the method

Country Status (1)

Country Link
JP (1) JP4177018B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006028213A1 (en) * 2004-09-11 2006-03-16 Yoshikuni Tamura Advertisement/information delivering system
JP4631501B2 (en) * 2005-03-28 2011-02-16 パナソニック電工株式会社 Home system
JP5220297B2 (en) * 2006-10-17 2013-06-26 ヤフー株式会社 Ad delivery method based on keywords and conditions
US9990652B2 (en) * 2010-12-15 2018-06-05 Facebook, Inc. Targeting social advertising to friends of users who have interacted with an object associated with the advertising
US8799068B2 (en) 2007-11-05 2014-08-05 Facebook, Inc. Social advertisements and other informational messages on a social networking website, and advertising model for same
JP5063425B2 (en) * 2008-03-18 2012-10-31 インターナショナル・ビジネス・マシーンズ・コーポレーション Evaluation acquisition apparatus, method, and program for acquiring evaluation information for object of interest
JP5689774B2 (en) * 2011-10-04 2015-03-25 日本電信電話株式会社 Interactive information transmitting apparatus, interactive information transmitting method, and program
US20140006550A1 (en) * 2012-06-30 2014-01-02 Gamil A. Cain System for adaptive delivery of context-based media
KR101473780B1 (en) * 2014-05-12 2014-12-24 주식회사 와이젬 Active providing method of advertising
WO2018043114A1 (en) * 2016-08-29 2018-03-08 ソニー株式会社 Information processing apparatus, information processing method, and program
US11140450B2 (en) * 2017-11-28 2021-10-05 Rovi Guides, Inc. Methods and systems for recommending content in context of a conversation

Also Published As

Publication number Publication date
JP2003316710A (en) 2003-11-07

Similar Documents

Publication Publication Date Title
JP4177018B2 (en) Content distribution method and program for causing computer to perform processing in the method
CN105120304A (en) Information display method, device and system
CN109395376A (en) Exchange method, device and system based on game live streaming
CN101739437A (en) Implementation method for network sound-searching unit and specific device thereof
CN110047497B (en) Background audio signal filtering method and device and storage medium
CN112423081A (en) Video data processing method, device and equipment and readable storage medium
JP2017538328A (en) Promotion information processing method, apparatus, device, and computer storage medium
CN108763545A (en) Negative emotions interference method, device and readable storage medium storing program for executing, terminal device
JP6254504B2 (en) Search server and search method
US20160247522A1 (en) Method and system for providing access to auxiliary information
JP5084886B2 (en) Setting method and system for setting electrical appliance by calling
CN100483404C (en) Method of searching for media objects
WO2017165253A1 (en) Modular communications
CN114449301B (en) Item sending method, item sending device, electronic equipment and computer-readable storage medium
JP2009205114A (en) Karaoke system, server, karaoke terminal and music piece proposal method
CN108289245B (en) Automatic media information playing method
JP2003296236A (en) Information processor, server device, and data output method
JP2002123272A (en) Music data distribution system, server apparatus, information terminal, and method for distributing music data
CN114564952A (en) Text title generation method, device, equipment and medium
CN112650467A (en) Voice playing method and related device
JP5788032B2 (en) Output sharing terminal, content sharing attribute management server, output sharing method, program for output sharing terminal
JP7093270B2 (en) Karaoke system, karaoke equipment
KR102504539B1 (en) Content delivery system and content delivery method
CN111506743A (en) Media resource storage method, media resource playing method and related equipment
JP2007010887A (en) Information processing system, information transmitting server device, information terminal device, portable terminal device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080821

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4177018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130829

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees