JP2017130170A - 会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム - Google Patents

会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム Download PDF

Info

Publication number
JP2017130170A
JP2017130170A JP2016011148A JP2016011148A JP2017130170A JP 2017130170 A JP2017130170 A JP 2017130170A JP 2016011148 A JP2016011148 A JP 2016011148A JP 2016011148 A JP2016011148 A JP 2016011148A JP 2017130170 A JP2017130170 A JP 2017130170A
Authority
JP
Japan
Prior art keywords
conversation
user
content
interlocking
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016011148A
Other languages
English (en)
Inventor
菜生子 倉田
Naoko Kurata
菜生子 倉田
和花 皆川
Waka Minagawa
和花 皆川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Unisys Ltd
Original Assignee
Nihon Unisys Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Unisys Ltd filed Critical Nihon Unisys Ltd
Priority to JP2016011148A priority Critical patent/JP2017130170A/ja
Publication of JP2017130170A publication Critical patent/JP2017130170A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】広告等のコンテンツ配信の利用が促進されるように誘導する、会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラムを提供することを課題とする。【解決手段】一のユーザである第一ユーザと、他の任意のユーザである任意ユーザとの会話に基づいて音声認識検索を行い、コンテンツを配信する場合において、話者認識により会話中における第一ユーザを認識し、認識された第一ユーザについて、聞き手としての会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての会話の質および/もしくは量に基づいて、評価を行い第一ユーザにポイントを付与することを特徴とする。【選択図】 図5

Description

本発明は、会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラムに関する。
従来、テレビ電話やチャット等における会話や対話に応じて、広告などのコンテンツを配信するシステムが開発されている。
例えば、特許文献1および2には、電気通信回線を介した、複数のユーザが書き込んだ会話を解析して、広告を配信システムが開示されている。
また、特許文献3〜5には、ネットワークを経由したテレビ電話やチャット等において、キーワードや単語や通信者情報を抽出して、広告を検索し出力する装置が開示されている。
また、特許文献6には、オンライン会話において、キーワードを抽出して、キーワードに基づいて広告コンテンツを選択して表示する場合に、抽出したキーワードをスコア付けし、スコア付けしたキーワードの中からユーザ意図キーワードを識別してキーワードの再加重を行う方法が開示されている。
また、特許文献7には、通信ネットワークを介したビデオ通話において、キーワードを抽出し、通話中の音声または画像から会話の活性化状態を判定し、判定結果に応じてキーワードを出力するシステムが開示されている。
また、特許文献8には、インターネットを介した会話から、音声の特徴量に基づいて感情種別を判定し、感情種別に関連づけて記憶されたデータベースからコンテンツを抽出して再生するシステムが開示されている。
また、特許文献9には、デジタルサイネージ装置等において、視聴者の会話の音声認識を行い、音声認識された音声認識結果のうち、広告の対象分野とする言語モデルや、広告のターゲット層とする音響モデルと閾値以上の合致度がある場合に、顧客情報を更新するシステムが開示されている。
特開2002−024235号公報 特開2007−102800号公報 特開2005−354259号公報 特開2002−271507号公報 特開1999−003348号公報 特表2008−541267号公報 特開2015−207905号公報 特開2008−170820号公報 特開2012−118623号公報
しかしながら、特許文献1〜8の従来の広告等の配信システムは、テレビ電話やチャットなどネットワークを介した会話に基づいて広告等のコンテンツを抽出して出力できるものの、現実空間におけるユーザ間の会話から的確なコンテンツを抽出して配信するものではなかった。
特許文献9では、デジタルサイネージが設置された現実空間におけるユーザ間の会話から、広告対象とする言語モデルや音響モデルに合致する広告を配信するものの、コンテンツ配信の利用を促進する誘因が乏しい、という問題点があった。
本発明は上記の問題点に鑑みてなされたものであり、広告等のコンテンツ配信の利用が促進されるように誘導する、会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラムを提供するものである。
このような目的を達成するため、本発明の会話連動システムは、一のユーザである第一ユーザと、他の任意のユーザである任意ユーザとの会話に基づいて音声認識検索を行い、コンテンツを配信する、会話連動システムにおいて、話者認識により前記会話中における前記第一ユーザを認識するユーザ認識手段と、前記ユーザ認識手段により認識された前記第一ユーザについて、聞き手としての前記会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての前記会話の質および/もしくは量に基づいて、評価を行い前記第一ユーザにポイントを付与する会話評価手段と、を備えたことを特徴とする。
また、本発明の会話連動システムは、上記の会話連動システムにおいて、前記会話評価手段は、前記第一ユーザが聞き手として質問し、前記任意ユーザが回答した内容が契機となって検索された前記コンテンツが配信された場合に、当該第一ユーザを評価して前記ポイントを付与することを特徴とする。
また、本発明の会話連動システムは、上記いずれか記載の会話連動システムにおいて、前記任意ユーザの位置情報、会員履歴情報、性別、年齢、嗜好、職業、その他のユーザ属性情報を取得するユーザ属性取得手段、を更に備え、前記ユーザ属性取得手段により取得された前記任意ユーザのユーザ属性情報に基づいて前記コンテンツの抽出を行い、初期表示を行うこと、を特徴とする。
また、本発明の会話連動システムは、上記いずれか記載の会話連動システムにおいて、前記会話評価手段は、更に、前回配信にかかる前記コンテンツを題材として会話が発展して新たなコンテンツが配信された場合を評価することを特徴とする。
また、本発明の会話連動システムは、上記いずれか記載の会話連動システムにおいて、前記ユーザ認識手段は、機械学習にて前記話者認識を行うことにより前記第一ユーザを自動認識することを特徴とする。
また、本発明の会話連動システムは、上記いずれか記載の会話連動システムにおいて、前記会話評価手段により付与された前記ポイントは、商品購入、電子マネーチャージ、購入割引、換金、その他のポイントサービス利用が可能であることを特徴とする。
また、本発明の会話連動システムは、上記いずれか記載の会話連動システムにおいて、配信される前記コンテンツは、情報配信枠に表示する情報コンテンツと、広告枠に表示する広告コンテンツの2種類が含まれることを特徴とする。
また、本発明の会話連動システムは、上記いずれか記載の会話連動システムにおいて、配信される前記コンテンツは、ミニテレビ、モニタ、ハーフミラー、または、デジタルサイネージの形態にて表示することを特徴とする。
また、本発明の会話連動システムは、上記いずれか記載の会話連動システムにおいて、前記第一ユーザと前記任意ユーザは、上記コンテンツを配信する一の表示装置につき、一対多、多対多、または、多対一の関係であることを特徴とする。
また、本発明の会話連動装置は、一のユーザである第一ユーザと、他の任意のユーザである任意ユーザとの会話に基づく音声認識検索により配信されるコンテンツを出力する、表示部と記憶部と制御部を少なくとも備えた会話連動装置において、前記制御部は、話者認識により前記会話中における前記第一ユーザを認識するユーザ認識手段と、前記ユーザ認識手段により認識された前記第一ユーザについて、聞き手としての前記会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての前記会話の質および/もしくは量に基づいて、評価を行い前記第一ユーザにポイントを付与する会話評価手段と、を備えたことを特徴とする。
また、本発明の会話連動方法は、一のユーザである第一ユーザと、他の任意のユーザである任意ユーザとの会話に基づく音声認識検索により配信されるコンテンツを出力する、表示部と記憶部と制御部を少なくとも備えたコンピュータにおいて実行される会話連動方法であって、前記制御部により実行される、話者認識により前記会話中における前記第一ユーザを認識するユーザ認識ステップと、前記ユーザ認識ステップにて認識された前記第一ユーザについて、聞き手としての前記会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての前記会話の質および/もしくは量に基づいて、評価を行い前記第一ユーザにポイントを付与する会話評価ステップと、を含むことを特徴とする。
また、本発明の会話連動プログラムは、一のユーザである第一ユーザと、他の任意のユーザである任意ユーザとの会話に基づく音声認識検索により配信されるコンテンツを出力する、表示部と記憶部と制御部を少なくとも備えたコンピュータに実行させるための会話連動プログラムであって、前記制御部において、話者認識により前記会話中における前記第一ユーザを認識するユーザ認識ステップと、前記ユーザ認識ステップにて認識された前記第一ユーザについて、聞き手としての前記会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての前記会話の質および/もしくは量に基づいて、評価を行い前記第一ユーザにポイントを付与する会話評価ステップと、を実行させることを特徴とする。
本発明によれば、広告等のコンテンツ配信の利用を促進するインセンティブを利用者に与えて、コンテンツ配信の利用が促進されるように誘導することができる、という効果を奏する。
図1は、本発明の実施形態にかかる会話連動システムの全体概要を示す構成図である。 図2は、本実施の形態が適用される端末装置100とサーバ装置200の構成の一例を示すブロック図である。 図3は、本実施の形態の会話連動システムにおける基本的処理の一例を示すフローチャートである。 図4は、本実施の形態のサーバ装置200の具体化処理の一例を示すフローチャートである。 図5は、本実施の形態の会話連動システムにおける、ある利用場面の処理フローである。 図6は、第一ユーザA〜Dの関係を示す図である。 図7は、各機能をスタンドアローンの形態で一体としてコンピュータに実装させた会話連動装置100´の構成の一例である。
以下に、本発明の本実施の形態にかかる、会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム、並びに、記録媒体の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。例えば、以下の実施の形態においては、会話連動システムの多くの機能がサーバ装置側に分散された例について説明するが、本発明はこれに限られず、より多くの機能を端末装置側に分散してもよく、あるいは、会話連動システムの機能をスタンドアローンとして1台のコンピュータに実装してもよいものである。
まず、以下、本発明にかかる本実施の形態の全体概要について説明し、その後、本実施の形態の構成および処理等について詳細に説明する。ここで、図1は、本発明の実施形態にかかる会話連動システムの全体概要を示す構成図である。
図1に示すように、本実施の形態において、会話連動システムは、サーバ装置200と、端末装置100とを、ネットワーク300を介して接続して構成される。なお、図1では、サーバ装置200と、端末装置100は、各一台が会話連動システムに備えられた例が図示されているが、サーバ装置200や端末装置100は、例えば広告主ごと所有者ごとに複数台備えてもよい。一例として、サーバ装置200は、サーバ用コンピュータ等であって、端末装置100は、モニタ等の出力部114を備えた、パーソナルコンピュータ、携帯情報端末(タブレット型コンピュータ等)、デジタルサイネージ装置などである。ネットワーク300は、端末装置100とサーバ装置200とを相互に接続する機能を有し、例えば、LANやインターネット等である。つづいて、各装置の詳細について以下に説明を行う。
[端末装置100の構成]
まず、本実施の形態の端末装置100等の構成について説明する。図2は、本実施の形態が適用される端末装置100とサーバ装置200の構成の一例を示すブロック図であり、該構成のうち本実施の形態に関係する部分のみを概念的に示している。
図2において、端末装置100は、概略的に、端末装置100の全体を統括的に制御するCPU等のプロセッサである制御部102、通信回線等に接続されるルータ等の通信装置(図示せず)に接続される通信制御インターフェース部104、タッチパネル等の入力部112や出力部114に接続される入出力制御インターフェース部108、および、各種のデータベースやテーブルなどを格納する記憶部106を備えて構成されており、これら各部は任意の通信路を介して通信可能に接続されている。
記憶部106に格納される各種のデータベースやテーブル(例えば、コンテンツファイル106a等)は、SRAM(Static Random Access Memory)等を用いて構成される小容量高速メモリ(例えば、キャッシュメモリ)等や、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の固定ディスク装置等のストレージ手段であり、各種処理に用いる各種のプログラムやテーブルやファイルやデータベースやウェブページ等を格納する。
このうち、コンテンツファイル106aは、サーバ装置200から受信したコンテンツデータを記憶するコンテンツ記憶手段である。例えば、コンテンツファイル106aは、広告等の動画や、静止画、静止画像群、アニメーションGIF等であってもよい。なお、コンテンツファイル106aは、情報配信枠に表示するための情報コンテンツと、広告枠に表示するための広告コンテンツを対応付けて記憶してもよい。
また、図2において、入出力制御インターフェース部108は、マイクやキーボードやモーションセンサ等の入力部112や出力部114の制御を行う。出力部114としては、表示手段としてのモニタ(家庭用テレビ、ミニテレビ、タッチスクリーンモニタ、ハーフミラー型モニタ、デジタルサイネージ等を含む)等を用いることができる。なお、出力部114は、音声出力手段として、スピーカ等を用いてもよい。また、入力部112としては、GPSセンサやIMESセンサなどの位置情報取得手段や、タッチパネル、音声マイク、キーボード、カメラ、加速度センサなどの各種センサ等を用いることができる。一例として、入力部112および出力部114は、液晶パネル等の出力部114と、タッチ位置入力装置等の入力部112とを組み合わせたタッチパネル等の入出力手段であってもよい。
なお、入力部112としてのモーションセンサは、一例として、カメラのようなキャプチャー・デバイスが、ユーザ画像データを取り込み、このユーザ画像データから、利用者のジェスチャー(1つまたは複数)を認識するデバイスであってもよい。より具体的には、入力部112としてのモーションセンサは、コンピュータ環境を使用して、利用者の三次元物理空間において利用者によって行われたジェスチャーを認識および分析してもよい。ジェスチャーは、物理空間における利用者の位置および動きから得ることができ、腕や脚の動き、または静止姿勢というような、動的または静的な、任意の利用者の動きを含むことができる。公知のモーションセンサの一例として、マイクロソフト社製Xbox One(登録商標)用モーションセンサのKinect(登録商標)センサを用いてもよい。Kinect技術によれば、全身骨格のスケルトン動作データや属性データを得ることができる。なお、公知のモーションセンサでは、センサ内蔵の制御手段を用いて人物の動きや属性が解析されるか、あるいは、接続されたコンピュータの制御手段にて人物の動きや属性が解析されるが、本実施の形態はいずれであってもよく、例えば、これら解析機能を、入力部112としてのモーションセンサの制御手段(プロセッサ等)により実現してもよく、端末装置100の制御部102により実現してもよく、あるいは両者の制御手段により解析機能を実現してもよい。このほか、モーションセンサは、公知の人物特徴抽出技術を用いて、年齢層や顔や性別や身長等の属性データ等を取得してもよい。
また、図2において、制御部102は、OS(Operating System)等の制御プログラム、各種の処理手順等を規定したプログラム、および所要データを格納するための内部メモリを有し、これらのプログラム等により、種々の処理を実行するための情報処理を行うCPU等のプロセッサである。制御部102は、機能概念的に、音声入力制御部102a、および、コンテンツ出力制御部102bを備えて構成されている。
このうち、音声入力制御部102aは、マイク等の入力部112を介して、ユーザ間の会話が音声入力されるよう制御する音声入力制御である。なお、音声入力制御部102aは、会話音声データをサーバ装置200に送信する。
また、コンテンツ出力制御部102bは、サーバ装置200から配信されコンテンツファイル106aに記憶されたコンテンツを、モニタやスピーカ等の出力部114に出力するコンテンツ出力制御手段である。すなわち、コンテンツ出力制御部102bは、コンテンツデータに基づいて、モニタ等の出力部114に表示させてもよく、スピーカ等の出力部114に音声出力してもよい。ここで、コンテンツ出力制御部102bの制御により出力部114の表示態様としては、美容室やタクシーや歯科医院等に設置される、ミニテレビや、モニタ、ハーフミラー(シースルータイプを含む)、デジタルサイネージ等の表示態様であってもよい。
ここで、コンテンツ出力制御部102bは、情報コンテンツと広告コンテンツがそれぞれ配信された場合、画面分割を行い、情報配信枠に情報コンテンツを表示させ、広告枠に広告コンテンツを表示させてもよい。なお、コンテンツ出力制御部102bは、コンテンツデータの種別に従い、複数の広告画像を連続的に表示させてもよく、3Dホログラムを表示させてもよく、広告動画を再生させてもよい。一例として、コンテンツ出力制御部102bは、公知のモーションコントロール技術により、利用者のアクションに応じて、インタラクティブにアクションに連動したコンテンツを再生してもよい。
また、図2において、通信制御インターフェース部104は、端末装置100とネットワーク300(またはルータ等の通信装置)との間における通信制御を行う装置である。すなわち、通信制御インターフェース部104は、他の端末または局と、通信回線(有線、無線を問わない)を介してデータを通信する機能を有する。これにより、この端末装置100は、ルータ等の通信装置および専用線等の有線または無線の通信回線を介して、ネットワーク300に通信可能に接続される。本実施の形態において、通信制御インターフェース部104は、サーバ装置200等との通信制御を行う。すなわち、サーバ装置200は、ネットワーク300を介して、端末装置100と相互に接続され、各端末に対してコンテンツデータに関する外部データベースや、会話連動プログラム等の外部プログラム等を実行するウェブサイト等を提供する機能を有する。
[サーバ装置200の構成]
つづいて、本実施の形態のサーバ装置200等の構成について説明する。図2において、サーバ装置200は、ネットワーク300を介して、端末装置100と相互に接続され、端末装置100に対してコンテンツデータに関する外部データベースや、会話連動プログラム等の外部プログラム等を実行するウェブサイトを提供する機能を有する。
ここで、サーバ装置200は、WEBサーバやASPサーバ等として構成していてもよく、そのハードウェア構成は、一般に市販されるワークステーション、パーソナルコンピュータ等の情報処理装置およびその付属装置により構成していてもよい。また、サーバ装置200の各機能は、サーバ装置200のハードウェア構成中のCPU等のプロセッサ、ディスク装置、メモリ装置、入力装置、出力装置、通信制御装置等およびそれらを制御するプログラム等により実現される。
具体的には、サーバ装置200は、概略的に、サーバ装置200の全体を統括的に制御するCPU等のプロセッサの制御部202、通信回線等に接続されるルータ等の通信装置(図示せず)に接続される通信制御インターフェース部204、タッチパネル等の入力部212や出力部214に接続される入出力制御インターフェース部208、および、各種のデータベースやテーブルなどを格納する記憶部206を備えて構成されており、これら各部は任意の通信路を介して通信可能に接続されている。
記憶部206に格納される各種のデータベースやテーブル(コンテンツデータベース206a,ユーザデータベース206b等)は、固定ディスク装置等のストレージ手段であり、各種処理に用いる各種のプログラムやテーブルやファイルやデータベースやウェブページ等を格納する。
これら記憶部206の各構成要素のうち、コンテンツデータベース206aは、広告等のコンテンツ情報を蓄積し記憶するコンテンツ情報記憶手段である。例えば、コンテンツデータベース206aは、タイトルや説明文、タグ、対象年齢や性別等のコンテンツ属性に対応付けて、広告等の動画や、静止画、静止画像群、アニメーションGIF等のコンテンツデータを記憶してもよい。
また、ユーザデータベース206bは、ユーザに関するデータを記憶する利用者情報記憶手段である。例えば、ユーザデータベース206bは、ユーザIDに対応付けて、ポイント数のほか、ユーザの声紋特徴や、位置情報、会員履歴情報、性別、年齢、嗜好、職業、その他のユーザ属性情報を記憶してもよい。
また、図2において、入出力制御インターフェース部208は、キーボード等の入力部212やモニタ等の出力部214の制御を行う。なお、入出力制御インターフェース部208や入力部212や出力部214や通信制御インターフェース204等の機能については、基本的に端末装置100の各部と同様である。
また、図2において、制御部202は、OS(Operating System)等の制御プログラム、各種の処理手順等を規定したプログラム、および所要データを格納するための内部メモリを有し、これらのプログラム等により、種々の処理を実行するための情報処理を行う。制御部202は、機能概念的に、音声認識部202a、ユーザ属性取得部202c、コンテンツ配信部202d、および、会話評価部202eを備えて構成されている。
このうち、音声認識部202aは、ユーザ間の会話音声データに基づいて、音声認識を行う音声認識手段である。具体的には、音声認識部202aは、端末装置100から送信されたユーザ間の会話音声データを受信して、文字列への変換や特徴量の抽出などの音声認識を行う。例えば、音声認識部202aは、公知の音声入力技術により、会話音声データをテキストデータに変換してもよい。一例として、音声認識部202aは、動的時間伸縮法や統計的手法など公知の音声ディクテーション技術を用いて、会話音声から文字列に変換してもよい。ここで、音声認識部202aは、図2に示すように、話者認識を行うユーザ認識部202bを備える。
ユーザ認識部202bは、ユーザ間の会話音声データに基づいて、話者認識により会話中における第一ユーザを認識するユーザ認識手段である。ユーザ認識部202bは、公知の話者認識手法により、声紋など各人で異なる声の解剖学的特徴や後天的特徴を抽出して、複数のユーザ間の会話中で各ユーザがどの発言をしたかを識別してもよい。
ここで、ユーザ認識部202bは、事前に登録されたデータに基づきユーザを特定するのではなく、機械学習にて話者認識を行うことにより第一ユーザを自動認識してもよい。例えば、ユーザ認識部202bは、公知の教師無し学習手法により、端末装置100を高頻度で利用するユーザの声や、端末装置100を最初に利用したユーザの声を、第一ユーザとして認識してもよい。端末装置100が個人で所有するスマートフォンなどの電話機能付きの端末である場合、電話発信時に発話する所有者の声を第一ユーザと認識してもよい。なお、端末装置100と第一ユーザの関係は、一対一に限られず、一対多、多対多、または、多対一の関係であってもよい。なお、ユーザ認識部202bは、声紋を用いて、周波数推定、隠れマルコフモデル、パターンマッチング、ニューラルネットワーク、決定木等により話者認識を行ってもよい。
また、図2において、ユーザ属性取得部202cは、任意ユーザの位置情報、会員履歴情報、性別、年齢、嗜好、職業、その他のユーザ属性情報を取得するユーザ属性取得手段である。例えば、ユーザ属性取得部202cは、ユーザ認識部202bにより認識されたユーザの識別情報(ユーザID)や声紋特徴に基づいて、ユーザデータベース206bからユーザ属性情報を取得してもよい。このほか、ユーザ属性取得部202cは、音声認識部202aによる音声認識技術を利用して、会話音声データから直接、年齢層や性別などデモグラフィック属性情報を取得してもよい。また、ユーザ属性取得部202cは、端末装置100から送信された入力部112を介して得られた位置情報を取得してもよく、ネットワーク300中で端末装置100と接続されたアンテナ基地局や無線LA等のアクセスポイントの位置により位置情報を取得してもよい。
また、コンテンツ配信部202dは、コンテンツデータベース206aに記憶されたコンテンツデータを抽出して端末装置100に配信するコンテンツ配信手段である。本実施の形態において、コンテンツ配信部202dは、音声認識部202aにより認識された会話中の文字列やキーワード、ユーザ属性等に基づいて、コンテンツデータベース206aからコンテンツを検索して、端末装置100に送信してもよい。ここで、コンテンツ配信部202dは、初期表示のため、ユーザ属性取得部202cにより取得された任意ユーザのユーザ属性情報に基づいてコンテンツの抽出を行い、コンテンツデータを端末装置100に送信してもよい。ここで、コンテンツ配信部202dは、情報コンテンツと広告コンテンツを対応付けて抽出し端末装置100に送信してもよい。
また、会話評価部202eは、ユーザ認識部202bにより認識された第一ユーザについて、聞き手としての会話の堪能さに基づいて評価を行い、第一ユーザにポイントを付与する会話評価手段である。例えば、会話評価部202eは、第一ユーザについて、聞き手としての会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての会話の質および/もしくは量に基づいて、評価を行い第一ユーザにポイントを付与してもよい。
一例として、会話評価部202eは、聞き手としての会話の質を、第一ユーザの会話中に、表示されたコンテンツに関連したキーワードが含まれているか否か、会話時間、やりとりの回数、第一ユーザの会話に対する任意ユーザの回答に肯定的なテキスト(「へえ」「そう」「うん・はい」「良い」「ほしい」など)が含まれているか否か、任意ユーザの速さ等を、評価してもよい。
また、会話評価部202eは、一例として、第一ユーザが聞き手として質問し、任意ユーザが回答した内容が契機となって検索されたコンテンツが配信された場合に、当該第一ユーザを評価してポイントを付与してもよい。また、会話評価部202eは、更に、前回配信にかかるコンテンツを題材として会話が発展して新たなコンテンツが配信された場合を評価してもよい。なお、会話評価部202eは、付与されたポイント数データをユーザデータベース206bに格納する。このように会話評価部202eにより付与されたポイントは、商品購入、電子マネーチャージ、購入割引、換金、その他のポイントサービス利用可能にサーバ装置200等において制御される。
また、図2において、通信制御インターフェース部204は、サーバ装置200とネットワーク300(またはルータ等の通信装置)との間における通信制御を行う装置である。すなわち、通信制御インターフェース部204は、他の端末(端末装置100など)と、通信回線(有線、無線を問わない)を介してデータを通信する機能を有する。
以上で、本実施の形態の会話連動システムの各構成の説明を終える。
[広告評価処理]
次に、このように構成された本実施の形態における会話連動システムの処理の一例について、以下に図3〜図6を参照して詳細に説明する。
(会話連動システムの基本処理)
ここで、図3は、本実施の形態の会話連動システムにおける基本的処理の一例を示すフローチャートである。
図3に示すように、まず、本会話連動システムのサーバ装置200は、音声認識部202aの処理により、端末装置100から送信されるユーザ間の会話音声データの音声認識を行い、コンテンツ配信部202dの処理により、音声認識結果に基づいてコンテンツデータベース206aからコンテンツを抽出して端末装置100に配信する(ステップSA−1)。
そして、本会話連動システムのサーバ装置200は、ユーザ認識部202bの処理により、ユーザ間の会話音声データに基づいて、話者認識により会話中における第一ユーザを認識する(ステップSA−2)。
そして、本会話連動システムのサーバ装置200は、ユーザ認識部202bにより認識された第一ユーザについて、聞き手としての会話の堪能さに基づいて評価を行い、第一ユーザにポイントを付与する(ステップSA−3)。より具体的には、会話評価部202eは、第一ユーザについて、聞き手としての会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての会話の質および/もしくは量に基づいて、評価を行い第一ユーザにポイントを付与してもよい。
以上が、会話連動システムの基本処理の一例である。これにより、広告等のコンテンツ配信の利用を促進するインセンティブとしてポイントをユーザに与えて、コンテンツ配信の利用が促進されるように誘導することができる。
(初期表示/具体化処理)
つづいて、上述した基本処理を基礎とした会話連動システムのサーバ装置200の初期表示処理を含む具体化処理について説明する。ここで、図4は、本実施の形態のサーバ装置200の具体化処理の一例を示すフローチャートである。
図4に示すように、まず、サーバ装置200は、ユーザ属性取得部202cの処理により、ユーザ間の会話音声データ等からユーザ属性情報を取得して、コンテンツデータベース206bからユーザ属性に関する興味関心連動コンテンツを抽出して配信する(ステップSB−1)。ここで、ユーザ属性情報は、会員情報、位置情報、男女性別、年齢等のデモグラフィック情報である。
つづいて、サーバ装置200の音声認識部202aは、端末装置100から受信した会話音声データに基づいて音声認識を行い、キーワードを抽出する(ステップSB−2)。例えば、音声認識部202aは、動的時間伸縮法や統計的手法など公知の音声ディクテーション技術を用いて、会話音声データをテキストデータに変換してもよい。
そして、サーバ装置200の会話評価部202eは、音声認識したキーワードのうち、会話量からユーザが関心のある関心キーワードを推定する(ステップSB−3)。
そして、サーバ装置200のコンテンツ配信部202dは、抽出した関心キーワードに基づいて、コンテンツデータベース206aからコンテンツを選出し、出力部114から表示されるように端末装置100に配信する(ステップSB−4)。
コンテンツが出力部114に表示された後、更なる会話音声データがあった場合(ステップSB−5,YES)、サーバ装置200は、処理をステップSB−2に戻し、上述したステップSB−2〜SB−5の処理を繰り返す。
一方、会話の繰り返し処理が終了すると(ステップSB−5,NO)、サーバ装置200の会話評価部202eは、ユーザ認識部202bにより認識された第一ユーザについて、聞き手としての会話が契機となり配信されたコンテンツ表示の回数や配信時間、会話キーワードの絞り込み回数、会話量等から、コンテンツ配信の誘導効果を把握するための評価を行う(ステップSB−5)。
そして、サーバ装置200の会話評価部202eは、評価結果に応じてユーザにポイントを付与する(ステップSB−6)。例えば、会話評価部202eは、コンテンツ表示の回数や、配信時間、会話キーワードの絞り込み回数、会話量等の単位数に対して予め定めたポイント単価を乗ずることによりポイント数を計算してもよい。会話評価部202eは、付与したポイントをユーザデータベース206bに格納し、商品購入、電子マネーチャージ、購入割引、換金、その他のポイントサービス利用可能に制御する。
以上が、サーバ装置200の具体化処理の一例である。このように、コンテンツの初期表示を行い、前回表示されたコンテンツに対して会話が弾むことで、更なるコンテンツ利用につながり、ポイントも付加されるインセンティブと相まって、一層コンテンツ配信の利用が促進されるようになる。利用場面としては、例えば、美容院の鏡に表示されるコンテンツに対して、美容師が直接利用者と対話することで、コンテンツが誘導される。また、例えば、歯科医院で、歯医者と患者が会話することで、治療台に設置されたサイネージのコンテンツが誘導される。他の例として、タクシーで、運転手と利用者が会話することで、タクシーの後部座席に設置されているサイネージのコンテンツが誘導される。
(利用場面におけるフロー)
つづいて、本実施の形態の会話連動システムの店舗における利用場面のフローの一例について説明する。ここで、図5は、本実施の形態の会話連動システムにおける、ある利用場面の処理フローである。ここでは、美容院、歯科医院、タクシーなどセミプライベート空間にデジタル情報表示デバイスが出力部114として設置している場面を想定している。
図5に示すように、まず、本会話連動システムは、セミプライベート空間(美容院の席、歯医者の椅子、タクシー乗車等)に入った任意ユーザ(第三者)の情報(位置情報、会員履歴情報、デモグラフィック情報など)に合わせたコンテンツを表示する(ステップSC−1)。ここで、図5に示すように、本会話連動システムの端末装置100は、出力部114としてのデジタル情報表示デバイスを画面分割し、情報配信枠に情報コンテンツを表示し、広告枠に広告コンテンツを表示させてもよい。
つぎに、本会話連動システムにおいて、表示されたコンテンツをきっかけに、第一ユーザは、聞き手として、第三者(任意ユーザ)との会話を開始し、興味関心を引き出す(ステップSC−2)。
そして、本会話連動システムは、ユーザ認識部202bの制御に係る公知の声紋認識技術等により、第一ユーザ(聞き手)の声と、第三者(利用者)の声を認識し、第一ユーザの発言キーワードと、第三者の返答(肯定/否定など)により、コンテンツ配信部202dの処理により、関連するコンテンツを自動検索する(ステップSC−3)。
そして、本会話連動システムにおいて、端末装置100は、コンテンツ出力制御部102bの処理により、第一ユーザ(聞き手)との会話をトリガとして自動検索されたコンテンツを、第三者(利用者)に表示する(ステップSC−4)。
そして、本会話連動システムにおいて、サーバ装置200は、会話評価部202eの処理により、会話の質量(聞き上手評価)と、コンテンツ表示の量(時間、関連コンテンツの回数など)に応じて、第一ユーザ(聞き手)にポイント(報酬)を加算する(ステップSC−5)。なお、サーバ装置200は、第一ユーザ(聞き手)のポイント(報酬)に応じて、コンテンツの課金も加算してもよい。
ここで、出力部114としてのデジタル表示デバイスと任意ユーザ(第三者)との関係が、それぞれ、1対多、多対多でも、デバイスと所有者を認識し、加算対象とする。なお、「第一ユーザ」は、評価対象のユーザの呼称としたものであり、評価対象とするユーザが複数いてもよく、会話者のいずれもが第一ユーザであってもよいものである。ここで、図6は、第一ユーザA〜Dの関係を示す図である。
図6に示すように、評価対象の第一ユーザは複数存在しており、例えば第一ユーザAと第一ユーザCは直接会話することができる。その会話の際、第一ユーザAが聞き手として評価対象となる場面もあるが、第一ユーザBが聞き手として評価対象となる場面も発生しうる。その際、図6に示すように、第一ユーザAと第一ユーザCが会話を行うと、第一ユーザAの方が多くポイントが付与される。第一ユーザCは、聞き手として必ずしも話が下手というわけではなく、第一ユーザDとの関係では、第一ユーザCに多くポイントが付与されることがある。このように、本会話連動システムによれば、複数のユーザ間の関係が浮き彫りになり、どのユーザ属性をもった人が、どのユーザ属性の人と話を聞き出しやすいかを把握できるようになる。そのため、本会話連動システムによれば、ポイントサービスの利用のみならず、適材適所に人物を配置するなど人材管理や人材育成などの場面、マーケティング分析などにも利用することができる。
以上で、本実施の形態の会話連動システムの処理の説明を終える。
[他の実施の形態]
さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。
例えば、会話連動システムにおいて、音声認識部202a、ユーザ属性取得部202c、コンテンツ配信部202d、および、会話評価部202eなどの機能は、サーバ措置200にて実現したが、これに限られず、これら機能の全部または一部を、端末装置100に分散して実現してもよい。
また、上記の実施の形態では、第一ユーザあるいは任意ユーザに対して、場所が固定であるかのように説明を行った場合があるが、これに限られず、第一ユーザあるいは任意ユーザは任意に場所を移動しても本発明を実施することができるものである。例えば、美容院の施術台が複数あり、顧客等の任意ユーザは、来店1回の滞在時間中に、移動してモニタ等の出力部114や入力部112が変わることがある。そのような場合でも、本実施の形態は、公知の顔認識技術や話者認識技術等を利用して、同一の任意ユーザに対して、異なるモニタ等の間で、コンテンツが引き継がれるよう制御してもよいものである。また、その際、本実施の形態は、同じ第一ユーザが、異なるモニタを介して同じ任意ユーザへのコンテンツ表示が連続して誘導されるよう制御してもよく、異なる第一ユーザが同じ任意ユーザに対して入れ替わってもコンテンツが引き継がれるよう制御してもよいものである。
また、サーバ装置200が、端末装置100等のクライアント端末からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却する場合を一例として説明したが、サーバ装置200と端末装置100は、スタンドアローンの形態で処理を行うよう一体として構成されてもよい。ここで、図7は、各機能をスタンドアローンの形態で一体としてコンピュータに実装させた会話連動装置100´の構成の一例である。各機能は、同名の各部の機能と同様であるので説明を省略する。このように、上述した実施の形態において詳しく説明したクライアント―サーバ型の機能および処理を、スタンドアローン型のコンピュータに一体として実装してもよいものである。
また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。
このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。
また、端末装置100やサーバ装置200に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。
例えば、端末装置100やサーバ装置200の各装置が備える処理機能、特に制御部102,202にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)などのプロセッサおよび当該プロセッサにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアプロセッサとして実現してもよい。尚、プログラムは、後述する、コンピュータに本発明に係る方法を実行させるためのプログラム化された命令を含む、一時的でないコンピュータ読み取り可能な記録媒体に記録されており、必要に応じて端末装置100やサーバ装置200に機械的に読み取られる。すなわち、ROMまたはHDD(Hard Disk Drive)などの記憶部106,206などには、OS(Operating System)と協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。
また、このコンピュータプログラムは、端末装置100やサーバ装置200に対して任意のネットワーク300を介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。
また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD−ROM、MO、DVD、および、Blu−ray(登録商標)Disc等の任意の「可搬用の物理媒体」を含むものとする。
また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。プログラムが、一時的でないコンピュータ読み取り可能な記録媒体に記録されたプログラム製品として本発明を構成してもよい。
記憶部106,206に格納される各種のデータベース等(コンテンツファイル106a,コンテンツデータベース206a,ユーザデータベース206b等)は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および、ウェブページ用ファイル等を格納する。
また、端末装置100やサーバ装置200は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、端末装置100やサーバ装置200は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。
更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。
以上詳述に説明したように、本発明によれば、広告等のコンテンツ配信の利用が促進されるように誘導する、会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム、ならびに、記録媒体を提供することができる。
100 端末装置(会話連動装置)
102 制御部
102a 音声入力制御部
102b コンテンツ出力制御部
102c 音声認識部
102d ユーザ認識部
102e ユーザ属性取得部
102f コンテンツ配信部
102g 会話評価部
104 通信制御インターフェース部
106 記憶部
106a コンテンツファイル
106b コンテンツデータベース
106c ユーザデータベース
108 入出力制御インターフェース部
112 入力部
114 出力部
200 サーバ装置
202 制御部
202a 音声認識部
202b ユーザ認識部
202c ユーザ属性取得部
202d コンテンツ配信部
202e 会話評価部
204 通信制御インターフェース部
206 記憶部
206a コンテンツデータベース
206b ユーザデータベース
208 入出力制御インターフェース部
212 入力部
214 出力部

Claims (12)

  1. 一のユーザである第一ユーザと、他の任意のユーザである任意ユーザとの会話に基づいて音声認識検索を行い、コンテンツを配信する、会話連動システムにおいて、
    話者認識により前記会話中における前記第一ユーザを認識するユーザ認識手段と、
    前記ユーザ認識手段により認識された前記第一ユーザについて、聞き手としての前記会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての前記会話の質および/もしくは量に基づいて、評価を行い前記第一ユーザにポイントを付与する会話評価手段と、
    を備えたことを特徴とする、会話連動システム。
  2. 請求項1に記載の会話連動システムにおいて、
    前記会話評価手段は、
    前記第一ユーザが聞き手として質問し、前記任意ユーザが回答した内容が契機となって検索された前記コンテンツが配信された場合に、当該第一ユーザを評価して前記ポイントを付与することを特徴とする、会話連動システム。
  3. 請求項1または2に記載の会話連動システムにおいて、
    前記任意ユーザの位置情報、会員履歴情報、性別、年齢、嗜好、職業、その他のユーザ属性情報を取得するユーザ属性取得手段、
    を更に備え、
    前記ユーザ属性取得手段により取得された前記任意ユーザのユーザ属性情報に基づいて前記コンテンツの抽出を行い、初期表示を行うこと、
    を特徴とする、会話連動システム。
  4. 請求項1乃至3のいずれか一つに記載の会話連動システムにおいて、
    前記会話評価手段は、更に、
    前回配信にかかる前記コンテンツを題材として会話が発展して新たなコンテンツが配信された場合を評価することを特徴とする、会話連動システム。
  5. 請求項1乃至4のいずれか一つに記載の会話連動システムにおいて、
    前記ユーザ認識手段は、
    機械学習にて前記話者認識を行うことにより前記第一ユーザを自動認識することを特徴とする、会話連動システム。
  6. 請求項1乃至5のいずれか一つに記載の会話連動システムにおいて、
    前記会話評価手段により付与された前記ポイントは、
    商品購入、電子マネーチャージ、購入割引、換金、その他のポイントサービス利用が可能であることを特徴とする、会話連動システム。
  7. 請求項1乃至6のいずれか一つに記載の会話連動システムにおいて、
    配信される前記コンテンツは、
    情報配信枠に表示する情報コンテンツと、広告枠に表示する広告コンテンツの2種類が含まれることを特徴とする、会話連動システム。
  8. 請求項1乃至7のいずれか一つに記載の会話連動システムにおいて、
    配信される前記コンテンツは、
    ミニテレビ、モニタ、ハーフミラー、または、デジタルサイネージの形態にて表示することを特徴とする、会話連動システム。
  9. 請求項1乃至8のいずれか一つに記載の会話連動システムにおいて、
    前記第一ユーザと前記任意ユーザは、
    前記コンテンツを配信する一の表示装置につき、一対多、多対多、または、多対一の関係であることを特徴とする、会話連動システム。
  10. 一のユーザである第一ユーザと、他の任意のユーザである任意ユーザとの会話に基づく音声認識検索により配信されるコンテンツを出力する、表示部と記憶部と制御部を少なくとも備えた会話連動装置において、
    前記制御部は、
    話者認識により前記会話中における前記第一ユーザを認識するユーザ認識手段と、
    前記ユーザ認識手段により認識された前記第一ユーザについて、聞き手としての前記会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての前記会話の質および/もしくは量に基づいて、評価を行い前記第一ユーザにポイントを付与する会話評価手段と、
    を備えたことを特徴とする、会話連動装置。
  11. 一のユーザである第一ユーザと、他の任意のユーザである任意ユーザとの会話に基づく音声認識検索により配信されるコンテンツを出力する、表示部と記憶部と制御部を少なくとも備えたコンピュータにおいて実行される会話連動方法であって、
    前記制御部により実行される、
    話者認識により前記会話中における前記第一ユーザを認識するユーザ認識ステップと、
    前記ユーザ認識ステップにて認識された前記第一ユーザについて、聞き手としての前記会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての前記会話の質および/もしくは量に基づいて、評価を行い前記第一ユーザにポイントを付与する会話評価ステップと、
    を含むことを特徴とする、会話連動方法。
  12. 一のユーザである第一ユーザと、他の任意のユーザである任意ユーザとの会話に基づく音声認識検索により配信されるコンテンツを出力する、表示部と記憶部と制御部を少なくとも備えたコンピュータに実行させるための会話連動プログラムであって、
    前記制御部において、
    話者認識により前記会話中における前記第一ユーザを認識するユーザ認識ステップと、
    前記ユーザ認識ステップにて認識された前記第一ユーザについて、聞き手としての前記会話が契機となって配信されたコンテンツの量および/もしくは配信時間、ならびに/または、聞き手としての前記会話の質および/もしくは量に基づいて、評価を行い前記第一ユーザにポイントを付与する会話評価ステップと、
    を実行させるための、会話連動プログラム。
JP2016011148A 2016-01-22 2016-01-22 会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム Pending JP2017130170A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016011148A JP2017130170A (ja) 2016-01-22 2016-01-22 会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016011148A JP2017130170A (ja) 2016-01-22 2016-01-22 会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム

Publications (1)

Publication Number Publication Date
JP2017130170A true JP2017130170A (ja) 2017-07-27

Family

ID=59396724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016011148A Pending JP2017130170A (ja) 2016-01-22 2016-01-22 会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム

Country Status (1)

Country Link
JP (1) JP2017130170A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070681A1 (ja) * 2019-10-10 2021-04-15 株式会社村田製作所 関心度評価システムおよび関心度評価方法
JP2021081983A (ja) * 2019-11-19 2021-05-27 株式会社ラストワンマイル 情報処理装置
WO2024101022A1 (ja) * 2022-11-10 2024-05-16 株式会社Nttドコモ アバターマッチング装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107357A (ja) * 2004-10-08 2006-04-20 Takayuki Sugita 買物情報処理システム、買物情報処理装置、方法及びコンピュータプログラム
JP2010097329A (ja) * 2008-10-15 2010-04-30 Yahoo Japan Corp メッセンジャーサーバ、方法及びシステム
JP2015517709A (ja) * 2012-06-30 2015-06-22 インテル コーポレイション コンテキストに基づくメディアを適応配信するシステム
JP2015191076A (ja) * 2014-03-28 2015-11-02 セコム株式会社 音声識別装置
US20150339711A1 (en) * 2014-05-21 2015-11-26 Ebay Inc. Targeted promotions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107357A (ja) * 2004-10-08 2006-04-20 Takayuki Sugita 買物情報処理システム、買物情報処理装置、方法及びコンピュータプログラム
JP2010097329A (ja) * 2008-10-15 2010-04-30 Yahoo Japan Corp メッセンジャーサーバ、方法及びシステム
JP2015517709A (ja) * 2012-06-30 2015-06-22 インテル コーポレイション コンテキストに基づくメディアを適応配信するシステム
JP2015191076A (ja) * 2014-03-28 2015-11-02 セコム株式会社 音声識別装置
US20150339711A1 (en) * 2014-05-21 2015-11-26 Ebay Inc. Targeted promotions

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070681A1 (ja) * 2019-10-10 2021-04-15 株式会社村田製作所 関心度評価システムおよび関心度評価方法
JP6915765B1 (ja) * 2019-10-10 2021-08-04 株式会社村田製作所 関心度評価システムおよび関心度評価方法
JP2021081983A (ja) * 2019-11-19 2021-05-27 株式会社ラストワンマイル 情報処理装置
JP7015291B2 (ja) 2019-11-19 2022-02-02 株式会社ラストワンマイル 情報処理装置
WO2024101022A1 (ja) * 2022-11-10 2024-05-16 株式会社Nttドコモ アバターマッチング装置

Similar Documents

Publication Publication Date Title
Hearn et al. From celebrity to influencer: Tracing the diffusion of celebrity value across the data stream
CN105339969B (zh) 链接的广告
US8984065B2 (en) Systems and methods for online matching using non-self-identified data
JP7099589B2 (ja) サーバ、通信制御方法、およびプログラム
CN104202718A (zh) 一种向用户提供信息的方法与装置
US20140325540A1 (en) Media synchronized advertising overlay
JP2014167722A (ja) 商品情報提供システムおよび商品情報提供用プログラム
CN105898487A (zh) 一种面向智能机器人的交互方法和装置
JP2011039860A (ja) 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム
US11062349B2 (en) Dynamic marketing asset generation based on user attributes and asset features
JP2017130170A (ja) 会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム
US20230097729A1 (en) Apparatus, systems and methods for determining a commentary rating
US20210133801A1 (en) Methods and systems for signature extraction in data management platform for contact center
CN108573056B (zh) 内容数据处理方法、装置、电子设备及存储介质
JP2020091800A (ja) 情報処理装置、情報処理方法、および情報提供システム
CN114449297B (zh) 一种多媒体信息的处理方法、计算设备及存储介质
Cornfeld Videotape and vibrators: An industry history of techno-sexuality
CN113785540B (zh) 使用机器学习提名方生成内容宣传的方法、介质和系统
CN113900751A (zh) 一种合成虚拟形象的方法、装置、服务器和存储介质
US20210125233A1 (en) Methods and systems for segmentation and activation in data management platform for contact center
US20210125204A1 (en) Data management platform, methods, and systems for contact center
US20210125209A1 (en) Methods and systems for customer identifier in data management platform for contact center
US20210133805A1 (en) Methods and systems for proactive marketing platform in data management platform for contact center
US20210124838A1 (en) Data management platform, methods, and systems for contact center
JP7198402B2 (ja) 研修支援システム、研修支援方法及び研修支援プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200525