JP7051190B2 - コンテンツ埋込方法、装置、電子デバイス、記憶媒体、及びプログラム - Google Patents
コンテンツ埋込方法、装置、電子デバイス、記憶媒体、及びプログラム Download PDFInfo
- Publication number
- JP7051190B2 JP7051190B2 JP2020025932A JP2020025932A JP7051190B2 JP 7051190 B2 JP7051190 B2 JP 7051190B2 JP 2020025932 A JP2020025932 A JP 2020025932A JP 2020025932 A JP2020025932 A JP 2020025932A JP 7051190 B2 JP7051190 B2 JP 7051190B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- response data
- voice information
- user
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 59
- 230000004044 response Effects 0.000 claims description 203
- 239000013598 vector Substances 0.000 claims description 44
- 238000004458 analytical method Methods 0.000 claims description 19
- 239000000284 extract Substances 0.000 claims description 11
- 230000001052 transient effect Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 description 31
- 230000002452 interceptive effect Effects 0.000 description 29
- 230000015654 memory Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 238000012098 association analyses Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000000386 athletic effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000002537 cosmetic Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0255—Targeted advertisements based on user history
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0276—Advertisement creation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Information Transfer Between Computers (AREA)
Description
音声情報を受信することと、
音声情報に対して第1応答データを生成することと、
音声情報に基づいて第1コンテンツを第1応答データに埋め込んで、第2応答データを生成することと、を含む。
本実施形態によれば、音声情報に対応するアプリケーションサービスのコンテンツと、埋め込まれるコンテンツと、をシームレスにドッキングさせて、より高い埋込効果をなして、良いユーザエクスペリエンスを得られる。
音声情報に対応するユーザ情報を解析して、音声情報に対応するユーザイメージ像を得ることと、
音声情報に対応するユーザイメージ像に基づいて、第1コンテンツを第1応答データに埋め込んで、第2応答データを生成することと、を含む。
本実施形態によれば、ユーザ情報を解析することにより、ユーザイメージ像に基づきコンテンツが埋め込まれるため、ユーザのニーズに適合したコンテンツが埋め込まれ、ユーザによい知能的なパーソナライズ化サービスを提供し、ユーザエクスペリエンスを良好にすることができる。
音声情報のコンテキストと、音声情報に対応するユーザの問合せ履歴と、音声情報に対応するユーザの個性情報とに基づいて、音声情報に対応するユーザイメージ像を得ること、を含む。
本実施形態によれば、ユーザ情報を解析してユーザイメージ像を得るため、ユーザに対応したサービスを提供することができる。
第1応答データから特徴ベクトルを抽出すること、をさらに含む。
本実施形態によれば、第1応答データから抽出した特徴ベクトルを後続の関連付け分析に用いて、特徴ベクトルと関連付けて解析を行うことにより、分類の効率や精度を高めることができる。
埋め込むべき少なくとも1つの第2コンテンツを受信すること、をさらに含む。
本実施形態によれば、コンテンツ提供者から提供された広めようとするコンテンツを受信して、その後に該コンテンツのうちの適切な部分を応答データに埋め込むようにすることで、コンテンツ提供者のコンテンツを埋め込む目的を達成するとともに、埋め込まれるコンテンツはユーザのニーズにも合致する。
少なくとも1つの第2コンテンツと、音声情報に対応するユーザイメージ像と、特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、少なくとも1つの第2コンテンツから第1コンテンツを得ることと、
第1コンテンツを第1応答データに埋め込んで、第2応答データを生成することと、を含む。
本実施形態によれば、ユーザイメージ像と、スキルアプリケーションサービスの応答データと、コンテンツとを関連付けて解析することにより、ユーザのニーズに適合したコンテンツが埋め込まれ、ユーザによい知能的なパーソナライズ化サービスを提供し、ユーザエクスペリエンスを良好にすることができる。
音声情報を受信することと、
音声情報に対応する第1応答データと、音声情報と、第1コンテンツとに基づいて生成される第2応答データを、音声情報に基づいてサーバにリクエストすることと、
第2応答データを受信することと、
第2応答データを音声情報の返信情報とすることと、を含む。
本実施形態によれば、スキルアプリケーションサービスの応答データを取得した上で、ユーザイメージ像に基づいて生成される第2応答データをさらにリクエストすることで返信情報の内容がユーザのニーズに適合し、ユーザによい知能的なパーソナライズ化サービスを提供し、ユーザエクスペリエンスを良好にすることができる。
第1応答データから特徴ベクトルを抽出すること、をさらに含む。
本実施形態によれば、第1応答データから抽出した特徴ベクトルを後続の関連付け分析に用いて、特徴ベクトルと関連付けて解析を行うことにより、分類の効率や精度を高めることができる。
埋め込むべき少なくとも1つの第2コンテンツを受信すること、をさらに含む。
本実施形態によれば、コンテンツ提供者から提供された、広めようとするコンテンツを受信して、その後に該コンテンツのうちの適切な部分を応答データに埋め込むようにすることで、コンテンツ提供者のコンテンツを埋め込む目的を実現するとともに、埋め込まれるコンテンツはユーザのニーズにも合致する。
少なくとも1つの第2コンテンツと、音声情報に対応するユーザイメージ像と、特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、少なくとも1つの第2コンテンツから第1コンテンツを得ることと、
第1コンテンツを第1応答データに埋め込んで、第2応答データを生成することと、をさらに含む。
本実施形態によれば、ユーザイメージ像と、スキルアプリケーションサービスの応答データと、コンテンツとを関連付けて解析することにより、ユーザのニーズに適合したコンテンツが埋め込まれ、ユーザによい知能的なパーソナライズ化サービスを提供し、ユーザエクスペリエンスを良好にすることができる。
音声情報を受信する第1受信ユニットと、
音声情報に対して第1応答データを生成する第1生成ユニットと、
音声情報に基づいて第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する第2生成ユニットと、を含む。
音声情報に対応するユーザ情報を解析して記音声情報に対応するユーザイメージ像を得る解析サブユニットと、
音声情報に対応するユーザイメージ像に基づいて、第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する生成サブユニットと、を含む。
音声情報のコンテキストと、音声情報に対応するユーザの問合せ履歴と、音声情報に対応するユーザの個性情報とに基づいて、音声情報に対応するユーザイメージ像を得る。
第1応答データを受信した後、第1応答データから特徴ベクトルを抽出する第1抽出ユニット、をさらに含む。
少なくとも1つの第2コンテンツと、音声情報に対応するユーザイメージ像と、特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、少なくとも1つの第2コンテンツから第1コンテンツを得、
第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する。
音声情報を受信する第3受信ユニットと、
音声情報に対応する第1応答データと、音声情報と、第1コンテンツとに基づいて生成される第2応答データを、音声情報に基づいてサーバにリクエストするリクエストユニットと、
第2応答データを受信する第4受信ユニットと、
第2応答データを音声情報の返信情報とする返信ユニットと、を含む。
第1応答データから特徴ベクトルを抽出する第2抽出ユニット、をさらに含む。
1つの実施形態において、当該装置は、埋め込むべき少なくとも1つの第2コンテンツを受信する第5受信ユニット、をさらに含む、
少なくとも1つの第2コンテンツと、音声情報に対応するユーザイメージ像と、特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、少なくとも1つの第2コンテンツから第1コンテンツを得、
第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する第3生成ユニット、をさらに含む
1つ又は複数のプロセッサと、
1つ又は複数のプロセッサに通信可能に接続する記憶装置と、を含み、
記憶装置は、1つ又は複数のプロセッサにより実行可能なコマンドを記憶しており、1つ又は複数のプロセッサが、1つ又は複数のコマンドを実行する場合、いずれか1つの実施形態に提供されたコンテンツ埋込方法を実行させる。
本発明によれば、ユーザ情報を解析して、ユーザイメージ像に基づいてコンテンツを埋め込むことにより、ユーザのニーズに適合したコンテンツが埋め込まれ、ユーザによい知能的なパーソナライズ化サービスを提供し、ユーザエクスペリエンスを良好にすることができる。
S110において、音声情報を受信する。
S120において、音声情報に対応する第1応答データと、音声情報と、第1コンテンツとに基づいて生成される第2応答データを、音声情報に基づいてサーバにリクエストする。
S130において、第2応答データを受信する。
S140において、第2応答データを音声情報の返信情報とする。
コンテンツ埋込は、表示情報をより多くの情報要素と融合させることができる。また、「プロダクト・プレイスメント」(Product Placement)を例にすると、「プロダクト・プレイスメント」は映画、テレビドラマ、ゲーム等の発展に伴って興った広告手法である。映画の劇中やゲームの中で企業等の製品あるいはサービスを挿入して、知らず知らずのうちに宣伝効果を浸透させる。プロダクト・プレイスメントの表現可能な空間は非常に広く、映画や娯楽番組の中で多くの適した埋め込み対象物や埋め込み手法を見つけることができる。一般的な広告埋め込む対象物には、商品、標識、VI(Visual Identity、すなわち、企業VI視覚化デザイン、一般的に「ビジュアル・アイデンティティ・システム」と訳される。)、CI(Corporate Identity、企業のシンボルやロゴ)、包装、ブランド名、企業キャラクター等がある。通常、視聴者は広告の挿入に対して抵抗感があるため、広告のコンテンツをこれらの娯楽項目に埋め込む手法はハードセールス手法より効果が大きく改善される。
本実施形態において、ユーザの音声情報は、スマート音声装置を介して受信することができる。例えば、ユーザはスマート音声装置に「今日の天気は如何ですか?」と話すと、スマート音声装置は音声情報を対話型AIシステムに送信する。ステップS110において、対話型AIシステムは、スマート音声装置から音声情報を受信する。
1つの実施形態において、スマート音声埋込型システムは、音声情報に対応するユーザイメージ像に基づき、第1応答データに第1コンテンツを埋め込んで、第2応答データを生成する。ユーザイメージ像を構築する際、ユーザの各具体的な情報をタグとして抽象化し、これらのタグを利用してユーザイメージを具体化し、ユーザそれぞれに対応したサービスを提供する。ユーザイメージ像として、1)性別、年齢、育てられた環境、2)生活の状況、生活のスタイル、生活の習慣、3)性格描写、及び内心の望み、4)消費に対する考え方、好み、嫌み等が挙げられる。
S140において、第2応答データに対して自然な音声を合成する処理を行い、自然な音声を合成する処理を行った結果を音声情報の返信情報としてスマート音声装置に返信する。例えば、返信情報は「XXブランドの傘より、今日は雨が降るとお知らせいたします。傘をお忘れなく!」という情報である。その後、スマート音声装置は返信情報をユーザにアナウンスする。
1つの実施形態において、第1応答データは音声情報に対して生成され、上述の方法は、
第1応答データから特徴ベクトルを抽出すること、をさらに含む
本実施形態では、対話型AIシステムは、対応するスキルアプリケーションサービスを呼び出し、音声情報に対応する応答データ、すなわち、第1応答データを得る。例えば、ユーザが天気の状況を問い合わせると、対応するスキルアプリケーションサービス「気象サービス」が呼び出される。「気象サービス」は、ユーザの意図に応じて第1応答データを生成し、例えば「今日は雨が降る」等の第1応答データを生成する。対話型AIシステムは、第1応答データから特徴ベクトルを抽出する。第1応答データの形式として、テキスト、写真、ビデオ等の形式を含み得る。例えば、「気象サービス」から返信されたコンテンツが「今日は雨が降りますxxx」及び雨天の写真等である。スキルアプリケーションサービスの返信コンテンツを解析して、主成分を抽出する、すなわち返信コンテンツから名詞、動詞等のエンティティを抽出することができる。抽出されたエンティティリストにより、第1応答データの特徴ベクトルが構成される。
本実施形態では、第1応答データから抽出された特徴ベクトルを後続の関連分析に用いてもよい。特徴ベクトルを用いることで、分類の効率や精度を高めることができる。
本実施形態では、コンテンツの提供者より、広めたいコンテンツを受信し、その後に当該コンテンツのうちの適切な部分を応答データに埋め込む。もって、コンテンツ提供者のコンテンツを埋め込む目的を達成するとともに、埋め込まれるコンテンツはユーザのニーズにも合致する。
1つの実施形態において、上述の方法は、
少なくとも1つの第2コンテンツと、音声情報に対応するユーザイメージ像と、特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、少なくとも1つの第2コンテンツから第1コンテンツを得ることと、
第1コンテンツを第1応答データに埋め込んで、第2応答データを生成することと、をさらに含む。
本実施形態では、対話型AIシステムより第2応答データを生成してもよい。例えば、第2コンテンツと第1応答データとのマッチング度合いを計算してもよく、第2コンテンツとユーザイメージ像とのマッチング度合いを計算してもよい。例えば、複数のコンテンツ提供者が第2コンテンツを提供しているとする。変わらずまた「プロダクト・プレイスメント」(Product Placement)を例にすると、広告主Aはスポーツ用品の広告コンテンツを、広告主Bは農産物の広告コンテンツを、広告主Cは化粧品の広告コンテンツをそれぞれ提供しているとする。ユーザが「今日の天気は如何ですか。ジョギングに行って体を鍛えたいです。」と話したとする。このユーザに対応するユーザイメージ像は、その趣味がスポーツであることが記述されている。スキルアプリケーションサービスはユーザの意図に基づき、第1応答データとして、「今日は晴れていて、運動やレジャーに適しています。」及び晴天の写真を返信する。第2コンテンツと第1応答データとのマッチング度合いを計算し、広告主Aがスポーツ用品の広告コンテンツを提供しているのに対し、第1応答データには「運動に適しています」の内容があるため、広告主Aが提供する広告コンテンツと第1応答データとの間のマッチング度合いは高い。一方で、第2コンテンツとユーザイメージ像とのマッチング度合いを計算し、広告主Aがスポーツ用品の広告コンテンツを提供しているため、ユーザイメージ像が記述されている趣味がスポーツであるため、広告主Aが提供する広告コンテンツとユーザイメージ像とのマッチング度合いは高い。広告主Aが提供する広告コンテンツと第1応答データ及びユーザイメージ像との間に高いマッチング度合いがあるため、複数の広告主が提供する第2コンテンツから、広告主Aが提供するスポーツ用品の広告コンテンツを選択して、第1応答データに埋め込んで、第2応答データを生成する。例えば、「今日は晴れています。運動やレジャーレジャーに行くといいでしょう。運動服と運動靴に着替えて運動しましょう。XXブランドの運動靴がただいま値引きセール中です。一足如何ですか。」という応答データを生成する。
本実施形態によれば、ユーザイメージ像と、スキルアプリケーションサービスの応答データと、コンテンツとを関連付けて解析することにより、ユーザのニーズに適合したコンテンツが埋め込まれ、ユーザによい知能的なパーソナライズ化サービスを提供し、ユーザエクスペリエンスを良好にすることができる。
本実施形態では、自然言語処理技術を用いて、コンテンツの相関性に応じて埋め込むタイプの音声アナウンス情報を生成し、コンテンツを埋め込む目的を実現する。図2に示すように、本実施形態に係るコンテンツ埋込方法を例示的に示すフローチャートは以下の通りである。
ステップ1)ユーザはスマート音声装置に「今日の天気は如何ですか。」と発話する。スマート音声装置はユーザの音声情報を持つデータストリームを対話型AIシステムに送信する。
ステップ2)対話型AIシステムは、データストリームを音声認識して、自然言語処理を行い、ユーザの意図を識別した後、ユーザの意図に応じて、スキルアプリケーションサービスに応答データリクエストを送信する。対話型AIシステムは、特定の話題に対して、スキルアプリケーションサービスを介して業務ロジックを実現することができる。例えば、具体的なスキルアプリケーションサービスは「気象サービス」である。
ステップ3)具体的なスキルアプリケーションサービス、例えば「気象サービス」は、ユーザの意図に応じて対応するコンテンツを見つけて、テキスト、写真等の形式のコンテンツを対話型AIシステムに返信する。例えば、「今日は雨が降りますxxx」及び雨天の写真等である。
ステップ4)対話型AIシステムはスマート音声埋込型システムを起動する。スマート音声埋込型システムは、ユーザ情報(例えば、問合せの履歴や内容等)、具体的なスキルアプリケーションサービスの応答データ(例えば、「今日は雨が降りますxxx」及び雨天の写真等)を、コンテンツ提供者が提供するコンテンツと関連付けて解析し、例えば広告主が提供する広告コンテンツに関連付けて解析して、具体的な技能応用サービスの応答データを修正する。例えば、修正の結果は「XXブランドの傘より、今日は雨が降るとお知らせいたしますxx」となる。スマート音声埋込型システムは修正した結果を対話型AIシステムに返信する。そして対話型AIシステムは上記修正の結果に対して自然な音声を合成する処理を行い、最終的な処理結果を得る。
ステップ5)対話型AIシステムは自然な音声が合成された最終的な処理結果をスマート音声装置に返信する。この実施形態では、スマート音声装置がユーザに対する最終的応答は「「XXブランドの傘より、今日は雨が降るとお知らせいたしますxxxx。傘をお忘れなきよう!xxx」との情報である。
もう1つの例では、対話プロセスは、対話型AIシステム及びスマート音声装置を、スキルアプリケーションサービスによって駆動させてもよい。例えば「気象サービス」は対話型AIシステムとスマート音声装置を駆動して、自発的に天気予報を放送する。「天気サービス」で提供される放送内容は「今日は雨が降りますxxx」及び雨天の写真等である。「気象サービス」は、放送コンテンツを対話型AIシステムに送信する。対話型AIシステムはスマート音声埋込型システムを呼び出して内容をインプットする。コンテンツインプリメントの方法は、上記のプロセスと同様であり、スマート音声装置のユーザ登録のユーザイメージ像に基づいて、「気象サービス」によって生成された放送内容にコンテンツを埋め込んで、最終的な放送内容を生成することができる。
本実施形態によれば、スキルアプリケーションサービスの応答データを取得した上で、さらにユーザイメージ像に基づき第2応答データを生成するようリクエストすることにより、ユーザのニーズに適合したコンテンツが返信情報に埋め込まれ、ユーザによい知能的なパーソナライズ化サービスを提供し、ユーザエクスペリエンスを良好にすることができる。
S310において、音声情報を受信する。
S320において、音声情報に対して第1応答データを生成する。
S330において、音声情報に基づき、第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する。
S310において、サーバは、対話型AIシステムからの音声情報を受信する。S320において、サーバは、対話型AIシステムからの音声情報に対して、第1応答データを生成する。1つの例では、サーバは、スマート音声埋込型システムやスキルアプリケーションサービスを含んでもよい。スキルアプリケーションサービスは、対話型AIシステムからの音声情報を受信し、音声情報に対応する第1応答データを対話型AIシステムに返信する。スキルアプリケーションサービスは、音声情報に対して、音声識別し、自然言語処理を行って、ユーザの意図を識別する。例えば、ユーザの音声情報である「今日の天気は如何ですか?」に基づき、ユーザが天気の調べを意図していると認識することができる。ユーザの意図に基づき、具体的なスキルアプリケーションサービスを起動して、音声情報に対応する応答データ、すなわち第1応答データを得ることができる。上述した例では、ユーザが天気の調べを意図していると認識したため、具体的にはスキルアプリケーションサービス「気象サービス」を起動する。「気象サービス」は、ユーザの意図に応じて、「今日は雨が降ります」等の第1応答データを返信する。そして、対話型AIシステムは、第2応答データをリクエストするよう、第1応答データと音声情報をスマート音声埋込式システムに送信する。S330において、スマート音声埋込型システムは、音声情報と第1応答データを受信し、埋め込みに適した第1コンテンツを特定するし、第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する。
本実施形態によれば、音声情報に対応するアプリケーションサービスのコンテンツと、埋め込まれるコンテンツと、をシームレスにドッキングさせて、より高い埋込効果をなして、良いユーザエクスペリエンスを得られる。
音声情報に対応するユーザ情報を解析して、音声情報に対応するユーザイメージ像を得ることと、
音声情報に対応するユーザイメージ像に基づいて、第1コンテンツを第1応答データに埋め込んで、第2応答データを生成することと、を含む。
この実施形態では、受信したユーザの音声情報に基づき、ユーザの身分標識を識別してもよく、例えばユーザの登録IDを識別する。ユーザの身分標識に基づき、対応するユーザイメージ像を取得する。そして、ユーザイメージ像に基づき、埋め込みに適した第1コンテンツを特定する。その後、第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する。
本実施形態によれば、ユーザ情報を解析し、ユーザイメージ像に基づき広告にコンテンツを埋め込むため、ユーザによい知能的なパーソナライズ化サービスを提供し、ユーザエクスペリエンスを良好にすることができる。
音声情報のコンテキストと、音声情報に対応するユーザの問合せ履歴と、音声情報に対応するユーザの個性情報とに基づいて、音声情報に対応するユーザイメージ像を得ること、を含む。
この実施形態では、受信したユーザの音声情報に基づき、音声情報に対応するユーザイメージ像を得ることができる。例えば、ユーザ登録時にユーザの音声情報、年齢、性別、趣味等個性情報を得ることができる。ユーザの音声情報を受信する際、声紋識別技術を利用して、登録ユーザの音声情報に対応する登録IDを識別することができ、もってユーザの個性情報を得ることができる。ユーザの個性情報に基づき、ユーザイメージ像を構築し、構築されたユーザイメージ像には、年齢や性別、趣味等の個性情報を含んでもよい。
1つの例では、ユーザの登録IDを識別した後、ユーザの問合せ履歴を調べてもよい。例えば、該ユーザは毎日も天気の状況を調べる。また、音声情報におけるコンテキストを解析してもよい。例えば、ユーザが「今日の天気は如何ですか?」と問合せをしている。該音声情報に関連するコンテキストも含まれる。例えば、ユーザが「今日の天気は如何ですか。ジョギングに行って体を鍛えたいです。」と言う。この音声情報におけるコンテキストに対して語義解析を行い、ユーザの趣味がスポーツであることが分かる。ユーザの問合せ履歴及び/又はユーザ問合せのコンテキストに対する解析に基づき、ユーザイメージ像を構築することができる。
後続する処理において、ユーザイメージ像に基づき、適したコンテンツを埋め込んでもよい。1つの実施形態では、ユーザイメージ像には、個体イメージ像及び/又は群イメージ像を含んでもよい。例えば、ユーザイメージ像において、該ユーザの趣味がスポーツであると記述されている場合、スポーツ用品類のコンテンツを埋め込んでもよく、ユーザのパーソナライズ化ニーズを合致することができる。
第1応答データから特徴ベクトルを抽出すること、をさらに含む。
前述したように、スキルアプリケーションサービスは、ユーザの意図標識に基づき、対応するコンテンツを見つけて、これらのコンテンツ、すなわち第1応答データを対話型AIシステムに返信する。第1応答データの形式として、テキスト、写真、ビデオ等の形式を含み得る。例えば、「気象サービス」から返信されたコンテンツが「今日は雨が降りますxxx」及び雨天の写真等である。スキルアプリケーションサービスの返信コンテンツを解析して、主成分を抽出する、すなわち返信コンテンツから名詞、動詞等のエンティティを抽出することができる。抽出されたエンティティリストにより、第1応答データの特徴ベクトルが構成される。
本実施形態では、第1応答データから抽出された特徴ベクトルを後続の関連分析に用いてもよい。特徴ベクトルに対して関連分析を行うことで、分類の効率や精度を高めることができる。
埋め込むべき少なくとも1つの第2コンテンツを受信すること、をさらに含む。
コンテンツの提供者はGUI(Graphical User Interface、グラフィカルユーザインターフェース)やAPI(Application Programming Interface、アプリケーションプログラミングインターフェース)を介して、広めたいコンテンツ、例えばテキスト、写真、ビデオ等を提供する。コンテンツの提供者より提供されたコンテンツは第2コンテンツと称する。スマート音声埋込型システムは第2コンテンツを受信した後、第2コンテンツと第1応答データとを関連付けて分析を行うことができる。関連度が高いとの関連分析の結果が得られた場合に、該コンテンツを埋め込んでもよい。
本実施形態では、コンテンツの提供者より、広めたいコンテンツを受信し、その後に当該コンテンツのうちの適切な部分を応答データに埋め込む。もって、コンテンツ提供者のコンテンツを埋め込む目的を達成するとともに、埋め込まれるコンテンツはユーザのニーズにも合致する。
少なくとも1つの第2コンテンツと、音声情報に対応するユーザイメージ像と、特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、少なくとも1つの第2コンテンツから第1コンテンツを得ることと、
第1コンテンツを第1応答データに埋め込んで、第2応答データを生成することと、を含む。
この実施形態では、第2コンテンツと第1応答データとのマッチング度合いを計算してもよく、第2コンテンツとユーザイメージ像とのマッチング度合いを計算してもよい。例えば、複数のコンテンツ提供者が第2コンテンツを提供しているとする。変わらずまた「プロダクト・プレイスメント」(Product Placement)を例にすると、広告主Aはスポーツ用品の広告コンテンツを、広告主Bは農産物の広告コンテンツを、広告主Cは化粧品の広告コンテンツをそれぞれ提供しているとする。ユーザが「今日の天気は如何ですか。ジョギングに行って体を鍛えたいです。」と話したとする。このユーザに対応するユーザイメージ像は、その趣味がスポーツであることが記述されている。スキルアプリケーションサービスはユーザの意図に基づき、第1応答データとして、「今日は晴れていて、運動やレジャーに適しています。」及び晴天の写真を返信する。第2コンテンツと第1応答データとのマッチング度合いを計算し、広告主Aがスポーツ用品の広告コンテンツを提供しているのに対し、第1応答データには「運動に適しています」の内容があるため、広告主Aが提供する広告コンテ BR>塔cと第1応答データとの間のマッチング度合いは高い。一方で、第2コンテンツとユーザイメージ像とのマッチング度合いを計算し、広告主Aがスポーツ用品の広告コンテンツを提供しているため、ユーザイメージ像が記述されている趣味がスポーツであるため、広告主Aが提供する広告コンテンツとユーザイメージ像とのマッチング度合いは高い。広告主Aが提供する広告コンテンツと第1応答データ及びユーザイメージ像との間に高いマッチング度合いがあるため、複数の広告主が提供する第2コンテンツから、広告主Aが提供するスポーツ用品の広告コンテンツを選択して、第1応答データに埋め込んで、第2応答データを生成する。例えば、「今日は晴れています。運動やレジャーレジャーに行くといいでしょう。運動服と運動靴に着替えて運動しましょう。XXブランドの運動靴がただいま値引きセール中です。一足如何ですか。」という応答データを生成する。
上述した例では、第2コンテンツからマッチング度合いの高い第1コンテンツを見つけた場合に、第1コンテンツを第1応答データに埋め込む。第2コンテンツからマッチング度合いの高い第1コンテンツを見つけることができなかった場合に、当面埋め込みに適したコンテンツがないとし、コンテンツを埋め込むステップを実行しなくてもよい。この場合、スマート音声埋込型システムは、対話型AIシステムに対して返信する第2応答データにおいて、第1応答データにコンテンツを埋め込んでいないことを注記してもよい。
本実施形態によれば、ユーザイメージ像と、スキルアプリケーションサービスの応答データと、埋め込まれるコンテンツとを関連付けて解析することにより、ユーザのニーズに適合したコンテンツが埋め込まれ、ユーザによい知能的なパーソナライズ化サービスを提供し、ユーザエクスペリエンスを良好にすることができる。
コンテンツ提供者導入サブシステムについては、コンテンツ提供者がGUIやAPIを介して、広めたいコンテンツ、例えばテキスト、写真、ビデオ等を提供する。コンテンツ提供者の提供したコンテンツは即時に関連解析サブシステムに提供してもよく、リアルタイムに発効することができる。
問合せ文書解析サブシステムについては、コンテキスト、問合せ履歴、ユーザ自身の関連データ、例えばユーザの個性情報等を含む、ユーザの問合せ文書に対して解析を行い、具現化されたユーザイメージ像を構築する。
コンテンツ解析サブシステムについては、例えばテキスト、写真、ビデオ等、スキルアプリケーションサービスより返信されたコンテンツに対して解析を行い、主成分を抽出して、特徴ベクトルを見つける。
関連解析サブシステムについては、複数のコンテンツ提供者より提供されたコンテンツと、ユーザイメージ像と、スキルアプリケーションサービスより返信された第1応答データとを関連付けて解析を行い、埋め込みに最も適したコンテンツを計算する。そのうち、ユーザイメージ像には、個体イメージ像及び/又は群イメージ像を含んでもよく、例えば該ユーザ及び同型のその他のユーザの問合せコンテンツや履歴データ等を含んでもよい。
コンテンツ再組み合わせサブシステムについては、埋め込みに最も適したコンテンツをあるアリコリズム(例えば、自然言語生成技術)で、スキルアプリケーションサービスより返信された第1応答データに埋め込んで、ユーザに対して返信する第2応答データを生成してもよい。
音声情報を受信する第1受信ユニット100と、
音声情報に対して第1応答データを生成する第1生成ユニット200と、
音声情報に基づいて第1応答データに第1コンテンツを埋め込んで、第2応答データを生成する第2生成ユニット300と、を含む。
音声情報に対応するユーザ情報を解析して、音声情報に対応するユーザイメージ像を得る解析サブユニットと、
音声情報に対応するユーザイメージ像に基づいて、第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する生成サブユニットと、を含む。
音声情報のコンテキストと、音声情報に対応するユーザの問合せ履歴と、前記音声情報に対応するユーザの個性情報とに基づいて、音声情報に対応するユーザイメージ像を得る。
1つの実施形態において、第2生成ユニット300は、
少なくとも1つの第2コンテンツと、音声情報に対応するユーザイメージ像と、特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、少なくとも1つの第2コンテンツから第1コンテンツを得、
第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する。
音声情報を受信する第3受信ユニット600と、
音声情報に対応する第1応答データと、音声情報と、第1コンテンツとに基づいて生成される第2応答データを、音声情報に基づいてサーバにリクエストするリクエストユニット700と、
第2応答データを受信する第4受信ユニット750と、
第2応答データを音声情報の返信情報とする返信ユニット800と、を含む。
この装置は、第1応答データから特徴ベクトルを抽出する第2抽出ユニット、をさらに含む。
少なくとも1つの第2コンテンツと、音声情報に対応するユーザイメージ像と、特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、少なくとも1つの第2コンテンツから第1コンテンツを得、
第1コンテンツを第1応答データに埋め込んで、第2応答データを生成する第3生成ユニット、をさらに含む。
図8に示すように、本願の一実施形態のコンテンツ埋込方法に係る電子デバイスの構成図である。電子デバイスは、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータのような様々な形態のデジタルコンピュータを表すことができる。また、電子デバイスはパーソナルデジタル処理、携帯電話、スマートフォン、装着可能デバイス、及びその他の類似のコンピューティングデバイス等の様々な形態のモバイルデバイスを表すことができる。ここで示した構成要素、それらの接続と関係、及びそれらの機能は例示的なものに過ぎず、本明細書で説明されたもの及び/又は要求される本明細書の実施を制限することは意図されない。
図8に示すように、当該電子デバイスは、1つ又は複数のプロセッサ801と、メモリ802と、高速インターフェースと低速インターフェースとを含む各構成要素を接続するためのインターフェースとを含む。各構成要素は、異なるバスを利用して互いに接続し、共通のマザーボードに取り付けられてもよいし、必要に応じて他の方法で取り付けられてもよい。プロセッサは、電子デバイス内で実行される命令を処理してもよく、また、外部入出力デバイス(例えば、インターフェースに接続された表示デバイス)にグラフィックユーザインターフェース(Graphica User Interface,GUI)を表示するための、メモリ又はメモリ上に記憶されたグラフィカル情報の命令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを複数のメモリ及び複数のメモリとともに使用することができる。同様に、複数の電子デバイスを接続してもよく、各デバイスは、部分的に必要な動作(例えば、サーバアレイ、ブレードサーバのセット、又はマルチプロセッサシステムとして)を提供する。図8においてプロセッサ801を例とする。
コンピュータシステムは、クライアント及びサーバを含むことができる。クライアントとサーバは一般的に相互に離れており、通信ネットワークを介してインタラクションを行う。クライアントとサーバとの関係を持つコンピュータプログラムがそれぞれのコンピュータ上で実行されることによって、クライアントとサーバとの関係は構築される。
本明細書の実施形態によれば、ユーザ情報に関わる行為の関連コンテンツから関心ポイントを直接識別することにより、ユーザにプッシュされる関心ポイントがユーザの意図に合致し、ユーザエクスペリエンスを良好にすることができる。ユーザ情報に関わる行為の関連内容から直接に関心点を識別するため、プッシュされる関心点がユーザのニーズを満たしていない問題を回避し、ユーザエクスペリエンスを良好にすることができる。
上記の様々な態様のフローを使用して、ステップを新たに順序付け、追加、又は削除することが可能であることを理解すべきである。例えば、本明細書で記載された各ステップは、並列に実行しても良いし、順次に実行しても良いし、異なる順序で実行しても良い。本明細書で開示された技術案が所望する結果を実現することができる限り、本明細書ではこれに限定されない。
上記具体的な実施形態は、本発明の保護範囲に対する限定を構成するものではない。当業者は、設計事項やその他の要因によって、様々な修正、組み合わせ、サブ組み合わせ、及び代替が可能であることを理解するべきである。本発明の要旨及び原則内における変更、均等な置換及び改善等は、いずれも本発明の保護範囲に含まれるべきである。
Claims (15)
- 音声情報を受信することと、
前記音声情報に対して第1応答データを生成することと、
前記第1応答データから特徴ベクトルを抽出することと、
前記音声情報に対応するユーザ情報を解析して、前記音声情報に対応するユーザイメージ像を得ることと、
埋め込むべき少なくとも1つの第2コンテンツを受信することと、
前記少なくとも1つの第2コンテンツと、前記音声情報に対応する前記ユーザイメージ像と、前記特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、前記少なくとも1つの第2コンテンツから第1コンテンツを得ることと、
前記第1コンテンツを前記第1応答データに埋め込んで、第2応答データを生成することと、
を含み、
前記少なくとも1つの第2コンテンツと、前記音声情報に対応する前記ユーザイメージ像と、前記特徴ベクトルとを関連付けて解析することは、前記少なくとも1つの第2コンテンツと前記第1応答データとのマッチング度合いを計算することと、前記少なくとも1つの第2コンテンツと前記ユーザイメージ像とのマッチング度合いを計算することと、を含む、
ことを特徴とするコンテンツ埋込方法。 - 前記音声情報に対応するユーザ情報を解析して、前記音声情報に対応する前記ユーザイメージ像を得ることは、
前記音声情報のコンテキストと、前記音声情報に対応するユーザの問合せ履歴と、前記音声情報に対応するユーザの個性情報とに基づいて、前記音声情報に対応する前記ユーザイメージ像を得ること、を含む、
ことを特徴とする請求項1に記載のコンテンツ埋込方法。 - 音声情報を受信することと、
前記音声情報に対応する第1応答データと、前記音声情報と、前記第1応答データに関連した第1コンテンツとに基づいて生成される第2応答データを、前記音声情報に基づいてサーバにリクエストすることと、
前記第1応答データから特徴ベクトルを抽出することと、
埋め込むべき少なくとも1つの第2コンテンツを受信することと、
前記少なくとも1つの第2コンテンツと、前記音声情報に対応するユーザイメージ像と、前記特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、前記少なくとも1つの第2コンテンツから前記第1コンテンツを得ることと、
前記第1コンテンツを前記第1応答データに埋め込んで、前記第2応答データを生成することと、
前記第2応答データを受信することと、
前記第2応答データを前記音声情報の返信情報とすることと、を含み、
前記少なくとも1つの第2コンテンツと、前記音声情報に対応する前記ユーザイメージ像と、前記特徴ベクトルとを関連付けて解析することは、前記少なくとも1つの第2コンテンツと前記第1応答データとのマッチング度合いを計算することと、前記少なくとも1つの第2コンテンツと前記ユーザイメージ像とのマッチング度合いを計算することと、を含む、
ことを特徴とするコンテンツ埋込方法。 - 前記音声情報に対応する第1応答データを生成することをさらに含む、
ことを特徴とする請求項3に記載のコンテンツ埋込方法。 - 音声情報を受信する第1受信ユニットと、
前記音声情報に対して第1応答データを生成する第1生成ユニットと、
前記第1応答データから特徴ベクトルを抽出する第1抽出ユニットと、
埋め込むべき少なくとも1つの第2コンテンツを受信する第2受信ユニットと、
前記少なくとも1つの第2コンテンツと、前記音声情報に対応するユーザイメージ像と、前記特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、前記少なくとも1つの第2コンテンツから第1コンテンツを得、前記第1応答データに関連した前記第1コンテンツを前記第1応答データに埋め込んで、第2応答データを生成する第2生成ユニットと、を含み、
前記第2生成ユニットは、前記少なくとも1つの第2コンテンツと、前記音声情報に対応する前記ユーザイメージ像と、前記特徴ベクトルとを関連付けて解析することは、前記少なくとも1つの第2コンテンツと前記第1応答データとのマッチング度合いを計算することと、前記少なくとも1つの第2コンテンツと前記ユーザイメージ像とのマッチング度合いを計算することとによって、前記少なくとも1つの第2コンテンツと、前記音声情報に対応する前記ユーザイメージ像と、前記特徴ベクトルとを関連付けて解析することを行う、
ことを特徴とするコンテンツ埋込装置。 - 前記第2生成ユニットは、
前記音声情報に対応するユーザ情報を解析して、前記音声情報に対応する前記ユーザイメージ像を得る解析サブユニットと、
前記音声情報に対応する前記ユーザイメージ像に基づいて、前記第1コンテンツを前記第1応答データに埋め込んで、前記第2応答データを生成する生成サブユニットと、を含む、
ことを特徴とする請求項5に記載のコンテンツ埋込装置。 - 前記解析サブユニットは、
前記音声情報のコンテキストと、前記音声情報に対応するユーザの問合せ履歴と、前記音声情報に対応するユーザの個性情報とに基づいて、前記音声情報に対応する前記ユーザイメージ像を得る、
ことを特徴とする請求項6に記載のコンテンツ埋込装置。 - 前記第1応答データを受信した後、前記第1応答データから特徴ベクトルを抽出する第1抽出ユニット、をさらに含む、
ことを特徴とする請求項7に記載のコンテンツ埋込装置。 - 埋め込むべき前記少なくとも1つの第2コンテンツを受信する第2受信ユニット、をさらに含む、
ことを特徴とする請求項8に記載のコンテンツ埋込装置。 - 前記第2生成ユニットは、
前記少なくとも1つの第2コンテンツと、前記音声情報に対応する前記ユーザイメージ像と、前記特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、前記少なくとも1つの第2コンテンツから前記第1コンテンツを得、
前記第1コンテンツを前記第1応答データに埋め込んで、前記第2応答データを生成する、
ことを特徴とする請求項9に記載のコンテンツ埋込装置。 - 音声情報を受信する第3受信ユニットと、
前記音声情報に対応する第1応答データと、前記音声情報と、前記第1応答データに関連した第1コンテンツとに基づいて生成される第2応答データを、前記音声情報に基づいてサーバにリクエストするリクエストユニットと、
前記第1応答データから特徴ベクトルを抽出する第2抽出ユニットと、
埋め込むべき少なくとも1つの第2コンテンツを受信する第5受信ユニットと、
前記少なくとも1つの第2コンテンツと、前記音声情報に対応するユーザイメージ像と、前記特徴ベクトルとを関連付けて解析し、関連付けて解析した結果に基づいて、前記少なくとも1つの第2コンテンツから前記第1コンテンツを得、前記第1コンテンツを前記第1応答データに埋め込んで、前記第2応答データを生成する第3生成ユニットと、
前記第2応答データを受信する第4受信ユニットと、
前記第2応答データを前記音声情報の返信情報とする返信ユニットと、を含み、
前記第3生成ユニットは、前記少なくとも1つの第2コンテンツと、前記音声情報に対応する前記ユーザイメージ像と、前記特徴ベクトルとを関連付けて解析することは、前記少なくとも1つの第2コンテンツと前記第1応答データとのマッチング度合いを計算することと、前記少なくとも1つの第2コンテンツと前記ユーザイメージ像とのマッチング度合いを計算することとによって、前記少なくとも1つの第2コンテンツと、前記音声情報に対応する前記ユーザイメージ像と、前記特徴ベクトルとを関連付けて解析することを行う、
ことを特徴とするコンテンツ埋込装置。 - 前記第1応答データは前記音声情報に対して生成される、
ことを特徴とする請求項11に記載のコンテンツ埋込装置。 - 1つ又は複数のプロセッサと、
前記1つ又は複数のプロセッサに通信可能に接続する記憶装置と、を含み、
前記記憶装置は、前記1つ又は複数のプロセッサより実行可能コマンドを記憶しており、前記1つ又は複数のプロセッサは、前記1つ又は複数のコマンドを実行する場合、請求項1~4のいずれか1項に記載のコンテンツ埋込方法を実行させる、
ことを特徴とする電子デバイス。 - コンピュータコマンドが記憶された非一過性のコンピュータ可読記憶媒体であって、
当該コンピュータコマンドが請求項1~4のいずれか1項に記載のコンテンツ埋込方法を実行させるために用いられる、
ことを特徴とするコンピュータ可読記憶媒体。 - コンピュータにおいて、プロセッサにより実行される場合、請求項1~4のいずれか1項に記載のコンテンツ埋込方法を実現することを特徴とするプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910825646.6A CN110517096A (zh) | 2019-08-30 | 2019-08-30 | 内容植入方法、装置、电子设备及存储介质 |
CN201910825646.6 | 2019-08-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021039715A JP2021039715A (ja) | 2021-03-11 |
JP7051190B2 true JP7051190B2 (ja) | 2022-04-11 |
Family
ID=68629404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020025932A Active JP7051190B2 (ja) | 2019-08-30 | 2020-02-19 | コンテンツ埋込方法、装置、電子デバイス、記憶媒体、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210065235A1 (ja) |
JP (1) | JP7051190B2 (ja) |
CN (1) | CN110517096A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113409797A (zh) * | 2020-03-16 | 2021-09-17 | 阿里巴巴集团控股有限公司 | 语音处理方法和系统、及语音交互设备和方法 |
CN111881229A (zh) * | 2020-06-05 | 2020-11-03 | 百度在线网络技术(北京)有限公司 | 天气预报视频的生成方法、装置、电子设备及存储介质 |
CN114155019A (zh) * | 2021-11-04 | 2022-03-08 | 广州市玄武无线科技股份有限公司 | 营销消息生成方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010027034A1 (ja) | 2008-09-05 | 2010-03-11 | 株式会社ソニー・コンピュータエンタテインメント | コンテンツ推薦システム、コンテンツ推薦方法、コンテンツ推薦装置、プログラム及び情報記憶媒体 |
JP2013105309A (ja) | 2011-11-14 | 2013-05-30 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP2013143066A (ja) | 2012-01-12 | 2013-07-22 | Kddi Corp | 大量のコメント文章を用いた質問回答プログラム、サーバ及び方法 |
WO2016135905A1 (ja) | 2015-02-25 | 2016-09-01 | 株式会社日立製作所 | 情報処理システム及び情報処理方法 |
JP2018142357A (ja) | 2018-04-27 | 2018-09-13 | ヤフー株式会社 | 装置、方法及びプログラム |
JP2019125357A (ja) | 2017-12-22 | 2019-07-25 | サウンドハウンド,インコーポレイテッド | インタラクティブなエクスペリエンスに適合させた自然言語文法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8270580B2 (en) * | 2008-04-01 | 2012-09-18 | Microsoft Corporation | Interactive voice advertisement exchange |
CN103761319A (zh) * | 2014-01-28 | 2014-04-30 | 顾洪代 | 可植入电子终端中的语音录制与播放装置及其方法 |
CN106462886A (zh) * | 2016-07-07 | 2017-02-22 | 深圳狗尾草智能科技有限公司 | 基于虚拟机器人的广告植入方法和系统 |
CN107342083B (zh) * | 2017-07-05 | 2021-07-20 | 百度在线网络技术(北京)有限公司 | 用于提供语音服务的方法和装置 |
-
2019
- 2019-08-30 CN CN201910825646.6A patent/CN110517096A/zh active Pending
-
2020
- 2020-02-17 US US16/792,480 patent/US20210065235A1/en not_active Abandoned
- 2020-02-19 JP JP2020025932A patent/JP7051190B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010027034A1 (ja) | 2008-09-05 | 2010-03-11 | 株式会社ソニー・コンピュータエンタテインメント | コンテンツ推薦システム、コンテンツ推薦方法、コンテンツ推薦装置、プログラム及び情報記憶媒体 |
JP2013105309A (ja) | 2011-11-14 | 2013-05-30 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP2013143066A (ja) | 2012-01-12 | 2013-07-22 | Kddi Corp | 大量のコメント文章を用いた質問回答プログラム、サーバ及び方法 |
WO2016135905A1 (ja) | 2015-02-25 | 2016-09-01 | 株式会社日立製作所 | 情報処理システム及び情報処理方法 |
JP2019125357A (ja) | 2017-12-22 | 2019-07-25 | サウンドハウンド,インコーポレイテッド | インタラクティブなエクスペリエンスに適合させた自然言語文法 |
JP2018142357A (ja) | 2018-04-27 | 2018-09-13 | ヤフー株式会社 | 装置、方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021039715A (ja) | 2021-03-11 |
US20210065235A1 (en) | 2021-03-04 |
CN110517096A (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200175550A1 (en) | Method for identifying advertisements for placement in multimedia content elements | |
JP6606275B2 (ja) | 情報をプッシュ配信するコンピュータ実施方法及び装置 | |
CN107203894B (zh) | 信息推送方法和装置 | |
JP7051190B2 (ja) | コンテンツ埋込方法、装置、電子デバイス、記憶媒体、及びプログラム | |
US20190122269A1 (en) | Augmented reality view of product instructions | |
US10943257B2 (en) | Digital media environment for analysis of components of digital content | |
CN106688215B (zh) | 针对内容效能优化的自动点击类型选择 | |
JP6713414B2 (ja) | コンテンツプロビジョニングに関連付けられた関係をサポートする装置及び方法 | |
CN110324676B (zh) | 数据处理方法、媒体内容投放方法、装置及存储介质 | |
US9665965B2 (en) | Video-associated objects | |
US20130179917A1 (en) | Multi-Component Advertising Campaigns | |
US20220156798A1 (en) | Method, device, storage medium and terminal for pushing advertisement | |
US9418165B2 (en) | Context recognition through screensharing | |
JP2019527395A (ja) | コンテンツを効果的に配信するための動的クリエイティブの最適化 | |
CN113568699B (zh) | 一种内容显示方法、装置、设备及存储介质 | |
CN112818224B (zh) | 信息推荐方法、装置、电子设备及可读存储介质 | |
US20190014063A1 (en) | System and Methods for Dynamically Generating Animated GIF Files for Delivery Via the Network | |
US20150294370A1 (en) | Target Area Based Monetization Using Sensory Feedback | |
CN111694983B (zh) | 信息显示方法、装置、电子设备以及存储介质 | |
KR20120108306A (ko) | 얼굴 인식 기반 광고 방법 및 시스템 | |
CN110020108B (zh) | 网络资源推荐方法、装置、计算机设备及存储介质 | |
US9332284B1 (en) | Personalized advertisement content | |
WO2017167049A1 (zh) | 一种业务处理方法、装置和智能终端 | |
CN112702619A (zh) | 一种主播界面展示方法、装置、设备及存储介质 | |
US9992528B2 (en) | System and methods thereof for displaying video content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210414 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220127 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220127 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220204 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7051190 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |