JP7225380B2 - 音声パケット記録機能のガイド方法、装置、デバイス、プログラム及びコンピュータ記憶媒体 - Google Patents

音声パケット記録機能のガイド方法、装置、デバイス、プログラム及びコンピュータ記憶媒体 Download PDF

Info

Publication number
JP7225380B2
JP7225380B2 JP2021515173A JP2021515173A JP7225380B2 JP 7225380 B2 JP7225380 B2 JP 7225380B2 JP 2021515173 A JP2021515173 A JP 2021515173A JP 2021515173 A JP2021515173 A JP 2021515173A JP 7225380 B2 JP7225380 B2 JP 7225380B2
Authority
JP
Japan
Prior art keywords
user
map
voice
voice packet
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021515173A
Other languages
English (en)
Other versions
JP2022512271A (ja
Inventor
ウェンタオ マー
チーチョウ ホアン
チンイー レイ
シーチアン ティン
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Publication of JP2022512271A publication Critical patent/JP2022512271A/ja
Application granted granted Critical
Publication of JP7225380B2 publication Critical patent/JP7225380B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/16Storage of analogue signals in digital stores using an arrangement comprising analogue/digital [A/D] converters, digital memories and digital/analogue [D/A] converters 
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Finance (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本願は、出願日が2019年11月20日、出願番号が201911140137.6、発明名称が「音声パケット記録機能のガイド方法、装置、デバイス及びコンピュータ記憶媒体」である中国特許出願の優先権を主張した。
本願は、コンピュータ応用技術分野に関し、特にビッグデータ技術分野における音声パケット記録機能のガイド方法、装置、デバイス、プログラム及びコンピュータ記憶媒体に関する。
本明細書は、特許請求の範囲に記載されている本発明の実施形態に対して背景又は文脈を提供するためである。ここでの説明は、本明細書に含まれたからといって従来技術であると考えてはいけない。
コンピュータ技術の発展及び製品に対する人間のニーズの増加につれて、音声合成技術によりコンピュータ応用製品に話し手の異なる音声再生機能を提供する場合がある。例えば、地図関連製品において、ナビゲーション音声再生を行う際に、ユーザは地図関連製品により提供される異なる話し手を選択してナビゲーション音声再生を行うことができる。これらの話し手は、一般的に、俳優、コメディアン、歌手のような有名人である。しかし、パーソナライズに対するユーザのニーズの高まりに伴い、非常に少ない地図関連アプリがユーザにパーソナライズされた音声パケットの記録機能を提供する場合がある。ユーザが自身、家族又は友達などの音声を音声パケットとして記録可能であり、音声再生を行う際に自身、家族又は友達などの音声になる。
しかしながら、パーソナライズされた音声パケットの記録は、テクノロジーの最前線に立つ新機能として、殆どのユーザに認識されていない。大衆に当該機能を宣伝する場合に、従来はオープニング画面情報として宣伝し、ユーザに宣伝情報をプッシュするなどは、何れも情報丸ごと且つ同時にプッシュするため、全てのユーザがこのような宣伝情報を頻繁に受信することになり、配信精度が悪くなり、一部のユーザに過剰な妨害を引き起こす。
上記の状況に鑑み、本願発明は、宣伝情報によるユーザへの過剰な妨害を軽減する。
第1の形態によれば、本願は、地図ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別し、前記目標ユーザがクライアントを使用する場面を識別し、音声パケット記録の場面と一致すると、前記クライアントに音声パケット記録機能の第1のガイド情報を送信することを含む音声パケット記録機能のガイド方法を提供する。
本願の一つの好適な実施形態によれば、地図ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別することは、地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを取得し、予め訓練された第1の分類モデルにより前記地図ユーザの特徴ベクトルに基づいて地図ユーザを識別し、前記地図ユーザが音声パケット記録のニーズを有するか否かの識別結果を取得することを含む。
本願の一つの好適な実施形態によれば、ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別することは、シードユーザから行為特徴を予め抽出してシードユーザの特徴ベクトルを取得し、シードユーザの特徴ベクトルに基づいてシードユーザをクラスタリングして各ユーザクラスタを取得し、地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを取得し、前記地図ユーザの特徴ベクトルに基づいて地図ユーザが既存のユーザクラスタにクラスタリングされるか否かを確定し、既存のユーザクラスタにクラスタリングされた地図ユーザを音声パケット記録のニーズを有する目標ユーザとして識別することを含む。
本願の一つの好適な実施形態によれば、前記特徴ベクトルは更にユーザプロファイルを含む。
本願の一つの好適な実施形態によれば、前記行為特徴は、旅行相関行為、音声使用行為及び音声パケット相関行為のうちの少なくとも一つを含み、前記旅行相関行為は、POI検索、ナビゲーション及び定位のうちの少なくとも一つの時間/位置情報を含み、前記音声使用行為は、音声機能を使用する頻度、直前の使用時間及び使用された音声機能のうちの少なくとも一つを含み、前記音声パケット相関行為は、音声パケットを使用する回数、使用される音声パケットのタイプ、音声パケットを記録する状態、直前の音声パケット記録の時間、及び音声パケット記録ページにアクセスする頻度のうちの少なくとも一つを含む。
本願の一つの好適な実施形態によれば、前記目標ユーザがクライアントを使用する場面を識別することは、前記目標ユーザがクライアントを使用する場面情報を取得し、予め訓練された第2の分類モデルにより前記場面情報を識別して前記場面情報が音声パケット記録の場面と一致するか否かの識別結果を取得することを含む。
本願の一つの好適な実施形態によれば、前記場面情報は、前記目標ユーザがクライアントを使用する時間情報、位置情報、直前のPOI検索時間、直前のナビゲーション時間、常駐位置に定位されたか、音声パケットを記録する状態、直前の音声パケット記録の時間及び履歴における第1のガイド情報に対する応答情報のうちの少なくとも一つを含む。
本願の一つの好適な実施形態によれば,当該方法は、更に、ユーザが音声パケットを記録するイベントを取得した後に、ユーザによる音声パケット記録の状態を追跡して記録することを含む。
本願の一つの好適な実施形態によれば、当該方法は、更に、前記ユーザによる音声パケット記録の状態に基づいて前記ユーザに第2のガイド情報を送信することを含む。
第2の形態によれば、本願は、地図ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別するニーズ識別ユニットと、前記目標ユーザがクライアントを使用する場面を識別する場面識別ユニットと、前記目標ユーザがクライアントを使用する場面が音声パケット記録場面と一致すれば、前記クライアントに音声パケット記録機能の第1のガイド情報を送信する第1のガイドユニットとを備える音声パケット記録機能のガイド装置を提供する。
第3の形態によれば、本願は、少なくとも一つのプロセッサと、前記少なくとも一つのプロセッサと通信接続されたメモリとを備え、前記メモリは、前記少なくとも一つのプロセッサにより実行可能なコマンドを記憶しており、前記コマンドは、前記少なくとも一つのプロセッサが前記の何れか一つの方法を実行できるように、前記少なくとも一つのプロセッサにより実行される電子デバイスを提供する。
第4の形態によれば、本願は、前記コンピュータに前記の何れか一つの方法を実行させるコンピュータコマンドを記憶する不揮発性コンピュータ可読記憶媒体を提供する。
前記の技術案によれば、本願により提供される方法、装置、デバイス及びコンピュータ記憶媒体は以下の利点を具備することができる。
1)本願は、履歴の地図使用行為により音声パケット記録のニーズを有する目標ユーザを識別し、目標ユーザがクライアントを使用する場面を識別し、音声パケット記録のニーズを有し且つ音声パケット記録場面と一致するユーザのみに音声パケット記録機能のガイド情報を送信することにより、精確なガイドを実現し、ユーザに対する過剰な妨害を軽減した。
2)本願によりクライアントにおいて実現された精確なガイドは、従来的に有名人を代弁者とすること、或いはプッシュによる方式と比べて、コストを大幅に削減し、転換率を向上した。
3)本願において、ユーザの音声パケット記録状態を追跡し記録して後続のユーザに対するニーズ識別と場面識別に用いることにより、ユーザの連続したガイドを実現し、ユーザのニーズと場面に対する識別を最適化した。
4)本願において、ユーザの音声パケット記録状態に基づいてユーザに更にガイド情報を送信できるため、ユーザの記録に対する激励及び記録フローのガイドを実現した。
前記選択可能な方式における他の効果は、以下で具体的な実施例と合わせて説明する。
図面は、本実施形態をより良く理解するためのものであり、本願発明を限定しない。図面において、
本願の実施例を適用可能な例示的なシステム構造を示した。 本願の実施例により提供される方法のフローチャートである。 本願の実施例により提供される第1のガイド情報の模式図である。 本願の実施例により提供される装置の構成図である。 本願の実施例を実現するための電子デバイスのブロック図である。
以下、図面に基づいて、本出願の例示的な実施例を説明する。理解を容易にするために、本出願の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本出願の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
図1は、本願実施例を適用可能な、音声パケット記録機能に用いられるガイド方法又は音声パケット記録機能に用いられるガイド装置の例示的なシステム構造を示した。
図1に示されたように、当該システム構造は、端末デバイス101と102、ネットワーク103及びサーバ104を備えてよい。ネットワーク103は、端末デバイス101、102とサーバ104との間に通信リンクの媒体を提供する。ネットワーク103は、例えば有線、無線通信リンク又は光ファイバケーブルなどのような各種の接続タイプを含んでよい。
ユーザは、端末デバイス101と102を使用してネットワーク103を介してサーバ104とインタラクティブを行うことができる。端末デバイス101と102には、例えば音声インタラクティブアプリ、地図関連アプリ、ウェブブラウザアプリ、通信関連アプリなどのような各種のアプリがインストールされて良い。
端末デバイス101と102は、記録(即ちユーザが記録した音声データを取り込むこと機能)と音声再生をサポートする各種の電子デバイスであって良い。スマートフォン、タブレット、ノートパソコンなどを含むが、それらに限定されない。本願により提供される音声パケット記録機能のガイド装置は、前記サーバ104に設置して実行することができる。複数のソフトウェア又はソフトウェアモジュール(例えば分散型サービスを提供する)として実現されても良く、単一のソフトウェア又はソフトウェアモジュールとして実現されても良いが、ここでは特に限定しない。サーバ104は、ユーザが端末デバイス101又は102におけるクライアントを介して地図アプリの使用履歴行為を記録し、これに基づいてクライアントに音声パケット記録機能のガイド情報を送信することができる。
サーバ104は、単一のサーバでも良く、複数のサーバからなるサーバグループであっても良い。理解すべきなのは、図1における端末デバイス、ネットワーク及びサーバの数は、例示的なものに過ぎない。実際の必要に応じて、任意の数の端末デバイス、ネットワーク及びサーバを具備しても良い。
本願の本旨は、ユーザの履歴の地図使用行為により音声パケット記録のニーズを有するユーザを識別し、音声パケット記録のニーズを有するユーザがクライアントを使用する場面を識別し、所定の音声パケット記録場面と一致すれば、クライアントに音声パケット記録機能のガイド情報を送信することにある。つまり、ニーズと場面についてユーザを識別し、音声パケット記録場面のみにおいて音声パケット記録のニーズを有するユーザをガイドすることにより、宣伝情報によるユーザへの過剰な妨害を軽減する。以下の実施例は、本願により提供される方法を詳しく説明する。
図2は、本願の実施例により提供される方法のフローチャートである。図2に示されたように、当該方法は、以下のステップを含んでよい。
201において、地図ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別する。
あるアプリ製品、特に人気のあるアプリについて、一般的にユーザの数が非常に多い。従来技術のように全てのユーザに音声パケット記録機能を宣伝すると、必ずこのようなニーズを持っていないユーザに対する邪魔になる。
本ステップは、目標ユーザの選択であり、採用方式が以下の二種類を含むが、それらに限定されない。
第1種の方式において、地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを取得し、予め訓練された第1の分類モデルにより、地図ユーザの特徴ベクトルに基づいて地図ユーザを識別して地図ユーザが音声パケット記録のニーズを有するか否かの識別結果を得る。
前記方式における特徴ベクトルは、行為特徴のほか、ユーザプロファイルを含んでも良い。なお、ユーザプロファイルは、年齢、性別、仕事などであって良い。
以下に主に行為特徴について説明する。本願において抽出された行為特徴は、旅行相関行為、音声使用行為及び音声パケット相関行為のうちの少なくとも一つを含むが、それらに限定されない。
なお、旅行相関行為は、POI検索、ナビゲーションと定位のうちの少なくとも一つの時間/位置情報を含んで良い。一般的には、音声パケットを使用して記録可能なユーザに地図使用の行為において幾つかの特徴が現れ、例えば子供を持っている親が音声パケット記録機能により子供の音声を音声パケットとして記録可能である。それは、例えば朝夕に幼稚園の定位データがあり、週末に塾までナビゲーションすることがあり、子供との遊ぶに適する場所を検索することなどが現れることになる。また、例えば、在校する大学生は、自分の音声又は恋人の音声を使って音声パケットを記録する可能性があり、多くの場合にある大学に定位されたことが現れる。従って、POI検索、ナビゲーション及び定位の時間/位置情報は、主にユーザが音声パケット記録機能の目標ユーザであるか否かを反映することができる。
音声使用行為は、音声機能を使用する頻度、直前の使用時間及び使用された音声機能のうちの少なくとも一つを含んで良い。例えば、あるユーザがいつもナビゲーション再生機能を使用すれば、このようなユーザが音声パケット機能を使用する潜在の目標ユーザである可能性がある。また、例えば、あるユーザがいつも音声インタラクション方式で地図を使用すれば、このようなユーザも音声パケット機能を使用する潜在の目標ユーザである可能性がある。
音声パケット相関行為は、音声パケットを使用する回数、使用される音声パケットのタイプ、音声パケットを記録する状態、直前の音声パケットの記録時間及び音声パケット記録ページにアクセスする頻度のうちの少なくとも一つを含む。例えば、幾つかのユーザが各種の音声パケットの使用に興味あり、豊富な音声パケットの使用履歴があれば、このようなユーザが音声パケットの自作に興味がある可能性がある。また、例えば,幾つかのユーザが音声パケット記録機能を使ったことがあり、且つ長い間に新たな音声パケットを記録していなければ、当該ユーザがガイドで新たな音声パケットの記録を行う可能性がある。また、例えば、幾つかのユーザが前回に音声パケットを記録する時に完成していなければ、ガイドで音声パケットの記録を完成する可能性がある。
地図ユーザに対して行為特徴とユーザプロファイルが抽出された後に、それぞれコーディングし又はマッピングしてそれぞれに対応する特徴ベクトルを得、更にスプライシングして地図ユーザの特徴ベクトルを得る。
地図ユーザの特徴ベクトルが予め訓練された分類モデルに入力され、分類モデルが当該特徴ベクトルによる分類結果、即ち当該地図ユーザが音声パケット記録のニーズを有するか否かを出力する。
分類モデルは訓練を行う場合に、予めオフライン訪問、電話インタビューでポジティブ/ネガティブサンプルを特定し、或いは、小さい範囲内にオンラインで第1のガイド情報をユーザに送信し、ユーザから第1のガイド情報に応答するか否かに基づいてポジティブ/ネガティブサンプルを特定することができる。そして、ポジティブサンプルになるユーザの履歴の地図使用行為から行為特徴を抽出してポジティブサンプルユーザの特徴ベクトルを得、ネガティブサンプルになるユーザの履歴の地図使用行為から行為特徴を抽出してネガティブサンプルユーザの特徴ベクトルを得ることにより、分類モデルを訓練する。ポジティブ/ネガティブサンプルユーザの特徴ベクトルの特定方式は、前記地図ユーザの特徴ベクトルの特定方式と一致するため、ここでは詳しく説明しない。なお、分類モデルは、例えばSVM(Support Vector Machine,サポートベクトルマシーン)、LR(Logistic Regression,ロジスティック回帰モデル)などを採用すれば良い。
第2種の方式において、予めシードユーザから行為特徴を抽出してシードユーザの特徴ベクトルを得、シードユーザの特徴ベクトルに基づいてシードユーザをクラスタリングして各ユーザクラスタを取得し、地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを得、地図ユーザの特徴ベクトルに基づいて地図ユーザが既存のユーザクラスタにクラスタリングされるか否かを確定し、既存のユーザクラスタにクラスタリングされた地図ユーザを音声パケット記録のニーズを有する目標ユーザとして識別する。
予め音声パケット記録機能を使ったことがある幾つかのユーザをシードユーザとして特定し、これらのシードユーザから特徴ベクトルを抽出することができる。特徴ベクトルの抽出方式は前記の方式と同じであるため、ここでは詳しく説明しない。シードユーザの特徴ベクトルに基づいてシードユーザをクラスタリングして各ユーザクラスタを得る。これらのユーザクラスタは実際に一部の典型的なユーザタイプを示す。これらのユーザタイプは、音声パケット記録機能を使用する確率が高い。各ユーザクラスタが得られた後に、当該タイプの特徴ベクトルをまとめて算出し、地図ユーザの特徴ベクトルに基づいて地図ユーザが既存のユーザクラスタにクラスタリングされることができる。既存のユーザクラスタへのクラスタリングができれば、当該地図ユーザがこれらの典型的なユーザタイプに属し、音声パケット記録機能を使用する確率が高いと示す。既存のユーザクラスタへの地図ユーザのクラスタリングができなければ、当該地図ユーザがこれらの典型的なユーザタイプに属せず、音声パケット記録機能を使用する確率が低いと示す。
本願は、前記のクラスタリングに採用されたクラスタリング方法に制限しなくても良く、例えばK-means(k平均値クラスタリングアルゴリズム)、EM(Expectation Maximization Algorithm,期待値最大化)などのクラスタリング方法であって良い。
202において、目標ユーザがクライアントを使用する場面を識別する。
音声パケット記録は、環境に対する要求が厳しく、ノイズの高い環境で記録できないこと、及び記録時間が長く、ユーザに比較的に自由な時間が必要であること、という二つの特徴を持つが、ユーザの行為に関する規則性が異なり、全てのユーザが同一の場面でガイドすることに適するわけではないため、従来の全てのユーザに対する同時間のプッシュ方式が正確ではなく、ユーザへの過剰な妨害が発生し易い。これに鑑み、本願の実施例に場面識別のメカニズムが導入された。
本ステップにおいて、簡単な場面識別方式を採用して目標ユーザがクライアントを使用した現在の時間と位置が所定の音声パケット記録場面に属しているか否か、例えば現在の時間が夜八時以後又は週末であり、且つユーザが家に居ると定位されたか否かを判断することができる。
しかし、前記簡単に時間と位置を規則とする判断の他、ユーザの行為の慣習の複雑により、場面情報の使用についてより豊かで詳細になる必要がある。従って、本願は、一つの好ましい方式を提供して場面識別を行う。
目標ユーザがクライアントを使用した場面情報を取得し、予め訓練された第2の分類モデルにより場面情報を識別して、場面情報が音声パケット記録場面と一致するか否かの識別結果を得る。なお、取得された場面情報は、目標ユーザがクライアントを使用した時間情報、位置情報、直前のPOI検索の時間、直前のナビゲーション時間、常駐位置に定位されたか否か、音声パケットを記録する状態、直前の音声パケット記録の時間、及び履歴の第1のガイド情報に対する応答情報などのうちの何れか一つ又は任意の組み合わせを含んで良い。
第2の分類モデルを訓練する際に、小さい範囲内にオンラインで第1のガイド情報をユーザに送信し、ユーザが第1のガイド情報に応答したか否かに基づいてポジティブ/ネガティブサンプルを特定することができる。そして、ポジティブサンプルのユーザの場面情報、ネガティブサンプルのユーザの場面情報を取得して分類モデルを訓練する。なお、ポジティブ/ネガティブサンプルのユーザの場面情報の取得方式は、前記目標ユーザの場面情報の取得方式と一致する。
また、説明すべきなのは、本実施例における「第1の分類モデル」、「第2の分類モデル」、「第1のガイド情報」、「第2のガイド情報」などのうち、「第1」と「第2」は名称により区別するために過ぎず、数、順番などの意味を持たない。
203において、音声パケット記録場面に一致すると識別されると、クライアントに音声パケット記録機能の第1のガイド情報を送信する。
第1のガイド情報は、テキスト、ピクチャー、ページコンポーネント、リンクなどのうちの何れか一つ又は任意の組み合わせを採用して良い。ユーザは、当該第1のガイド情報により、音声パケットの記録ページに簡単にアクセスして音声記録を行うことができる。例えば、図3に示されたように、クライアントの画面上でコンポーネントとテキスト、ピクチャー、リンクの組み合わせを表示して第1のガイド情報を展示することができる。ユーザによりそのうちの「記録をクリックする」がクリックされると、音声パケットを記録するページに遷移される。
204において、ユーザの音声パケットを記録するイベントが取得された後に、ユーザによる音声パケット記録状態を追跡して記録する。
ユーザによる音声パケット記録状態に対する追跡及び記録は、後続で当該ユーザのニーズと場面識別に用いられ、即ち当該ユーザの行為特徴と場面特徴を更新できると共に、ステップ205の実行に用いることができる。
205において、ユーザによる音声パケット記録状態に基づいて、ユーザに第2のガイド情報を送信する。
本願において、異なる記録状態に基づいて異なる文章を予め配置し、ユーザによる音声パケット記録状態に応じてユーザに対応する文章のテキスト情報、音声情報などを第2のガイド情報として送信することができる。
例えば、ユーザの記録の完成まで5句が足りない場合に、ユーザに「勝利は目の前!頑張れ」という音声を送信して良い。ユーザの記録が完成すると、ユーザに「素晴らしい、記録が完成しました、15分後に音声パケットをダウンロードすることができる」などを送信して良い。このようなガイド情報は、ユーザに激励を与え、例えば児童などが一回で記録を完成させることに寄与できる。一方、記録手順に慣れていないユーザが次にどうするかを了解するようにすることもできる。
以上は本願により提供された方法について詳しく説明した。以下で実施例と合わせて本願により提供される装置を詳しく説明する。
図4は、本願の実施例により提供された装置の構成図である。図4に示されたように、当該装置は、ニーズ識別ユニット01と、場面識別ユニット02と、第1のガイドユニット03とを備えても良く、更に記録追跡ユニット04と第2のガイドユニット05とを備えても良い。なお、各部の主な機能は以下のようになる。
ニーズ識別ユニット01は、地図ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別する。
なお、ニーズ識別ユニット01は、以下の二種類の方式を採用して良いが、それらに限定されない。
第1種の方式において、地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを取得し、予め訓練された第1の分類モデルにより、地図ユーザの特徴ベクトルに基づいて地図ユーザを識別して地図ユーザが音声パケット記録のニーズを有するか否かの識別結果を得る。
第2種の方式において、予めシードユーザから行為特徴を抽出してシードユーザの特徴ベクトルを得、シードユーザの特徴ベクトルに基づいてシードユーザをクラスタリングして各ユーザクラスタを取得し、地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを得、地図ユーザの特徴ベクトルに基づいて地図ユーザが既存のユーザクラスタにクラスタリングされるか否かを確定し、既存のユーザクラスタにクラスタリングされた地図ユーザを音声パケット記録のニーズを有する目標ユーザとして識別する。
前記行為特徴は、旅行相関行為、音声使用行為及び音声パケット相関行為のうちの少なくとも一つを含んで良い。
なお、旅行相関行為は、POI検索、ナビゲーション及び定位のうちの少なくとも一つの時間/位置情報を含む。音声使用行為は、音声機能を使用する頻度、直前の使用時間及び使用された音声機能のうちの少なくとも一つを含む。音声パケット相関行為は、音声パケットを使用する回数、使用された音声パケットのタイプ、音声パケットを記録する状態、直前の音声パケットの記録時間及び音声パケット記録ページにアクセスする頻度のうちの少なくとも一つを含む。
前記方式における特徴ベクトルは、行為特徴のほか、更にユーザプロファイルを含んで良い。なお、ユーザプロファイルは、年齢、性別、仕事などであって良い。地図ユーザに対して行為特徴とユーザプロファイルが抽出された後に、それぞれコーディングし又はマッピングしてそれぞれに対応する特徴ベクトルを得、更にスプライシングして地図ユーザの特徴ベクトルを得る。
また、当該装置は、前記第1種の方式について、訓練サンプルを取得する第1のモデル訓練ユニット(図示せず)を更に備えて良い。当該訓練サンプルは、予めオフライン訪問、電話インタビューでポジティブ/ネガティブサンプルを特定し、或いは、小さい範囲内にオンラインで第1のガイド情報をユーザに送信し、ユーザから第1のガイド情報に応答するか否かに基づいてポジティブ/ネガティブサンプルを特定することができる。そして、ポジティブサンプルになるユーザの履歴の地図使用行為から行為特徴を抽出してポジティブサンプルユーザの特徴ベクトルを得、ネガティブサンプルになるユーザの履歴の地図使用行為から行為特徴を抽出してネガティブサンプルユーザの特徴ベクトルを得ることにより、分類モデルを訓練して第1の分類モデルを得る。
場面識別ユニット02は、目標ユーザがクライアントを使用する場面を識別する。
具体的に、場面識別ユニット02は、目標ユーザがクライアントを使用する場面情報を取得し、予め訓練された第2の分類モデルにより場面情報を識別して、場面情報が音声パケット記録場面と一致するか否かの識別結果を得られる。
前記場面情報は、目標ユーザがクライアントを使用した時間情報、位置情報、直前のPOI検索の時間、直前のナビゲーションの時間、常駐位置に定位されたか、音声パケットを記録する状態、直前の音声パケットの記録時及び履歴の第1のガイド情報に対する応答情報のうちの少なくとも一つを含んで良い。
それに応じて、本願は、訓練サンプルを取得する第2のモデル訓練ユニット(図示せず)を更に備えて良い。例えば、小さい範囲内にオンラインで第1のガイド情報をユーザに送信し、ユーザが第1のガイド情報に応答したか否かに基づいてポジティブ/ネガティブサンプルを特定することができる。そして、ポジティブサンプルのユーザの場面情報、ネガティブサンプルのユーザの場面情報を取得して分類モデルを訓練して第2の分類モデルを得る。
第1のガイドユニット03は、目標ユーザがクライアントを使用した場面が音声パケット記録場面と一致すれば、クライアントに音声パケット記録機能の第1のガイド情報を送信する。
第1のガイド情報は、テキスト、ピクチャー、ページコンポーネント、リンクなどのうちの何れか一つ又は任意の組み合わせを採用して良い。ユーザは、当該第1のガイド情報により、音声パケットの記録ページに簡単にアクセスして音声記録を行うことができる。
記録追跡ユニット04は、ユーザが音声パケットを記録するイベントを取得した後に、ユーザによる音声パケット記録状態を追跡して記録する。
第2のガイドユニット05は、ユーザによる音声パケット記録状態に基づいて、ユーザに第2のガイド情報を送信する。本願において、異なる記録状態に基づいて異なる文書を予め配置し、ユーザの音声パケット記録状態に基づいてユーザに対応する文書のテキスト情報、音声情報などを第2のガイド情報として送信することができる。
本願の実施例によれば、本願は更に電子デバイス及び可読記憶媒体を提供した。
図5は、本願の実施例の方法による電子デバイスのブロック図である。電子デバイスは、様々な形式のデジタルコンピュータ、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、PDA、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータであることが意図される。電子デバイスは、様々な形式のモバイル装置、例えば、PDA、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の類似するコンピューティング装置を示してもよい。本文で示された構成要素、それらの接続及び関係、ならびにそれらの機能は例示にすぎなく、本明細書において説明及び/又は請求される本出願の実現を限定することが意図されない。
図5に示すように、この電子デバイスは、一つ又は複数のプロセッサ501、メモリ502、及び各構成要素に接続するための高速インターフェース及び低速インターフェースを含むインターフェースを備える。各構成要素は、異なるバスで相互接続され、そして、共通マザーボードに、又は必要に応じて、他の態様で実装されてもよい。プロセッサは、電子デバイス内で実行されるコマンドを処理してもよく、メモリに記憶される又はメモリ上で外部入力/出力装置(例えば、インターフェースに結合される表示装置)にグラフィカルユーザインターフェースのグラフィカル情報を表示するコマンドを含む。他の実施形態において、必要な場合に、複数のプロセッサ及び/又は複数のバスが、複数のメモリとともに用いられてもよい。同様に、複数の電子デバイスが接続されてもよく、それぞれのデバイスが必要な操作の一部を提供する(例えば、サーババンク、ブレードサーバの集まり、又はマルチプロセッサシステムとする)。図5において、一つのプロセッサ501を例とする。
メモリ502は、本出願で提供される非一時的コンピュータ可読記憶媒体である。なお、前記メモリには、少なくとも1つのプロセッサが本願に提供された方法を実行するように、前記少なくとも1つのプロセッサに実行可能なコマンドが記憶されている。本出願の非一時的コンピュータ可読記憶媒体は、本願に提供された方法をコンピュータに実行させるためのコンピュータコマンドを記憶している。
メモリ502は、非一時的コンピュータ可読記憶媒体として、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能なプログラム、モジュール、例えば、本出願の実施例における方法に対応するプログラムコマンド/ユニットを記憶するために用いられる。プロセッサ501は、メモリ502に記憶されている非一時的ソフトウェアプログラム、コマンド及びモジュールを実行することで、サーバの様々な機能アプリケーション及びデータ処理を実行し、即ち、上記の方法実施例における方法を実現する。
メモリ502は、プログラム記憶領域及びデータ記憶領域を含んでもよく、プログラム記憶領域はオペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラムを記憶してもよく、データ記憶領域は電子デバイスの使用により作成されたデータなどを記憶してもよい。また、メモリ502は、高速ランダムアクセスメモリを含んでもよく、さらに非一時的メモリ、例えば、少なくとも一つの磁気ディスク記憶装置、フラッシュメモリ装置、又は他の非一時的固体記憶装置を含んでもよい。幾つかの実施例において、メモリ502は、プロセッサ501に対して遠隔設置されたメモリを選択的に含んでもよく、これらのリモートメモリは、ネットワークを介して電子デバイスに接続されてもよい。上記のネットワークの実例には、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせが含まれるが、これらに限定されない。
電子デバイスは、更に、入力装置503と出力装置504とを備えても良い。プロセッサ501、メモリ502、入力装置503及び出力装置504は、バス又は他の手段により接続されても良く、図5においてバスによる接続を例とする。
入力装置503は、入力された数字又はキャラクタ情報を受信し、電子デバイスのユーザ設定及び機能制御に関連するキー信号入力を生成でき、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置504は、表示装置、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モータ)などを含むことができる。当該表示装置は、液晶ディスプレイ(LCD)、発光ダイオードディスプレイ(LED)、及びプラズマディスプレイを含み得るが、これらに限定されない。いくつかの実施形態では、表示装置はタッチパネルであってもよい。
本明細書に説明されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向け集積回路(ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現することができる。これらの様々な実施形態は、記憶システム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及びコマンドを受信し、当該記憶システム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置にデータ及びコマンドを送信するようにつなげられた、特殊用途でもよく一般用途でもよい少なくとも一つのプログラマブルプロセッサを含む、プログラム可能なシステム上で実行可能及び/又は解釈可能な一つ又は複数のコンピュータプログラムにおける実行を含んでもよい。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又は、コードとも称される)は、プログラマブルプロセッサの機械命令を含み、高水準のプロセス及び/又はオブジェクト向けプログラミング言語、及び/又はアセンブリ/機械言語で実行されることができる。本明細書で用いられる「機械可読媒体」及び「コンピュータ可読媒体」という用語は、機械可読信号としての機械命令を受け取る機械可読媒体を含むプログラマブルプロセッサに機械命令及び/又はデータを提供するのに用いられる任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、及びプログラマブル論理デバイス(PLD))を指す。「機械可読信号」という用語は、プログラマブルプロセッサに機械命令及び/又はデータを提供するために用いられる任意の信号を指す。
ユーザとのインタラクティブを提供するために、本明細書に説明されるシステムと技術は、ユーザに対して情報を表示するための表示装置(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニタ)、ユーザがコンピュータに入力を与えることができるキーボード及びポインティングデバイス(例えば、マウスや、トラックボール)を有するコンピュータ上に実施されることが可能である。その他の種類の装置は、さらに、ユーザとのインタラクションを提供するために使用されることが可能であり、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚的なフィードバック、聴覚的なフィードバック、又は触覚的なフィードバック)であり得、ユーザからの入力は、任意の形態で(音響、音声又は触覚による入力を含む)受信され得る。
本明細書に説明されるシステムと技術は、バックエンド構成要素を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア構成要素を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド構成要素を含むコンピューティングシステム(例えば、グラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータであり、ユーザは、当該グラフィカルユーザインターフェースもしくは当該ウェブブラウザを通じて本明細書で説明されるシステムと技術の実施形態とインタラクションすることができる)、そのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムに実施されることが可能である。システムの構成要素は、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されることが可能である。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイド・エリア・ネットワーク(「WAN」)、インターネットワークを含む。
コンピュータシステムは、クライアントとサーバを含み得る。クライアントとサーバは、一般的に互いから遠く離れており、通常は、通信ネットワークを通じてインタラクトする。クライアントとサーバとの関係は、相応するコンピュータ上で実行され、互いにクライアント-サーバの関係を有するコンピュータプログラムによって生じる。
以上で示された様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除できることを理解されたい。例えば、本出願に説明される各ステップは、並列の順序又は順次的な順序で実施されてもよいし、又は異なる順序で実行されてもよく、本出願で開示された技術案の望ましい結果が達成できる限り、ここで制限されない。
上記の具体的な実施形態は本出願の保護範囲に対する制限を構成しない。設計要件及び他の要因に従って、様々な修正、組み合わせ、部分的組み合わせ及び置換を行うことができることを当業者は理解するべきである。本出願の精神及び原則の範囲内で行われる修正、同等の置換、改善は、何れも本出願の保護範囲内に含まれるべきである。

Claims (17)

  1. 音声パケット記録機能のガイド方法であって、
    地図ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別し、
    前記目標ユーザのクライアントを使用する場面を識別し、音声パケット記録の場面と一致すると、前記クライアントに音声パケット記録機能の第1のガイド情報を送信することを含
    地図ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別することは、
    地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを取得し、
    予め訓練された第1の分類モデルにより前記地図ユーザの特徴ベクトルに基づいて地図ユーザを識別し、前記地図ユーザが音声パケット記録のニーズを有するか否かの識別結果を取得することを含む、方法。
  2. ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別することは、
    シードユーザから行為特徴を予め抽出してシードユーザの特徴ベクトルを取得し、シードユーザの特徴ベクトルに基づいてシードユーザをクラスタリングして各ユーザクラスタを取得し、
    地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを取得し、
    前記地図ユーザの特徴ベクトルに基づいて地図ユーザが既存のユーザクラスタにクラスタリングされるか否かを確定し、
    既存のユーザクラスタにクラスタリングされた地図ユーザを音声パケット記録のニーズを有する目標ユーザとして識別することを含む、請求項1に記載の方法。
  3. 前記特徴ベクトルは更にユーザプロファイルを含む、請求項1又は2に記載の方法。
  4. 前記行為特徴は、旅行相関行為、音声使用行為及び音声パケット相関行為のうちの少なくとも一つを含み、
    前記旅行相関行為は、POI検索、ナビゲーション及び定位のうちの少なくとも一つの時間/位置情報を含み、
    前記音声使用行為は、音声機能を使用する頻度、直前の使用時間及び使用された音声機能のうちの少なくとも一つを含み、
    前記音声パケット相関行為は、音声パケットを使用する回数、使用される音声パケットのタイプ、音声パケットを記録する状態、直前の音声パケット記録の時間、及び音声パケット記録ページにアクセスする頻度のうちの少なくとも一つを含む、請求項1又は2に記載の方法。
  5. 前記目標ユーザがクライアントを使用する場面を識別することは、
    前記目標ユーザがクライアントを使用する場面情報を取得し、予め訓練された第2の分類モデルにより前記場面情報を識別して前記場面情報が音声パケット記録の場面と一致するか否かの識別結果を取得することを含む、請求項1に記載の方法。
  6. 前記場面情報は、前記目標ユーザがクライアントを使用する時間情報、位置情報、直前のPOI検索時間、直前のナビゲーション時間、常駐位置に定位されたか、音声パケットを記録する状態、直前の音声パケット記録の時間及び履歴における第1のガイド情報に対する応答情報のうちの少なくとも一つを含む、請求項に記載の方法。
  7. 当該方法は、
    ユーザの音声パケットを記録するイベントを取得した後に、ユーザによる音声パケット記録の状態を追跡して記録することを更に含む、請求項1に記載の方法。
  8. 当該方法は、
    前記ユーザによる音声パケット記録の状態に基づいて前記ユーザに第2のガイド情報を送信することを更に含む、請求項に記載の方法。
  9. 音声パケット記録機能のガイド装置であって、
    地図ユーザの履歴の地図使用行為により、音声パケット記録のニーズを有する目標ユーザを識別するニーズ識別ユニットと、
    前記目標ユーザのクライアントを使用する場面を識別する場面識別ユニットと、
    前記目標ユーザがクライアントを使用する場面が音声パケット記録場面と一致すれば、前記クライアントに音声パケット記録機能の第1のガイド情報を送信する第1のガイドユニットとを備え、
    前記ニーズ識別ユニットは、
    地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを取得し、
    予め訓練された第1の分類モデルにより前記地図ユーザの特徴ベクトルに基づいて地図ユーザを識別し、前記地図ユーザが音声パケット記録のニーズを有するか否かの識別結果を取得する、装置。
  10. 前記ニーズ識別ユニットは、
    シードユーザから行為特徴を予め抽出してシードユーザの特徴ベクトルを取得し、シードユーザの特徴ベクトルに基づいてシードユーザをクラスタリングして各ユーザクラスタを取得し、
    地図ユーザの履歴の地図使用行為から行為特徴を抽出して地図ユーザの特徴ベクトルを取得し、
    前記地図ユーザの特徴ベクトルに基づいて地図ユーザが既存のユーザクラスタにクラスタリングされるか否かを確定し、
    既存のユーザクラスタにクラスタリングされた地図ユーザを音声パケット記録のニーズを有する目標ユーザとして識別する、請求項に記載の装置。
  11. 前記行為特徴は、旅行相関行為、音声使用行為及び音声パケット相関行為のうちの少なくとも一つを含み、
    前記旅行相関行為は、POI検索、ナビゲーション及び定位のうちの少なくとも一つの時間/位置情報を含み、
    前記音声使用行為は、音声機能を使用する頻度、直前の使用時間及び使用された音声機能のうちの少なくとも一つを含み、
    前記音声パケット相関行為は、音声パケットを使用する回数、使用される音声パケットのタイプ、音声パケットを記録する状態、直前の音声パケット記録の時間、及び音声パケット記録ページにアクセスする頻度のうちの少なくとも一つを含む、請求項9又は10に記載の装置。
  12. 前記場面識別ユニットは、前記目標ユーザがクライアントを使用する場面情報を取得し、予め訓練された第2の分類モデルにより前記場面情報を識別して前記場面情報が音声パケット記録の場面と一致するか否かの識別結果を取得し、
    前記場面情報は、前記目標ユーザがクライアントを使用する時間情報、位置情報、直前のPOI検索時間、直前のナビゲーション時間、常駐位置に定位されたか、音声パケットを記録する状態、直前の音声パケット記録の時間及び履歴における第1のガイド情報に対する応答情報のうちの少なくとも一つを含む、請求項に記載の装置。
  13. 当該装置は、
    ユーザの音声パケットを記録するイベントを取得した後に、ユーザによる音声パケット記録状態を追跡して記録する記録追跡ユニットを更に備える、請求項に記載の装置。
  14. 当該装置は、
    前記ユーザによる音声パケット記録状態に基づいて、前記ユーザに第2のガイド情報を送信する第2のガイドユニットを更に備える、請求項13に記載の装置。
  15. 少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサに通信接続されたメモリと、を備え、
    前記メモリに前記少なくとも一つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサに請求項1~の何れか一つに記載の方法を実行させる、電子デバイス。
  16. コンピュータコマンドが記憶されており、前記コンピュータコマンドは前記コンピュータに請求項1~の何れか一つに記載の方法を実行させる、不揮発性コンピュータ可読記憶媒体。
  17. コンピュータに請求項1~の何れか一つに記載の方法を実行させる命令を含む、プログラム。
JP2021515173A 2019-11-20 2020-05-25 音声パケット記録機能のガイド方法、装置、デバイス、プログラム及びコンピュータ記憶媒体 Active JP7225380B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911140137.6 2019-11-20
CN201911140137.6A CN112825256B (zh) 2019-11-20 2019-11-20 录制语音包功能的引导方法、装置、设备和计算机存储介质
PCT/CN2020/092155 WO2021098175A1 (zh) 2019-11-20 2020-05-25 录制语音包功能的引导方法、装置、设备和计算机存储介质

Publications (2)

Publication Number Publication Date
JP2022512271A JP2022512271A (ja) 2022-02-03
JP7225380B2 true JP7225380B2 (ja) 2023-02-20

Family

ID=74859163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021515173A Active JP7225380B2 (ja) 2019-11-20 2020-05-25 音声パケット記録機能のガイド方法、装置、デバイス、プログラム及びコンピュータ記憶媒体

Country Status (6)

Country Link
US (1) US11976931B2 (ja)
EP (1) EP3851803B1 (ja)
JP (1) JP7225380B2 (ja)
KR (1) KR102440635B1 (ja)
CN (1) CN112825256B (ja)
WO (1) WO2021098175A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113742517B (zh) * 2021-08-11 2022-09-27 北京百度网讯科技有限公司 语音包的生成方法、装置、电子设备和存储介质
CN114697375B (zh) * 2022-02-18 2024-03-22 青岛海尔科技有限公司 语音包的切换方法和装置、存储介质及电子装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287193A (ja) 2007-05-21 2008-11-27 Toyota Motor Corp 音声対話装置
JP2010078851A (ja) 2008-09-25 2010-04-08 Nissan Motor Co Ltd 音声入力装置及び音声入力方法
JP2019008796A (ja) 2017-06-23 2019-01-17 ウーバー テクノロジーズ,インコーポレイテッド 自律可能車両用衝突回避システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289661A (ja) * 2000-04-07 2001-10-19 Alpine Electronics Inc ナビゲーション装置
NL1031202C2 (nl) 2006-02-21 2007-08-22 Tomtom Int Bv Navigatieapparaat en werkwijze voor het ontvangen en afspelen van geluidsmonsters.
KR101070785B1 (ko) 2009-02-09 2011-10-06 현대엠엔소프트 주식회사 사용자 개인 음성/동영상을 이용한 네비게이션 음성/영상 안내 서비스 방법 및 그 서비스를 위한 서버
WO2012068280A1 (en) * 2010-11-16 2012-05-24 Echo-Sense Inc. Remote guidance system
US10156455B2 (en) * 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
CN103674012B (zh) 2012-09-21 2017-09-29 高德软件有限公司 语音定制方法及其装置、语音识别方法及其装置
CN103093753A (zh) 2012-12-14 2013-05-08 沈阳美行科技有限公司 一种导航系统用户语音自定义方法
KR20140098947A (ko) 2013-01-31 2014-08-11 삼성전자주식회사 광고 제공 시스템, 사용자 단말 및 광고 제공 방법
US20140365068A1 (en) 2013-06-06 2014-12-11 Melvin Burns Personalized Voice User Interface System and Method
KR101655166B1 (ko) 2014-10-16 2016-09-07 현대자동차 주식회사 차량의 디지털 매뉴얼 제공 시스템 및 방법
CN105606117A (zh) * 2014-11-18 2016-05-25 深圳市腾讯计算机系统有限公司 导航提示方法及装置
CN104933028A (zh) * 2015-06-23 2015-09-23 百度在线网络技术(北京)有限公司 信息推送方法和装置
KR101736109B1 (ko) * 2015-08-20 2017-05-16 현대자동차주식회사 음성인식 장치, 이를 포함하는 차량, 및 그 제어방법
CN105895080A (zh) * 2016-03-30 2016-08-24 乐视控股(北京)有限公司 语音识别模型训练方法、说话人类型识别方法及装置
US9989376B2 (en) * 2016-05-12 2018-06-05 Tata Consultancy Services Limited Systems and methods for generating signature ambient sounds and maps thereof
CN110049079A (zh) * 2018-01-16 2019-07-23 阿里巴巴集团控股有限公司 信息推送及模型训练方法、装置、设备及存储介质
CN109886719B (zh) * 2018-12-20 2023-06-20 平安科技(深圳)有限公司 基于网格的数据挖掘处理方法、装置和计算机设备
CN110275692A (zh) * 2019-05-20 2019-09-24 北京百度网讯科技有限公司 一种语音指令的推荐方法、装置、设备和计算机存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287193A (ja) 2007-05-21 2008-11-27 Toyota Motor Corp 音声対話装置
JP2010078851A (ja) 2008-09-25 2010-04-08 Nissan Motor Co Ltd 音声入力装置及び音声入力方法
JP2019008796A (ja) 2017-06-23 2019-01-17 ウーバー テクノロジーズ,インコーポレイテッド 自律可能車両用衝突回避システム

Also Published As

Publication number Publication date
JP2022512271A (ja) 2022-02-03
WO2021098175A1 (zh) 2021-05-27
KR102440635B1 (ko) 2022-09-05
EP3851803A4 (en) 2021-11-03
EP3851803A1 (en) 2021-07-21
EP3851803B1 (en) 2022-09-28
US11976931B2 (en) 2024-05-07
CN112825256A (zh) 2021-05-21
US20220276067A1 (en) 2022-09-01
KR20210065100A (ko) 2021-06-03
CN112825256B (zh) 2024-07-09

Similar Documents

Publication Publication Date Title
US11636438B1 (en) Generating smart reminders by assistant systems
US20210225380A1 (en) Voiceprint recognition method and apparatus
EP3991119A1 (en) Memory grounded conversational reasoning and question answering for assistant systems
EP4046097A1 (en) Generating proactive content for assistant systems
CN107210033A (zh) 基于众包来更新用于数字个人助理的语言理解分类器模型
JP6361351B2 (ja) 発話ワードをランク付けする方法、プログラム及び計算処理システム
AU2016423749A1 (en) Video keyframes display on online social networks
US10762902B2 (en) Method and apparatus for synthesizing adaptive data visualizations
US20180218728A1 (en) Domain-Specific Speech Recognizers in a Digital Medium Environment
US10901689B1 (en) Dynamic augmented reality interface creation
US10678855B2 (en) Generating descriptive text contemporaneous to visual media
CN110019934A (zh) 识别视频的相关性
US11809480B1 (en) Generating dynamic knowledge graph of media contents for assistant systems
JP2022547598A (ja) コンテキストデータを使用した対話処理のための技術
WO2018039009A1 (en) Systems and methods for artifical intelligence voice evolution
CN112269867A (zh) 用于推送信息的方法、装置、设备以及存储介质
JP7225380B2 (ja) 音声パケット記録機能のガイド方法、装置、デバイス、プログラム及びコンピュータ記憶媒体
US11894941B1 (en) Real-time tone feedback in video conferencing
JP7300492B2 (ja) 特徴情報のマイニング方法、装置及び電子機器
JP2020526839A (ja) ユーザ・インターフェースの音発生活動の分類
JP7166370B2 (ja) 音声記録のための音声認識率を向上させる方法、システム、およびコンピュータ読み取り可能な記録媒体
KR102694139B1 (ko) 음성 처리 방법 및 장치
US20240160912A1 (en) Machine-learning model for intelligent rule generation
CN112102820B (zh) 交互方法、交互装置、电子设备和介质
CN118445485A (zh) 一种显示设备及语音搜索方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221219

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221226

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230208

R150 Certificate of patent or registration of utility model

Ref document number: 7225380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150