JP2021111336A - スキルサービスの更新方法、装置、電子機器、プログラム及び可読記憶媒体 - Google Patents

スキルサービスの更新方法、装置、電子機器、プログラム及び可読記憶媒体 Download PDF

Info

Publication number
JP2021111336A
JP2021111336A JP2020151593A JP2020151593A JP2021111336A JP 2021111336 A JP2021111336 A JP 2021111336A JP 2020151593 A JP2020151593 A JP 2020151593A JP 2020151593 A JP2020151593 A JP 2020151593A JP 2021111336 A JP2021111336 A JP 2021111336A
Authority
JP
Japan
Prior art keywords
skill service
information
skill
interaction
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020151593A
Other languages
English (en)
Other versions
JP7092282B2 (ja
Inventor
カオ、ホンウェイ
Hongwei Cao
チョウ、シャオ
Xiao Zhou
ジャオ、ジャチュアン
Jiachuan Jiao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2021111336A publication Critical patent/JP2021111336A/ja
Application granted granted Critical
Publication of JP7092282B2 publication Critical patent/JP7092282B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/65Updates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】スマートデバイスによって提供されるスキルサービスの開発効率と確実性を向上するために、スキルサービスの更新方法、装置、電子機器及び可読記憶媒体を提供する。【解決手段】方法は、ユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、スキルサービスの補足インタラクション情報を取得する。ユーザインタラクションモデルは、開発者から提供されるスキルサービスの初期インタラクション情報に応じて構築されたものである。さらに、スキルサービスの補足インタラクション情報を出力し、開発者によるスキルサービスの補足インタラクション情報に基づく操作に応答して、スキルサービスの補足インタラクション情報を利用して、ユーザインタラクションモデルに対して更新処理を行う。【選択図】図1

Description

コンピュータの技術分野に関し、具体的に、人工知能の技術に関し、特に、スキルサービスの更新方法、装置、電子機器、プログラム及び可読記憶媒体に関する。
会話型人工知能(AI:Artificial Intelligence)システムに基づくスマートデバイス、例えば、スマートホームデバイス、スマート端末デバイスなどは、具体的なある話題に対して、そのビジネスロジックが、一般、スキルサービスの方式により実現される。いわゆるスキルサービスは、1つのアプリケーション(APP:Application)サービスと類似し、会話により、1つ又は複数の特定の機能、例えば、天気のクエリ、フライトのクエリ、食事の注文などを完成させ、各スキルサービスは1つ以上の意図で構成されることができる。会話中に、話術を認識することで、対応する意図を取得する。
スキルサービスの開発者は、大手企業が提供するインタラクション式音声オープンプラットフォームに基づいて、このスキルサービスに対応するユーザインタラクションモデルを構築することで、このスキルサービスをスマートデバイスに追加して、スマートデバイスのビジネスロジックとしてユーザの使用に供することができる。通常、ユーザエクスペリエンスを向上するために、開発者は、自分で構築するログシステムを利用して、スキルサービスのユーザインタラクションを分析し、ひいては、スマートデバイスによって提供されるスキルサービスを更新することもできる。
しかしながら、従来のスキルサービスの更新方式は、操作に時間がかかり、エラーが発生しやすいため、スマートデバイスによって提供されるスキルサービスの開発効率と確実性は低下してしまう。
本出願の複数の局面は、スマートデバイスによって提供されるスキルサービスの開発効率と確実性を向上するために、スキルサービスの更新方法、装置、電子機器、及び可読記憶媒体を提供する。
本出願の一局面によれば、スキルサービスの更新方法を提供し、
ユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得し、前記ユーザインタラクションモデルは、開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築され、
前記スキルサービスの補足インタラクション情報を出力し、
前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答し、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことを含む。
上記の局面及び任意の実現可能な形態によれば、さらに、一実現形態を提供し、前記ユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得することは、
前記スキルサービスのユーザインタラクションログに対して分析処理を行うことで、構造化データを取得し、前記構造化データはスキルサービスの名称、話術情報及び意図情報を含み、
前記スキルサービスの初期インタラクション情報に応じて、前記スキルサービスの初期インタラクション情報と異なる構造化データを、前記スキルサービスの補足インタラクション情報とすることを含む。
上記の局面及び任意の実現可能な形態によれば、さらに、一実現形態を提供し、前記話術情報は、ユーザから提供される音声情報の音声認識結果及び/又はユーザから提供されるテキスト情報を含む。
上記の局面及び任意の実現可能な形態によれば、さらに、一実現形態を提供し、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことは、
前記スキルサービスの補足インタラクション情報を利用して、直接に前記ユーザインタラクションモデルに対して更新処理を行う、
又は、
前記スキルサービスの補足インタラクション情報に対して編集処理を行うことで、前記スキルサービスの編集インタラクション情報を取得し、前記編集インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行う、ことを含む。
上記の局面及び任意の実現可能な形態によれば、さらに、一実現形態を提供し、前記ユーザインタラクションモデルに対して更新処理を行うことは、
前記スキルサービスの補助インタラクションモデルを生成し、前記ユーザインタラクションモデル及び前記補助インタラクションモデルを利用してユーザに前記スキルサービスを提供する、
又は、
新しいユーザインタラクションモデルを生成し、前記新しいユーザインタラクションモデルを利用してユーザに前記スキルサービスを提供する、ことを含む。
本出願の他の局面によれば、スキルサービスの更新装置を提供し、
ユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得するためのものであり、前記ユーザインタラクションモデルは開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築される分析ユニットと、
前記スキルサービスの補足インタラクション情報を出力するための出力ユニットと、
前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答し、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うための更新ユニットとを含む。
上記の局面及び任意の実現可能な形態によれば、さらに、一実現形態を提供し、前記分析ユニットは、具体的に、
前記スキルサービスのユーザインタラクションログに対して分析処理を行うことで、構造化データを取得し、前記構造化データは、スキルサービスの名称、話術情報及び意図情報を含み、
前記スキルサービスの初期インタラクション情報に応じて、前記スキルサービスの初期インタラクション情報と異なる構造化データを、前記スキルサービスの補足インタラクション情報とするために用いられる。
上記の局面及び任意の実現可能な形態によれば、さらに、一実現形態を提供し、前記話術情報は、ユーザから提供される音声情報の音声認識結果及び/又はユーザから提供されるテキスト情報を含む。
上記の局面及び任意の実現可能な形態によれば、さらに、一実現形態を提供し、前記更新ユニットは、具体的に、前記スキルサービスの補足インタラクション情報を利用して、直接に前記ユーザインタラクションモデルに対して更新処理を行う、
又は、前記スキルサービスの補足インタラクション情報に対して編集処理を行うことで、前記スキルサービスの編集インタラクション情報を取得し、前記編集インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うために用いられる。
上記の局面及び任意の実現可能な形態によれば、さらに、一実現形態を提供し、前記更新ユニットは、具体的に、
前記スキルサービスの補助インタラクションモデルを生成し、前記ユーザインタラクションモデル及び前記補助インタラクションモデルを利用してユーザに前記スキルサービスを提供する、
又は、
新しいユーザインタラクションモデルを生成し、前記新しいユーザインタラクションモデルを利用してユーザに前記スキルサービスを提供するために用いられる。
本発明の他の局面によれば、
前記少なくとも一つのプロセッサに通信接続されるメモリとを含んでおり、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも一つのプロセッサによって実行されることで、上記の局面及び任意の実現可能な形態の方法を前記少なくとも一つのプロセッサに実行させることができる電子機器を提供する。
本発明の他の局面によれば、コンピューターに上記の局面及び任意の実現可能な形態の方法を実行させるためのコンピューターコマンドが記憶されている非一時的コンピューター可読記録媒体を提供する。
上記の技術案から、本出願の実施例は、開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築されるユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得し、ひいては、前記スキルサービスの補足インタラクション情報を出力することにより、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答し、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことができるようにし、開発者は自分でスキルサービスのユーザインタラクションを分析することなく、スキルサービスの更新を実現し、スマートデバイスによって提供されるスキルサービスの開発効率と確実性を向上させることができる。
また、本出願で提供される技術案を採用すると、スキルサービスのユーザインタラクションログに基づいて、スキルサービスの補足インタラクション情報を取得することにより、確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの強化を行い、不確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの補足を行うことができるようにし、スマートデバイスによって提供されるスキルサービスの確実性をさらに向上させることができる。
また、本出願で提供される技術案を採用すると、前記スキルサービスの補足インタラクション情報を出力することで、それから提供するサービスに想定外のインタラクション情報をさらに有することを開発者に対して積極的に喚起することができるようにし、より完備するサービスを実現し、これにより、スマートデバイスによって提供されるスキルサービスの開発効率をさらに向上させる。
また、本出願で提供される技術案を採用すると、ユーザエクスペリエンスを効果的に向上させることができる。
上記局面又は可能な実現形態が有する他の効果ついては、具体的な実施例に基づいて以下説明する。
本出願の実施例における技術案をより明確に説明するために、以下、実施例又は従来技術の説明に必要な図面を簡単に説明する。勿論、以下に説明する図面は、本出願のいくつかの実施例であり、当業者にとって、創造的な労働を要しない前提で、更にこれら図面に基づいてその他の図面を得ることができる。図面はこの方案をよりよく理解するためのものであり、本出願の制限を構成するものではない。図面において、
本出願の一実施例で提供されるスキルサービスの更新方法のフローチャート模式図である。 本出願の他の一実施例で提供されるスキルサービスの更新装置の構成模式図である。 本出願の実施例で提供されるスキルサービスの更新方法を実現するための電子機器の模式図である。
以下、図面に基づいて、本出願の例示的な実施例を記述する。理解を容易にするために、本出願の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。当業者は、本出願の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。明らか、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
記述する実施例は本出願の一部の実施例に過ぎず、実施例の全てではない。本出願における実施例に基づいて、当業者が創造的な労力をしない前提で得られる全ての他の実施例は、本出願の保護する範囲に属する。
説明する必要があることは、本出願の実施例に係る端末携帯電話、パーソナルデジタルアシスタント(PDA:Personal Digital Assistant)、無線携帯装置、タブレットコンピューター(Tablet Computer)、パーソナルコンピューター(PC:Personal Computer)、MP3プレーヤー、MP4プレーヤー、ウェアラブルデバイス(例えば、スマートメガネ、スマートウォッチ、スマートブレスレットなど)などを含み得るが、これらに限定されない。
また、本明細書での用語である「及び/又は」は、関連対象の関連関係を記述する用語だけであり、3種の関係の存在を表すことができ、例えば、A及び/又はBは、Aが単独に存在するか、AとBが同時に存在するか、Bが単独に存在かのような3種の場合を表すことができる。また、本明細書でのキャラクタである「/」は、一般に、前後の関連対象が「或いは」の関係であることを表す。
図1は、本出願の一実施例で提供されるスキルサービスの更新方法のフローチャート模式図であり、図1に示すようである。
101において、ユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得し、前記ユーザインタラクションモデルは、開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築される。
102において、前記スキルサービスの補足インタラクション情報を出力する。
103において、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答し、前記スキルサービスの補足インタラクション情報を利用して前記ユーザインタラクションモデルに対して更新処理を行う。
なお、101~103の実行本体の一部又は全部は、ローカル端末に位置するアプリケーションや、ローカル端末に位置するアプリケーションにインストールされたプラグイン又はソフトウェア開発キット(SDK:Software Development Kit)などの機能ユニット、或いは、ネットワーク側のサーバに位置する処理エンジンや、ネットワーク側に位置する分散型システム、例えば、ネットワーク側のインタラクション式音声オープンプラットフォームにおける処理エンジン又は分散型システムなどであってもよく、本実施例は特にこれを限定しない。
前記アプリケーションは、端末にインストールされたローカルプログラム(nativeApp)又は、端末のブラウザの一つのウェブプログラム(webApp)であってもよく、本実施例はこれを限定しないことを理解されたい。
このように、開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築されるユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得し、ひいては、前記スキルサービスの補足インタラクション情報を出力することにより、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答し、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことができるようにし、開発者は自分でスキルサービスのユーザインタラクションを分析することなく、スキルサービスの更新を実現し、スマートデバイスによって提供されるスキルサービスの開発効率と確実性を向上させることができる。
通常、開発者は、それから供給する一つ又は複数のサービスをAIシステムに基づくスマートデバイスに追加し、スマートデバイスのビジネスロジックとしてユーザの使用に供することができる。一般的に、スキルサービスの開発者は、当該スキルサービスの初期インタラクション情報を提供してもよく、各大手企業が提供するインタラクション式音声オープンプラットフォーム、例えばDBP(DuerOS Bot Platform)プラットフォームなどに基づいて、提供される当該スキルサービスの初期インタラクション情報を利用して、当該スキルサービスに対応するユーザインタラクションモデルを構築し、これにより、当該スキルサービスをスマートデバイスに追加し、スマートデバイスのビジネスロジックとしてユーザの使用に供する。なお、初期インタラクション情報のグループごとにスキルサービスの名称、話術情報、及び意図情報を含み得るがそれに限定されず、本出願は特にこれを限定しない。
なお、各大手企業が提供するインタラクション式音声オープンプラットフォーム、例えばDBP(DuerOS Bot Platform)プラットフォームなどに基づいて、当該スキルサービスに対応するユーザインタラクションモデルを構築する方法は、従来技術における様々な方法を採用可能であり、ユーザインタラクションモデルを構築した後に、ユーザは、スマートデバイスによって提供されるこのスキルサービスを使用できる。
具体的に、スマートデバイスは、ユーザから提供される音声情報を受信した後に、前記音声情報をDBPプラットフォームに送信することができる。DBPプラットフォームは、当該音声情報を受信したと、前記音声情報に対して音声認識処理を行うことで、音声認識結果を取得する。DBPプラットフォームは、前記音声認識結果に応じて、対応するスキルサービスのユーザインタラクションモデルと、前記スキルサービスのサービス側デバイスとを確定する。そして、DBPプラットフォームは、前記ユーザインタラクションモデルを利用して、音声情報の認識結果を、対応する意図情報、即ち、意図+スロットに変換し、前記スキルサービスのサービス側デバイスに送信し、サービス側デバイスは、前記意図情報のフィードバックを完了させ、当該フィードバックされた確認情報がDBPプラットフォームを介してスマートデバイスに送信され、スマートデバイスは当該フィードバックされた確認情報に対して出力処理、例えば、音声放送や、スクリーン表示などを行ってもよい。
ユーザから提供される情報は、音声情報に加えて、テキスト情報を提供する可能性がある。DBPプラットフォームは、スマートデバイスを介して、ユーザから提供されるテキスト情報を受信したと、直接に当該テキスト情報に応じて、対応するスキルサービスのユーザインタラクションモデルと、前記スキルサービスのサービス側デバイスを確定することができる。そして、DBPプラットフォームは、前記ユーザインタラクションモデルを利用して、テキスト情報を、対応する意図情報、即ち、意図+スロットに変換し、前記スキルサービスのサービス側デバイスに送信し、サービス側デバイスは前記意図情報のフィードバックを完了させ、当該フィードバックされた確認情報がDBPプラットフォームを介してスマートデバイスに送信され、スマートデバイスは当該フィードバックされた確認情報に対して出力処理、例えば、音声放送や、スクリーン表示などを行ってもよい。
DBPプラットフォームが前記ユーザインタラクションモデルを利用して、テキスト情報を、対応する意図情報に変換するプロセスにおいて、変換が成功したと、DBPプラットフォームは、変換された意図情報を、前記スキルサービスのサービス側デバイスに送信し、変換が成功しないと、DBPプラットフォームは、プリセットコマンド、例えば、Noneなどを、前記スキルサービスのサービス側デバイスに送信し、適切な意図情報をマッチングしなかったことを意味する。
ユーザがスマートデバイスによって提供されるスキルサービスを使用する過程において、ログシステムをさらに利用して、ユーザインタラクションを記録し、当該スキルサービスのユーザインタラクションログを生成してもよい。なお、各インタラクションログには、ログの識別、スキルサービスの名称、話術情報、意図情報及びフィードバックされた確認情報を含み得るがそれに限定されなず、本出願は特にこれを限定しない。また、フィードバックされる確認情報は、確実なフィードバックを示すことができるポジティブフィードバック確認と、不確実なフィードバックを示すことができるネガティブフィードバック確認とを含んでもよい。
なお、前記話術情報は、ユーザから提供される音声情報の音声認識結果及び/又はユーザから提供されるテキスト情報、例えば「今日の天気はどうですか」などを含み得るがそれに限定されず、本実施例は特にこれを限定しない。
選択的に、本実施例の可能な実現形態では、101において、具体的に、前記スキルサービスのユーザインタラクションログに対して分析処理を行うことで構造化データを取得し、前記構造化データは、スキルサービスの名称、話術情報及び意図情報を含む。そして、前記スキルサービスの初期インタラクション情報に応じて、前記スキルサービスの初期インタラクション情報と異なる構造化データを、前記スキルサービスの補足インタラクション情報としてもよい。
具体的に、一定周期で継続的にログシステムにアクセスして、前記スキルサービスのユーザインタラクションログを取得してもよい。そして、ユーザのインタラクションログに対してディープラーニングを行い、特に、ネガティブフィードバック確認を有するユーザログに対して、例えば、ログ識別(ID1)、スキルサービスの名称(知心天気)、話術情報(今日ダウンジャケットを着るのは適切ですか)、意図情報(None)及びフィードバックされた確認情報(申し訳ありません、聞き取れません、もう一度言ってください)などに対して分析処理を行うことで、構造化データを取得してもよい。
それでは、取得された各スキルサービスのユーザインタラクションログに基づいて、より確実な話術情報と意図情報を取得することにより、確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの強化を行うだけでなく、同時に取得された各スキルサービスのユーザインタラクションログに基づいて、確実な話術情報と意図情報を取得して、不確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの補足を行うこともでき、スマートデバイスによって提供されるスキルサービスの確実性をさらに向上させることができる。
選択的に、本実施例の可能な実現形態では、102において、具体的に、様々な形態を採用して、前記スキルサービスの補足インタラクション情報を出力することができる。このように、前記スキルサービスの補足インタラクション情報を出力することで、それが提供されるサービスに想定外のインタラクション情報をさらに有することを開発者に積極的に推奨・喚起し、開発者から提供されるサービスを完備させることができ、これにより、スマートデバイスによって提供されるスキルサービスの開発効率をさらに向上させることができる。
具体的な実現プロセスにおいて、具体的にインスタントメッセージ、電子メールなどのインスタントメッセージング方式を用いて、開発者に前記スキルサービスの補足インタラクション情報を出力してもよい。
他の具体的な実現プロセスにおいて、具体的に、システムメッセージを用いて、開発者に前記スキルサービスの補足インタラクション情報を出力してもよい。
選択的に、本実施例の可能な実現形態では、103の前に、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作をさらに取得してもよい。なお、当該操作は、操作ジェスチャを含み得るがそれに限定されなず、前記操作ジェスチャは、
開発者による前記スキルサービスの補足インタラクション情報に対応する操作コントロールに対する操作ジェスチャと、
開発者による前記スキルサービスの補足インタラクション情報の上方でのフローティング操作ジェスチャと、
開発者による前記スキルサービスの補足インタラクション情報に対する接触操作ジェスチャと、
開発者が前記スキルサービスの補足インタラクション情報に基づいて前記端末を動かす運動傾向との少なくとも1つを含み得るがそれに限定されない。
いわゆる開発者による前記スキルサービスの補足インタラクション情報に対応する操作コントロールに対する操作ジェスチャとは、開発者が端末の表示装置に表示されているスキルサービスの補足インタラクション情報に対応する確認操作コントロールを操作し、例えばクリック操作することである。いわゆる操作コントロールは、開発者がそれとインタラクトしてデータを入力又は操作することができるオブジェクトであり、1つ又は複数のページ要素から構成される。なお、いわゆるクリック操作のような操作は、開発者がマウスや、キーボードなどの外部入力装置を利用してカーソルを制御して行うトリガー操作であってもよいし、開発者が指やスタイラスなどのタッチ入力デバイスを利用して行うタッチ操作であってもよく、本実施例は特にこれを限定しない。
例えば、開発者は、具体的に、スキルサービスの補足インタラクション情報に対応する確認操作コントロールをクリック操作してもよく、開発者によるスキルサービスの補足インタラクション情報に対応する確認操作コントロールに対するクリック操作ジェスチャを確定したと、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことができる。
いわゆる開発者による前記スキルサービスの補足インタラクション情報の上方でのフローティング操作ジェスチャとは、開発者が使用する端末のイメージセンサの採集範囲において端末の表示装置に表示されているスキルサービスの補足インタラクション情報の上方にあるフローティングスライド軌跡であってもよい。なお、前記イメージセンサは、電荷結合素子(CCD :Charge Coupled Device)センサであってもよいし、金属酸化物半導体素子(CMOS: Complementary Metal-Oxide Semiconductor)センサであってもよく、本実施例は特にこれを限定しない。前記フローティングスライド軌跡は、若干の連続するスライドイベントに対応する若干の滞在点からなる直線又は任意の形状の曲線を含み得るがそれに限定されず、本実施例は特にこれを限定しない。
いわゆる開発者による前記スキルサービスの補足インタラクション情報に対する接触操作ジェスチャとは、開発者による使用する端末の表示装置に表示されているスキルサービスの補足インタラクション情報に対する接触スライド軌跡であってもよい。通常、端末は、表示装置にタッチ可能な特性があるかどうかに応じて、二つのタイプに分類されてもよく、1つのタイプはタッチ型の端末であり、もう一つのタイプは非タッチ式の端末である。具体的に、開発者によるタッチ型の端末のタッチパネルに表示されているスキルサービスの補足インタラクション情報に対する接触スライド軌跡を検出してもよい。前記接触スライド軌跡は、若干の連続するタッチイベントに対応する若干の滞在点からなる直線又は任意の形状の曲線を含み得るがそれに限定されず、本実施例は特にこれを限定しない。具体的に、開発者によるスキルサービスの補足インタラクション情報の任意の領域に対するクリック操作ジェスチャであってもよく、開発者によるスキルサービスの補足インタラクション情報の任意の領域に対する長押し操作ジェスチャであってもよく、開発者によるスキルサービスの補足インタラクション情報の任意の領域に対するスライド操作ジェスチャであってもよく、本実施例は特にこれを限定しない。
例えば、開発者は、具体的に、スキルサービスの補足インタラクション情報の任意の領域においてダブルクリック操作を行ってもよく、開発者によるスキルサービスの補足インタラクション情報の任意の領域に対するダブルクリック操作ジェスチャを取得したと、前記返答メッセージの内容情報を、前記第1のユーザに直接送信できる。
いわゆる開発者が前記スキルサービスの補足インタラクション情報に基づいて前記端末を動かす運動傾向とは、開発者が手で端末を持ち、端末の表示装置にスキルサービスの補足インタラクション情報を表示する場合に、端末を動かして行わせる運動の運動の運動軌跡、例えば、揺れ、回しなどである。
具体的な実現プロセスにおいて、具体的に、センサ装置を利用して、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作ジェスチャ検出してもよい。具体的に、前記センサ装置は、重力センサ、加速度センサ、圧力センサ、赤外線センサ、距離センサ、及びイメージセンサのうちの少なくとも1つを含み得るがそれに限定されず、本実施例は特にこれを限定しない。
なお、前記距離センサは超音波距離センサーであってもよく、或いは、赤外線距離センサーであってもよく、或いは、レーザー距離センサーであってもよく、或いは、マイクロ波距離センサーであってもよく、本実施例は特にこれを限定しない。これらの距離センサは、従来の成熟した技術であり、詳細な説明については、従来技術における関連内容を参照し、ここで重複説明を省略する。
なお、前記イメージセンサは電荷結合素子(CCD:Charge Coupled Device)センサであってもよいし、金属酸化物半導体素子(CMOS:Complementary Metal-Oxide Semiconductor)センサであってもよく、本実施例は特にこれを限定しない。
当該実現プロセスにおいて、いわゆる前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作ジェスチャを検出することは、具体的に、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作ジェスチャの開始点、終了点及び開始点から終了点までの軌跡を検出してもよく、或いは、前記軌跡に対応するラジアンデータをさらに検出してもよい。
上記の機能を実現するために、選択的に、本実施例の可能な実現形態において、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作を取得する前に、さらに、予め指定操作を設置してもよい。取得された操作が予め設置された指定操作を満たす場合にのみ、前記スキルサービスの補足インタラクション情報を利用して前記ユーザインタラクションモデルに対して更新処理を行うステップを実行することができる。
取得された操作が操作ジェスチャを含むことを例にとって、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作ジェスチャを取得したと、操作ジェスチャと予め設置された指定ジェスチャとを照合し、取得された操作ジェスチャが予め設置された指定ジェスチャを満たす場合にのみ、前記スキルサービスの補足インタラクション情報を利用して前記ユーザインタラクションモデルに対して更新処理を行うステップを実行することができる。
具体的に、前記指定ジェスチャのデータは端末の記憶デバイス装置に記憶されてもよい。
具体的な実現プロセスにおいて、端末の記憶は低速記憶デバイスであってよく、具体的に、コンピュータシステムのハードディスクであってよく、又は携帯電話の非動作メモリ、すなわち物理メモリ、例えば読み取り専用メモリ(ROM)及びメモリカードであってもよい。
他の具体的な実現プロセスにおいて、前記端末の記憶デバイスは高速記憶デバイスであってよく、具体的に、コンピュータシステムのメモリであってよく、又は携帯電話の動作メモリ、すなわちシステムメモリ、例えばランダムアクセスメモリ(RAM)等であってもよく、本実施例は特にこれを限定しない。
選択的に、本実施例の可能な実現形態では、103において、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作の応答操作として、具体的に、前記スキルサービスの補足インタラクション情報を利用し、様々な形態を採用して、前記ユーザインタラクションモデルに対して更新処理を行ってもよい。
具体的な実現プロセスにおいて、具体的に、前記スキルサービスの補足インタラクション情報を利用して、直接前記ユーザインタラクションモデルに対して更新処理を行ってもよい。
他の具体的な実現プロセスにおいて、具体的に、開発者の編集操作に応じて、前記スキルサービスの補足インタラクション情報に対して編集処理を行うことで、前記スキルサービスの編集インタラクション情報を取得してもよい。なお、前記編集処理は、追加処理、修正処理、及び削除処理のうちの少なくとも一つを含み得るがそれに限定されず、本実施例は特にこれを限定しない。例えば、出力された補足インタラクション情報における意図情報を修正して、開発者によって専門的に修正されたより精確な意図情報を取得する。そして、前記編集インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行ってもよい。
選択的に、本実施例の可能な実現形態において、103において、具体的に、様々な形態を採用して前記ユーザインタラクションモデルに対して更新処理を行ってもよい。
具体的な実現プロセスにおいて、具体的に、前記補足インタラクション情報、又は前記補足インタラクション情報に応じて編集処理を行った編集インタラクション情報を利用して、前記スキルサービスの補助インタラクションモデルを生成し、前記ユーザインタラクションモデル及び前記補助インタラクションモデルを利用してユーザに前記スキルサービスを提供してもよい。
例えば、前記補足インタラクション情報、又は前記補足インタラクション情報に応じて編集処理を行った編集インタラクション情報を、トレーニングデータとしてもよい。当該トレーニングデータを利用して、前記スキルサービスの補助インタラクションモデルを構築する。
ひいては、さらに、前記補助インタラクションモデルに応じて、前記ユーザインタラクションモデルのコードを完備させてもよい。
他の具体的な実現プロセスにおいて、具体的に、前記補足インタラクション情報、又は前記補足インタラクション情報に応じて編集処理を行った編集インタラクション情報を利用し、さらに前記ユーザインタラクションモデルを結合して、新しいユーザインタラクションモデルを生成し、前記新しいユーザインタラクションモデルを利用してユーザに前記スキルサービスを提供してもよい。
例えば、前記補足インタラクション情報、又は前記補足インタラクション情報に応じて編集処理を行った編集インタラクション情報を、トレーニングデータとしてもよい。当該トレーニングデータを利用して、さらに前記ユーザインタラクションモデルをトレーニングして、新しいユーザインタラクションモデルを生成する。
このように、スキルサービスのユーザインタラクションログに基づいて、スキルサービスの補足インタラクション情報を取得することにより、確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの強化を行い、不確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの補足を行うことができるようにし、スマートデバイスによって提供されるスキルサービスの確実性をさらに向上させることができる。
本実施例において、開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築されるユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得し、ひいては、前記スキルサービスの補足インタラクション情報を出力することにより、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答し、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことができるようにし、開発者は自分でスキルサービスのユーザインタラクションを分析することなく、スキルサービスの更新を実現し、スマートデバイスによって提供されるスキルサービスの開発効率と確実性を向上させることができる。
また、本出願で提供される技術案を採用すると、スキルサービスのユーザインタラクションログに基づいて、スキルサービスの補足インタラクション情報を取得することにより、確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの強化を行い、不確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの補足を行うことができるようにし、スマートデバイスによって提供されるスキルサービスの確実性をさらに向上させることができる。
また、本出願で提供される技術案を採用すると、前記スキルサービスの補足インタラクション情報を出力することで、それから提供するサービスに想定外のインタラクション情報をさらに有することを開発者に対して積極的に喚起することができるようにし、より完備するサービスを実現し、これにより、スマートデバイスによって提供されるスキルサービスの開発効率をさらに向上させる。
また、本出願で提供される技術案を採用すると、ユーザエクスペリエンスを効果的に向上させることができる。
説明する必要があることは、前記の各方法の実施例では、記述の簡素化をため、実施例を一連の動作の組み合わせとして表現したが、当業者は、本出願による幾らかのステップは他の順序に従って又は同時に実行することができるため、本出願は記述された動作の順序に制限されないことを説明する必要がある。次に、当業者は、明細書に記述された実施例はいずれも好ましい実施例に該当し、関連する動作及びモジュールは必ずしも本出願によって必要とされないことを理解すべきである。
上記の実施例において、各実施例に対する記述はそれぞれ重点を置いてあり、ある実施例では詳しい記述が有さないが、他の実施例の関連記述を参考することができる。
図2は、本出願の他の一実施例で提供されるスキルサービスの更新装置の構成模式図であり、図2に示すようである。本実施例に係るスキルサービスの更新装置200は分析ユニット201と、出力ユニット202と、更新ユニット203とを含むことができる。なお、分析ユニット201は、ユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得するために用いられ、前記ユーザインタラクションモデルは、開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築され、出力ユニット202は、前記スキルサービスの補足インタラクション情報を出力するために用いられ、更新ユニット203は、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答し、前記スキルサービスの補足インタラクション情報を利用して前記ユーザインタラクションモデルに対して更新処理を行うために用いられる。
説明する必要があることは、本実施例で提供されるスキルサービスの送信装置の実行本体の一部又は全部は、ローカル端末に位置するアプリケーションや、ローカル端末に位置するアプリケーションにインストールされたプラグイン又はソフトウェア開発キット(SDK:Software Development Kit)などの機能ユニット、或いは、ネットワーク側のサーバに位置する処理エンジンや、ネットワーク側に位置する分散型システム、例えば、ネットワーク側のインタラクション式音声オープンプラットフォームにおける処理エンジン又は分散型システムなどであってもよく、本実施例は特にこれを限定しない。
前記アプリケーションは、端末にインストールされたローカルプログラム(nativeApp)又は、端末のブラウザの一つのウェブプログラム(webApp)であってもよく、本実施例はこれを限定しないことを理解されたい。
選択的に、本実施例の可能な実現形態では、前記分析ユニット201は、具体的に、前記スキルサービスのユーザインタラクションログに対して分析処理を行うことで、構造化データを取得し、前記構造化データは、スキルサービスの名称、話術情報及び意図情報を含み、前記スキルサービスの初期インタラクション情報に応じて、前記スキルサービスの初期インタラクション情報と異なる構造化データを、前記スキルサービスの補足インタラクション情報とするために用いられてもよい。
なお、前記話術情報は、ユーザから提供される音声情報の音声認識結果及び/又はユーザから提供されるテキスト情報を含み得るがそれに限定されなず、本実施例は特にこれを限定しない。
選択的に、本実施例の可能な実現形態において、前記更新ユニット203は、具体的に、前記スキルサービスの補足インタラクション情報を利用して、直接に前記ユーザインタラクションモデルに対して更新処理を行う、又は、前記スキルサービスの補足インタラクション情報に対して編集処理を行うことで、前記スキルサービスの編集インタラクション情報を取得し、前記編集インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うために用いられてもよい。
選択的に、本実施例の可能な実現形態において、前記更新ユニット203は、具体的に、前記スキルサービスの補助インタラクションモデルを生成し、前記ユーザインタラクションモデル及び前記補助インタラクションモデルを利用してユーザに前記スキルサービスを提供する、又は、新しいユーザインタラクションモデルを生成し、前記新しいユーザインタラクションモデルを利用してユーザに前記スキルサービスを提供するために用いられてもよい。
説明する必要があることは、図1に対応する実施例における方法は、本実施例で提供されるスキルサービスの更新装置により実現されてもよい。詳細な記述は、図1に対応する実施例における相関コンテンツを参照でき、ここでは重複説明を省略する。
本実施例において、分析ユニットによりユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得し、前記ユーザインタラクションモデルは開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築され、ひいては、出力ユニットにより前記スキルサービスの補足インタラクション情報を出力し、更新ユニットが前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答し、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことができるようにし、開発者は自分でスキルサービスのユーザインタラクションを分析することなく、スキルサービスの更新を実現し、スマートデバイスによって提供されるスキルサービスの開発効率と確実性を向上させることができる。
また、本出願で提供される技術案を採用すると、スキルサービスのユーザインタラクションログに基づいて、スキルサービスの補足インタラクション情報を取得することにより、確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの強化を行い、不確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの補足を行うことができるようにし、スマートデバイスによって提供されるスキルサービスの確実性をさらに向上させることができる。
また、本出願で提供される技術案を採用すると、前記スキルサービスの補足インタラクション情報を出力することで、それから提供するサービスに想定外のインタラクション情報をさらに有することを開発者に対して積極的に喚起することができるようにし、より完備するサービスを実現し、これにより、スマートデバイスによって提供されるスキルサービスの開発効率をさらに向上させる。
また、本出願で提供される技術案を採用すると、ユーザエクスペリエンスを効果的向上させることができる。
本出願の実施例よれば、本出願は、電子機器、及びコンピューターコマンドが記憶されている非一時的コンピューター可読記録媒体をさらに提供する。
図3に示すように、本出願の実施例で提供されるスキルサービスの更新方法を実現するための電子機器の模式図である。電子機器は、様々な形式のデジタルコンピューター、例えば、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレームコンピューター、及び他の適切なコンピューターであることが意図される。電子機器は、様々な種類のモバイル装置、例えば、携帯情報端末、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の類似するコンピューティング装置を示してもよい。ここで示した構成要素、これらの接続及び関係、ならびにこれらの機能は例示にすぎなく、本明細書において説明及び/又は請求される本発明の実現を限定することが意図されない。
図3に示すように、当該電子機器は、一つ又は複数のプロセッサ301、メモリ302、及び各構成要素に接続するためのインターフェースを含み、高速インターフェース及び低速インターフェースを含む。各構成要素は、異なるバスで相互接続され、そして、共通マザーボードに、又は必要に応じて、他の方式で実装されてもよい。プロセッサは、電子機器内で実行されるコマンドを処理してもよく、メモリに又はメモリ上で外部入力/出力装置(例えば、インターフェースに結合される表示装置)にグラフィカルユーザインターフェースのグラフィカル情報を表示するコマンドを含む。他の実施形態において、において、複数のプロセッサ及び/又は複数のバスが、適宜、複数のメモリ及びメモリのタイプとともに用いられてもよい。同様に、複数の電子機器が接続されてもよく、それぞれの装置が(例えば、サーババンク、ブレードサーバの集まり、又はマルチプロセッサシステムとして)必要な操作の一部を提供する。図3において、一つのプロセッサ301を例にとる。
メモリ302は、本出願で提供される非一時的コンピューター可読記録媒体である。なお、前記メモリは、少なくとも一つのプロセッサによって実行可能なコマンドが記憶されており、前記少なくとも一つのプロセッサに本出願で提供されるスキルサービスの更新方法を実行させる。本出願の非一時的コンピューター可読記録媒体は、当該ココンピューターに本出願で提供されるスキルサービスの更新方法を実行させるためのコンピューターコマンドが記憶されている。
メモリ302は、非一時的コンピューター可読記録媒体として、非一時的ソフトウェアプログラム、非一時的コンピューター実行可能なプログラム、モジュール、例えば、本出願の実施例におけるスキルサービスの更新方法に対応するプログラムコマンド/モジュール(例えば、図2に示す分析ユニット201、出力ユニット202及び更新ユニット203)を記憶するために用いられる。プロセッサ301は、メモリ302に記憶されている非一時的ソフトウェアプログラム、コマンド及びユニットを実行することで、サーバーの様々な機能アプリケーション及びデータ処理を実行し、即ち、上記の方法実施例におけるスキルサービスの更新方法を実現する。
メモリ302は、記憶プログラム領域及び記憶データ領域を含んでもよく、記憶プログラム領域はオペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラムを記憶してもよく、記憶データ領域は本出願の実施例で提供されるスキルサービスの更新方法を実現する電子機器の使用により作成されたデータなどを記憶してもよい。また、メモリ302は、高速ランダムアクセスメモリを含んでもよく、さらに非一時的メモリを含んでもよく、例えば、少なくとも一つの磁気ディスク記憶装置、フラッシュメモリ装置、又は他の非一時的固体記憶装置を含んでもよい。幾つかの実施例において、メモリ302は、プロセッサ301に対してリモートに設置されたメモリを選択的に含んでもよく、これらのリモートメモリは、ネットワークを介して本出願の実施例で提供されるスキルサービスの更新方法を実現する電子機器に接続されてもよい。上記のネットワークの例には、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせが含まれるが、これらに限定されない。
スキルサービスの更新方法の電子機器は入力装置303と出力装置304をさらに含み得る。プロセッサ301、メモリ302、入力装置303、及び出力装置304はバス又は他の方式で接続されてもよく、図3に、バスで接続されることを例にとる。
入力装置303は、入力された数値又は文字情報を受信し、本出願の実施例で提供されるスキルサービスの更新方法を実現する電子機器のユーザ設定及び機能制御に関連するキー信号入力を生成でき、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置304は、表示装置、補助照明装置、触覚フィードバック装置(例えば、振動モーター)などを含むことができる。当該表示装置は、液晶ディスプレイ、発光ダイオードディスプレイ、及びプラズマディスプレイを含み得るが、これらに限定されない。 いくつかの実施形態では、表示装置はタッチスクリーンであってもよい。
本明細書に説明されるシステム及び技術的様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向け集積回路、コンピューターハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現することができる。これらの様々な実施形態は、記憶システム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及びコマンドを受信し、記憶システム、少なくとも一つの入力装置、及び少なくとも一つの出力装置にデータ及びコマンドを送信するようにつなげられた、特殊用途でもよく一般用途でもよい少なくとも一つのプログラマブルプロセッサを含む、プログラム可能なシステム上で実行可能及び/又は解釈可能な一つ又は複数のコンピュータープログラムにおける実行を含んでもよい。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又は、コードとも称される)は、プログラマブルプロセッサの機械コマンドを含み、高水準のプロセス及び/もしくはオブジェクト向けプログラミング言語、及び/又はアセンブリ/機械言語で実行されることができる。本明細書で用いられる「機械可読媒体」という用語は、機械可読信号としての機械コマンドを受け取る機械可読媒体を含むプログラマブルプロセッサに機械コマンド及び/又はデータを提供するのに用いられる任意のコンピュータープログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、及びプログラマブル論理デバイス)を指す。「機械可読信号」という用語は、プログラマブルプロセッサに機械コマンド及び/又はデータを提供するために用いられる任意の信号を指す。
ユーザとのインタラクションを提供するために、本明細書に説明されるシステムと技術は、ユーザに対して情報を表示するためのディスプレイデバイス(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニタ)、ユーザがコンピューターに入力を与えることができるキーボード及びポインティングデバイス(例えば、マウス又はトラックボール)を有するコンピューター上に実施されることが可能である。その他の種類の装置は、さらに、ユーザとのインタラクションを提供するために使用されることが可能であり、例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(例えば、視覚的フィードバック、聴覚的フィードバック、又は触覚的フィードバック)であり得、ユーザからの入力は、任意の形態で(声、音声、又は触覚による入力を含む)受信され得る。
本明細書に説明されるシステムと技術的実施形態は、バックエンド構成要素を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア構成要素を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド構成要素を含むコンピューティングシステム(例えば、グラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピューターであり、ユーザは、当該グラフィカルユーザインターフェースもしくは当該ウェブブラウザを通じて本明細書で説明されるシステムと技術的実施形態とインタラクションすることができる)、そのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムに実施されることが可能である。ステムの構成要素は、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されることが可能である。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイド・エリア・ネットワーク(「WAN」)、インターネットワークを含む。
コンピューターシステムは、クライアントとサーバーを含み得る。クライアントとサーバーは、一般的に互いから遠く離れており、通常は、通信ネットワークを通じてインタラクトする。クライアントとサーバとの関係は、相応するコンピューター上で実行さ、互いにクライアント-サーバの関係にあるコンピュータープログラムによって生じる。
本出願の実施例に係る技術案によれば、開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築されるユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得し、ひいては、前記スキルサービスの補足インタラクション情報を出力することにより、前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答し、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことができるようにし、開発者は自分でスキルサービスのユーザインタラクションを分析することなく、スキルサービスの更新を実現し、スマートデバイスによって提供されるスキルサービスの開発効率と確実性を向上させることができる。
また、本出願で提供される技術案を採用すると、スキルサービスのユーザインタラクションログに基づいて、スキルサービスの補足インタラクション情報を取得することにより、確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの強化を行い、不確実なフィードバックに対してスキルサービスのユーザインタラクションモデルの補足を行うことができるようにし、スマートデバイスによって提供されるスキルサービスの確実性をさらに向上させることができる。
また、本出願で提供される技術案を採用すると、前記スキルサービスの補足インタラクション情報を出力することで、それから提供するサービスに想定外のインタラクション情報をさらに有することを開発者に対して積極的に喚起することができるようにし、より完備するサービスを実現し、これにより、スマートデバイスによって提供されるスキルサービスの開発効率をさらに向上させる。
また、本出願で提供される技術案を採用すると、ユーザエクスペリエンスを効果的に向上させることができる。
以上で示された様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除できることを理解されたい。例えば、本出願に説明される各ステップは、並列の順序又は順次的な順序で実施されてもよいし、又は異なる順序で実行されてもよく、本出願で開示された技術案の望ましい結果が達成できる限り、ここで制限されない。
上記の具体的な実施形態は本出願の保護範囲に対する制限を構成しない。設計要件及び他の要因に従って、様々な修正、組み合わせ、部分的組み合わせ及び置換を行うことができることを当業者は理解するべきである。本出願の精神及び原則の範囲内で行われる修正、同等の置換、改善は、本出願の保護範囲内に含まれるべきである。

Claims (13)

  1. スキルサービスの更新方法であって、
    ユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得し、前記ユーザインタラクションモデルは、開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築されたものであり、
    前記スキルサービスの補足インタラクション情報を出力し、
    前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答して、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことを含む方法。
  2. 前記ユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得することは、
    前記スキルサービスのユーザインタラクションログに対して分析処理を行うことで、構造化データを取得し、前記構造化データはスキルサービスの名称、話術情報及び意図情報を含み、
    前記スキルサービスの初期インタラクション情報に応じて、前記スキルサービスの初期インタラクション情報と異なる構造化データを、前記スキルサービスの補足インタラクション情報とすることを含む請求項1に記載の方法。
  3. 前記話術情報は、ユーザから提供される音声情報の音声認識結果及び/又はユーザから提供されるテキスト情報を含む請求項2に記載の方法。
  4. 前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うことは、
    前記スキルサービスの補足インタラクション情報を利用して、直接に前記ユーザインタラクションモデルに対して更新処理を行うこと、
    又は、
    前記スキルサービスの補足インタラクション情報に対して編集処理を行うことで、前記スキルサービスの編集インタラクション情報を取得し、前記編集インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うこと、を含む請求項1に記載の方法。
  5. 前記ユーザインタラクションモデルに対して更新処理を行うことは、
    前記スキルサービスの補助インタラクションモデルを生成し、前記ユーザインタラクションモデル及び前記補助インタラクションモデルを利用してユーザに前記スキルサービスを提供すること、
    又は、
    新しいユーザインタラクションモデルを生成し、前記新しいユーザインタラクションモデルを利用してユーザに前記スキルサービスを提供する、ことを含む請求項1〜4のいずれか一項に記載の方法。
  6. スキルサービスの更新装置であって、
    ユーザインタラクションモデルに基づくスキルサービスのユーザインタラクションログに応じて、前記スキルサービスの補足インタラクション情報を取得するための分析ユニットであって、前記ユーザインタラクションモデルは開発者から提供される前記スキルサービスの初期インタラクション情報に応じて構築されたものである、分析ユニットと、
    前記スキルサービスの補足インタラクション情報を出力するための出力ユニットと、
    前記開発者による前記スキルサービスの補足インタラクション情報に基づく操作に応答して、前記スキルサービスの補足インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うための更新ユニットとを含む装置。
  7. 前記分析ユニットは、
    前記スキルサービスのユーザインタラクションログに対して分析処理を行うことで、構造化データを取得し、前記構造化データは、スキルサービスの名称、話術情報及び意図情報を含み、
    前記スキルサービスの初期インタラクション情報に応じて、前記スキルサービスの初期インタラクション情報と異なる構造化データを、前記スキルサービスの補足インタラクション情報とするために用いられる請求項6に記載の装置。
  8. 前記話術情報は、ユーザから提供される音声情報の音声認識結果及び/又はユーザから提供されるテキスト情報を含む請求項7に記載の装置。
  9. 前記更新ユニットは、
    前記スキルサービスの補足インタラクション情報を利用して、直接に前記ユーザインタラクションモデルに対して更新処理を行うこと、
    又は、
    前記スキルサービスの補足インタラクション情報に対して編集処理を行うことで、前記スキルサービスの編集インタラクション情報を取得し、前記編集インタラクション情報を利用して、前記ユーザインタラクションモデルに対して更新処理を行うこと、のために用いられる請求項6に記載の装置。
  10. 前記更新ユニットは、
    前記スキルサービスの補助インタラクションモデルを生成し、前記ユーザインタラクションモデル及び前記補助インタラクションモデルを利用してユーザに前記スキルサービスを提供すること、
    又は、
    新しいユーザインタラクションモデルを生成し、前記新しいユーザインタラクションモデルを利用してユーザに前記スキルサービスを提供すること、のために用いられる請求項6〜9のいずれか一項に記載の装置。
  11. 電子機器であって、
    少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサに通信接続されるメモリとを含んでおり、
    前記メモリには、前記少なくとも一つのプロセッサによって実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも一つのプロセッサによって実行されることで、請求項1〜5のいずれか一項に記載の方法を前記少なくとも一つのプロセッサに実行させる電子機器。
  12. コンピューターに請求項1〜5のいずれか一項に記載の方法を実行させるためのコンピューターコマンドが記憶されている非一時的コンピューター可読記録媒体。
  13. コンピューターに請求項1〜5のいずれか一項に記載の方法を実行させるためのコンピュータープログラム。
JP2020151593A 2020-01-08 2020-09-09 スキルサービスの更新方法、装置、電子機器、プログラム及び可読記憶媒体 Active JP7092282B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010016922.7A CN111209023B (zh) 2020-01-08 2020-01-08 技能服务的更新方法、装置、电子设备及可读存储介质
CN2020100169227 2020-01-08

Publications (2)

Publication Number Publication Date
JP2021111336A true JP2021111336A (ja) 2021-08-02
JP7092282B2 JP7092282B2 (ja) 2022-06-28

Family

ID=70789570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020151593A Active JP7092282B2 (ja) 2020-01-08 2020-09-09 スキルサービスの更新方法、装置、電子機器、プログラム及び可読記憶媒体

Country Status (3)

Country Link
US (1) US20210210070A1 (ja)
JP (1) JP7092282B2 (ja)
CN (1) CN111209023B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113793612B (zh) * 2021-09-15 2024-04-09 京东科技信息技术有限公司 模型服务的更新方法、装置及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151578A (ja) * 2017-03-14 2018-09-27 ヤフー株式会社 決定装置、決定方法および決定プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7558828B1 (en) * 2003-05-29 2009-07-07 Aol Llc, A Delaware Limited Liability Company Enabling electronic logging using an instant message system
US20110060587A1 (en) * 2007-03-07 2011-03-10 Phillips Michael S Command and control utilizing ancillary information in a mobile voice-to-speech application
CN103581218B (zh) * 2012-07-20 2018-12-18 百度在线网络技术(北京)有限公司 一种用于更新移动终端中移动搜索应用的方法与设备
WO2016151699A1 (ja) * 2015-03-20 2016-09-29 株式会社 東芝 学習装置、方法およびプログラム
CN105068661B (zh) * 2015-09-07 2018-09-07 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法和系统
CN106201844B (zh) * 2016-06-29 2019-01-01 北京智能管家科技有限公司 一种日志收集方法及装置
CN106227727A (zh) * 2016-06-30 2016-12-14 乐视控股(北京)有限公司 一种分布式系统的日志更新方法、装置与系统
CN109582872B (zh) * 2018-12-04 2021-11-16 北京羽扇智信息科技有限公司 一种信息推送方法、装置、电子设备及存储介质
US11508365B2 (en) * 2019-08-19 2022-11-22 Voicify, LLC Development of voice and other interaction applications

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151578A (ja) * 2017-03-14 2018-09-27 ヤフー株式会社 決定装置、決定方法および決定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
奥村 学監修,中野 幹生(外3名)著, 「対話システム」, vol. 初版, JPN6021044932, 13 February 2015 (2015-02-13), JP, pages 66 - 73, ISSN: 0004640965 *

Also Published As

Publication number Publication date
CN111209023A (zh) 2020-05-29
CN111209023B (zh) 2023-06-23
JP7092282B2 (ja) 2022-06-28
US20210210070A1 (en) 2021-07-08

Similar Documents

Publication Publication Date Title
US10089056B2 (en) Device, method, and graphical user interface for collaborative editing in documents
US9965465B2 (en) Distributed server system for language understanding
WO2021232930A1 (zh) 应用分屏方法、装置、存储介质及电子设备
CN108885521B (zh) 跨环境共享
US20180107279A1 (en) Applications, systems, and methods for facilitating emotional gesture-based communications
US20140160032A1 (en) Swipe Stroke Input and Continuous Handwriting
WO2020200263A1 (zh) 信息流中图片的处理方法、设备及计算机可读存储介质
EP3504702A1 (en) Systems and methods for artifical intelligence voice evolution
CN110311856A (zh) 即时通信方法、设备及计算机可读存储介质
US20200233523A1 (en) Sequential two-handed touch typing on a mobile device
JP7092282B2 (ja) スキルサービスの更新方法、装置、電子機器、プログラム及び可読記憶媒体
JP7251025B2 (ja) 推薦表情の確定方法、装置、デバイス及びコンピュータ記憶媒体
KR20210154330A (ko) 빅데이터를 활용한 피부진단 ai시스템 및 광고 플랫폼 개발방법
US20240338120A1 (en) Intent and target determination for digital handwriting input
US11620030B2 (en) Coherent gestures on touchpads and touchscreens
CN109643215B (zh) 基于手势输入的应用处理
KR20230059615A (ko) 광고를 위한 인공지능 인터페이스 시스템 및 플랫폼 개발 방법
KR20230001414A (ko) 광고를 위한 인공지능 인터페이스 시스템 및 플랫폼 개발 방법
KR20220102238A (ko) 광고를 위한 인공지능 인터페이스 시스템 및 플랫폼 개발 방법
KR20210130929A (ko) 광고를 위한 인공지능 인터페이스 시스템 및 플랫폼 개발 방법
KR20220050006A (ko) 광고를 위한 인공지능 인터페이스 시스템 및 플랫폼 개발 방법
KR20220026669A (ko) 광고를 위한 인공지능 인터페이스 시스템 및 플랫폼 개발 방법
KR20210105679A (ko) 인공지능 모바일 인터페이스 시스템 및 방법
WO2023163824A1 (en) Semantic user input
CN117520489A (zh) 基于aigc的交互方法、装置、设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200909

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220531

R150 Certificate of patent or registration of utility model

Ref document number: 7092282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02