JP6987969B2 - 自然言語処理のためのネットワークベースの学習モデル - Google Patents
自然言語処理のためのネットワークベースの学習モデル Download PDFInfo
- Publication number
- JP6987969B2 JP6987969B2 JP2020508313A JP2020508313A JP6987969B2 JP 6987969 B2 JP6987969 B2 JP 6987969B2 JP 2020508313 A JP2020508313 A JP 2020508313A JP 2020508313 A JP2020508313 A JP 2020508313A JP 6987969 B2 JP6987969 B2 JP 6987969B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- workflow
- network
- information
- conditions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003058 natural language processing Methods 0.000 title claims description 20
- 230000003993 interaction Effects 0.000 claims description 56
- 238000000034 method Methods 0.000 claims description 32
- 230000009471 action Effects 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Description
Claims (21)
- 自然言語処理のためのネットワークベースの学習モデルのシステムであって、前記システムが、
現在のコンテンツタイトルとのユーザ相互作用の間、現在の条件のセットを検出し、前記現在の条件のセットのもとでユーザによって行われた音声発話を取り込むマイクロフォンを含むエンドユーザデバイスと、
ネットワークサーバであって、
前記検出された条件のセットに関する情報及び前記音声発話のデジタル録音を受信するネットワークインターフェイスと、
メモリであって、
前記現在のコンテンツタイトルとの追跡されたユーザ相互作用と、
各カスタマイズされたワークフローが前記ユーザによって以前に取られた1つまたは複数のアクション及び前記ユーザが前記アクションのそれぞれを取った1つまたは複数の条件を特定する1つまたは複数のルールに関連付けられた、前記ユーザにカスタマイズされた複数の異なるワークフローと
に関する情報を格納する前記メモリと、
メモリに格納された命令を実行するプロセッサであって、前記プロセッサによる前記命令の実行が、
前記格納されたユーザ相互作用情報に基づいて前記音声発話を解釈し、
前記音声発話の前記解釈及び前記ルールの特定された一つに対応する前記検出された条件のセットに基づいて前記ユーザの意図を識別し、
前記識別された意図に基づいて予測を行い、前記予測が、前記ユーザにカスタマイズされた前記複数のワークフローから選択されたワークフローに対応し、前記選択されたワークフローが、前記検出された条件のセットに合致する条件を特定するルールに関連付けられ、
前記現在のコンテンツタイトルに関して前記選択されたワークフローに関連付けられた前記アクションを実行し、前記実行されるアクションが、前記選択されたワークフローに基づく、
前記プロセッサと
を含む、前記ネットワークサーバとを含む、システム。 - 前記ネットワークサーバが、1つまたは複数のソーシャルコンタクトとの現在の相互作用中に、前記音声発話が行われたことを識別する、請求項1に記載のシステム。
- 前記プロセッサが、前記ソーシャルコンタクトとの前記相互作用に重み付けすることによって前記意図を識別する、請求項2に記載のシステム。
- 重みが、前記ソーシャルコンタクトが属するカテゴリにさらに基づく、請求項3に記載のシステム。
- 前記プロセッサが、前記音声発話の分析に基づいて、前記ソーシャルコンタクトが属する前記カテゴリをさらに識別する、請求項4に記載のシステム。
- 前記プロセッサが、前記ソーシャルコンタクトのうちの1つの少なくとも1つのユーザプロファイルの分析に基づいて、前記ソーシャルコンタクトが属する前記カテゴリをさらに識別する、請求項5に記載のシステム。
- 前記カテゴリが、対象者属性、再生されているコンテンツタイトル、コンテンツタイトルが再生される頻度、前記コンテンツタイトルのレベル、及びコミュニティメンバシップのうちの少なくとも1つに基づく、請求項4に記載のシステム。
- 前記プロセッサが、前記ソーシャルコンタクトのうちの1つによる各ネットワークコンテンツとの相互作用に関する情報を重み付けすることによって、前記意図を識別する、請求項2に記載のシステム。
- 前記ネットワークサーバが、ネットワークコンテンツとの現在の相互作用中に前記音声発話が行われたことを識別し、前記現在の相互作用に関する前記格納されたユーザ相互作用情報をさらに更新する、請求項1に記載のシステム。
- 格納された各ワークフローが、異なるタイプの意図に関連付けられている、請求項1に記載のシステム。
- 自然言語処理のためのネットワークベースの学習モデルの方法であって、前記方法が、
情報をメモリに格納することであって、前記情報が、
現在のコンテンツタイトルとの追跡されたユーザ相互作用と、
各カスタマイズされたワークフローが前記ユーザによって以前に取られた1つまたは複数のアクション及び前記ユーザが前記アクションのそれぞれを取った1つまたは複数の条件を特定する1つまたは複数のルールに関連付けられた、前記ユーザにカスタマイズされた複数の異なるワークフローと
に関する、前記情報をメモリに格納することと、
前記現在のコンテンツタイトルとのユーザ相互作用の間、現在の条件のセットを検出することと、
前記現在の条件のセットのもとで前記ユーザによって行われた音声発話のデジタル録音を取り込むことと、
メモリに格納された命令を実行することであって、プロセッサによる前記命令の実行が、
前記格納されたユーザ相互作用情報に基づいて前記音声発話を解釈し、
前記音声発話の前記解釈及び前記ルールの特定された一つに対応する前記検出された条件のセットに基づいて前記ユーザの意図を識別し、
前記識別された意図に基づいて予測を行い、前記予測が、前記ユーザにカスタマイズされた前記複数のワークフローから選択されたワークフローに対応し、前記選択されたワークフローが、前記検出された条件のセットに合致する条件を特定するルールに関連付けられ、
前記現在のコンテンツタイトルに関して前記選択されたワークフローに関連付けられた前記アクションを実行し、前記実行されるアクションが、前記選択されたワークフローに基づく、方法。 - 1つまたは複数のソーシャルコンタクトとの現在の相互作用中に前記音声発話が行われたことを識別することをさらに含む、請求項11に記載の方法。
- 前記意図を識別することが、前記ソーシャルコンタクトとの前記相互作用に重み付けすること含む、請求項12に記載の方法。
- 前記重み付けすることが、前記ソーシャルコンタクトが属するカテゴリにさらに基づく、請求項13に記載の方法。
- 前記音声発話の分析に基づいて、前記ソーシャルコンタクトが属する前記カテゴリを識別することをさらに含む、請求項14に記載の方法。
- 前記ソーシャルコンタクトのうちの1つの少なくとも1つのユーザプロファイルの分析に基づいて、前記ソーシャルコンタクトが属する前記カテゴリを識別することをさらに含む、請求項15に記載の方法。
- 前記カテゴリが、対象者属性、再生されているコンテンツタイトル、コンテンツタイトルが再生される頻度、前記コンテンツタイトルのレベル、及びコミュニティメンバシップのうちの少なくとも1つに基づく、請求項14に記載の方法。
- 前記意図を識別することが、前記ソーシャルコンタクトのうちの1つによる各ネットワークコンテンツとの相互作用に関する情報を重み付けすることを含む、請求項12に記載の方法。
- ネットワークコンテンツとの現在の相互作用中に前記音声発話が行われたことを識別し、前記現在の相互作用に関する前記格納されたユーザ相互作用情報を更新することをさらに含む、請求項11に記載の方法。
- 格納された各ワークフローが、異なるタイプの意図に関連付けられている、請求項11に記載の方法。
- 自然言語処理のためのネットワークベースの学習モデルの方法を実行するために、プロセッサによって実行可能なプログラムを具体化した非一時的コンピュータ可読媒体であって、前記方法が、
情報をメモリに格納することであって、前記情報が、
現在のコンテンツタイトルとの追跡されたユーザ相互作用と、
各カスタマイズされたワークフローが前記ユーザによって以前に取られた1つまたは複数のアクション及び前記ユーザが前記アクションのそれぞれを取った1つまたは複数の条件を特定する1つまたは複数のルールに関連付けられた、前記ユーザにカスタマイズされた複数の異なるワークフローと
に関する、前記情報をメモリに格納することと、
前記現在のコンテンツタイトルとのユーザ相互作用の間、現在の条件のセットを検出することと、
前記現在の条件のセットのもとで前記ユーザによって行われた音声発話のデジタル録音を取り込むことと、
前記格納されたユーザ相互作用情報に基づいて前記音声発話を解釈することと、
前記音声発話の前記解釈及び前記ルールの特定された一つに対応する前記検出された条件のセットに基づいて前記ユーザの意図を識別することと、
前記識別された意図に基づいて予測を行うことであって、前記予測が、前記ユーザにカスタマイズされた前記複数のワークフローから選択されたワークフローに対応し、前記選択されたワークフローが、前記検出された条件のセットに合致する条件を特定するルールに関連付けられる、前記予測を行うことと、
前記現在のコンテンツタイトルに関して前記選択されたワークフローに関連付けられた前記アクションを実行することであって、前記実行されるアクションが、前記選択されたワークフローに基づく、前記実行することと、を含む、非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/682,381 | 2017-08-21 | ||
US15/682,381 US10885901B2 (en) | 2017-08-21 | 2017-08-21 | Network-based learning models for natural language processing |
PCT/US2018/041837 WO2019040197A1 (en) | 2017-08-21 | 2018-07-12 | NETWORKING BASED LEARNING MODELS FOR NATURAL LANGUAGE PROCESSING |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020531895A JP2020531895A (ja) | 2020-11-05 |
JP6987969B2 true JP6987969B2 (ja) | 2022-01-05 |
Family
ID=65361069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020508313A Active JP6987969B2 (ja) | 2017-08-21 | 2018-07-12 | 自然言語処理のためのネットワークベースの学習モデル |
Country Status (6)
Country | Link |
---|---|
US (2) | US10885901B2 (ja) |
EP (1) | EP3673388A4 (ja) |
JP (1) | JP6987969B2 (ja) |
KR (1) | KR102451925B1 (ja) |
CN (1) | CN111316280B (ja) |
WO (1) | WO2019040197A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10885901B2 (en) | 2017-08-21 | 2021-01-05 | Sony Interactive Entertainment LLC | Network-based learning models for natural language processing |
US10987593B2 (en) * | 2018-09-19 | 2021-04-27 | Sony Interactive Entertainment LLC | Dynamic interfaces for launching direct gameplay |
US10695671B2 (en) | 2018-09-28 | 2020-06-30 | Sony Interactive Entertainment LLC | Establishing and managing multiplayer sessions |
US11120217B2 (en) * | 2018-12-18 | 2021-09-14 | Micro Focus Llc | Natural language translation-based orchestration workflow generation |
US20230163987A1 (en) * | 2021-11-23 | 2023-05-25 | Sony Interactive Entertainment Inc. | Personal space bubble in vr environments |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001268669A (ja) | 2000-03-21 | 2001-09-28 | Ricoh Co Ltd | 移動電話端末を利用した機器制御装置、方法、及び記録媒体 |
US10127563B2 (en) * | 2011-09-15 | 2018-11-13 | Stephan HEATH | System and method for providing sports and sporting events related social/geo/promo link promotional data sets for end user display of interactive ad links, promotions and sale of products, goods, gambling and/or services integrated with 3D spatial geomapping, company and local information for selected worldwide locations and social networking |
US9473809B2 (en) | 2011-11-29 | 2016-10-18 | At&T Intellectual Property I, L.P. | Method and apparatus for providing personalized content |
WO2015020942A1 (en) * | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
WO2015053861A2 (en) * | 2013-10-09 | 2015-04-16 | Viv Labs, Inc. | Dynamically evolving cognitive architecture system based on a natural language intent interpreter |
US20170337261A1 (en) * | 2014-04-06 | 2017-11-23 | James Qingdong Wang | Decision Making and Planning/Prediction System for Human Intention Resolution |
US11429883B2 (en) * | 2015-11-13 | 2022-08-30 | Microsoft Technology Licensing, Llc | Enhanced computer experience from activity prediction |
US10810532B2 (en) * | 2017-02-28 | 2020-10-20 | Fuji Xerox Co., Ltd. | Systems and methods for access control based on machine-learning |
US10748172B2 (en) * | 2017-03-03 | 2020-08-18 | Twitter, Inc. | Increasing social media presence using machine-learning relevance techniques |
US10885901B2 (en) | 2017-08-21 | 2021-01-05 | Sony Interactive Entertainment LLC | Network-based learning models for natural language processing |
-
2017
- 2017-08-21 US US15/682,381 patent/US10885901B2/en active Active
-
2018
- 2018-07-12 EP EP18847754.1A patent/EP3673388A4/en not_active Ceased
- 2018-07-12 WO PCT/US2018/041837 patent/WO2019040197A1/en unknown
- 2018-07-12 CN CN201880054571.XA patent/CN111316280B/zh active Active
- 2018-07-12 KR KR1020207004408A patent/KR102451925B1/ko active IP Right Grant
- 2018-07-12 JP JP2020508313A patent/JP6987969B2/ja active Active
-
2021
- 2021-01-05 US US17/142,005 patent/US11600266B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR102451925B1 (ko) | 2022-10-07 |
WO2019040197A1 (en) | 2019-02-28 |
US10885901B2 (en) | 2021-01-05 |
KR20200040766A (ko) | 2020-04-20 |
CN111316280A (zh) | 2020-06-19 |
CN111316280B (zh) | 2023-11-07 |
US20190057686A1 (en) | 2019-02-21 |
JP2020531895A (ja) | 2020-11-05 |
US11600266B2 (en) | 2023-03-07 |
EP3673388A1 (en) | 2020-07-01 |
US20210201898A1 (en) | 2021-07-01 |
EP3673388A4 (en) | 2021-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6987969B2 (ja) | 自然言語処理のためのネットワークベースの学習モデル | |
JP6850805B2 (ja) | コンピューティングデバイスにおけるユーザ対話動作の自動実行 | |
KR20190044523A (ko) | 디바이스들 간의 상태 상호작용의 캡슐화 및 동기화 | |
US20120311032A1 (en) | Emotion-based user identification for online experiences | |
US20230096357A1 (en) | Emotion detection & moderation based on voice inputs | |
US11775739B2 (en) | Visual tagging and heat-mapping of emotion | |
JP6835893B2 (ja) | ゲームリプレイ方法およびシステム | |
JP6243564B1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
US20230163987A1 (en) | Personal space bubble in vr environments | |
KR20120105839A (ko) | 게임 서비스 시스템 및 그의 게임 실행 방법 | |
CN114073056A (zh) | 数字内容的上下文层 | |
US20240029726A1 (en) | Intent Identification for Dialogue Support | |
US20240029725A1 (en) | Customized dialogue support | |
US11579839B1 (en) | Audio analytics and accessibility across applications and platforms | |
US11580313B1 (en) | Translation and communication filters for social interaction | |
US11992756B2 (en) | Personalized VR controls and communications | |
US20140364239A1 (en) | Method and system for creating a virtual social and gaming experience | |
JP2018156625A (ja) | 情報処理装置、情報処理方法、および情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200413 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6987969 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |