JP7462070B2 - インタラクション情報処理方法、装置、電子デバイス及び記憶媒体 - Google Patents
インタラクション情報処理方法、装置、電子デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP7462070B2 JP7462070B2 JP2022564172A JP2022564172A JP7462070B2 JP 7462070 B2 JP7462070 B2 JP 7462070B2 JP 2022564172 A JP2022564172 A JP 2022564172A JP 2022564172 A JP2022564172 A JP 2022564172A JP 7462070 B2 JP7462070 B2 JP 7462070B2
- Authority
- JP
- Japan
- Prior art keywords
- interaction
- interaction information
- target
- user
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 531
- 230000010365 information processing Effects 0.000 title claims description 49
- 238000003672 processing method Methods 0.000 title claims description 38
- 238000000034 method Methods 0.000 claims description 71
- 230000000694 effects Effects 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 9
- 101150054987 ChAT gene Proteins 0.000 claims description 5
- 101100203187 Mus musculus Sh2d3c gene Proteins 0.000 claims description 5
- 230000006399 behavior Effects 0.000 description 117
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- APLNAFMUEHKRLM-UHFFFAOYSA-N 2-[5-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]-1,3,4-oxadiazol-2-yl]-1-(3,4,6,7-tetrahydroimidazo[4,5-c]pyridin-5-yl)ethanone Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)C1=NN=C(O1)CC(=O)N1CC2=C(CC1)N=CN2 APLNAFMUEHKRLM-UHFFFAOYSA-N 0.000 description 1
- YLZOPXRUQYQQID-UHFFFAOYSA-N 3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)-1-[4-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]piperazin-1-yl]propan-1-one Chemical compound N1N=NC=2CN(CCC=21)CCC(=O)N1CCN(CC1)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F YLZOPXRUQYQQID-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 208000030251 communication disease Diseases 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Debugging And Monitoring (AREA)
Description
リアルタイムインタラクションインターフェースに基づいてユーザーがインタラクションを行う過程において、ユーザーのインタラクション行動データに基づいてインタラクション情報記録を生成するステップと、
前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別するステップと、
前記ターゲットインタラクション情報を、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示するステップであって、前記ターゲットインタラクション情報が、前記インタラクション情報記録における1つまたは複数のインタラクション情報要素であるステップとを含む。
リアルタイムインタラクションインターフェースに基づいてユーザーがインタラクションを行う過程において、ユーザーのインタラクション行動データに基づいてインタラクション情報記録を生成するインタラクション情報記録モジュールと、
前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別するインタラクション情報選別モジュールと、
前記ターゲットインタラクション情報を、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示するインタラクション情報区別表示モジュールであって、前記ターゲットインタラクション情報が、前記インタラクション情報記録における1つまたは複数のインタラクション情報要素であるインタラクション情報区別表示モジュールと、を含む。
1つ以上のプロセッサと、
1つ以上のプログラムを記憶するための記憶装置とを含み、
前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるときに、前記1つ以上のプロセッサに本開示のいずれか1つの実施例に係るインタラクション情報処理方法を実現させる。
図1は、本開示の実施例1に係るインタラクション情報処理方法のフローチャートである。本開示の実施例は、インターネットによってサポートされるリアルタイムインタラクション応用シナリオにおいてユーザーによってインタラクションされる情報を処理・表示することに適用される。当該方法は、インタラクション情報処理装置によって実行されることができ、当該装置は、ソフトウェア及び/またはハードウェアの形態で実現されることができ、オプションとして電子デバイスによって実現されることができる。当該電子デバイスは、移動端末、PC(パーソナルコンピュータ、パソコン)やサーバーなどであってもよい。リアルタイムインタラクション応用シナリオは、通常、クライアントとサーバーによって協働して実施されることができる。本実施例に係る方法は、クライアント、サーバー、または両方の協働によって実施されることができる。
図2は、本開示の実施例2に係るインタラクション情報処理方法のフローチャートである。本実施例は、前述の実施例に基づいて、ターゲット選別条件を決定する方法及び内容についての具体的なオプション技術案を提供する。本実施例の方法は、具体的には以下のステップを含む。
前記選別コントロールは、選別リスト、条件入力ボックス、及びタブラベルのうちの少なくとも1つを含む。
図3は、本開示の実施例3に係るインタラクション情報処理方法のフローチャートである。本実施例は、前述の実施例に基づいて、ターゲット選別条件を決定するための別の具体的な実施方法を提供する。この方法は次のステップを含む。
例えば、インタラクション行動データに基づいてユーザーの現在の活躍度値を決定することができ、その後、ユーザーの現在の活躍度値が予め設定された基準に達したときに、現在の活躍度値が予め設定された活躍度値よりも高くなるユーザーをターゲット選別条件とすることができる。これによって、活躍しているユーザーのインタラクションコンテンツのみを表示する効果が奏される。設定基準は、例えば、活躍度のレベルが高くなるN~M人のユーザーであり、NとMはいずれも設定された正の整数である。
言語タイプにより、ユーザーにコミュニケーション障害が存在する可能性があるため、言語タイプに基づいてターゲット選別条件を決定することができる。具体的には、
前記インタラクション行動データにおける音声データに基づいて、各ユーザーに対応する現在の言語タイプを決定し、現在の言語タイプとは異なる他の言語タイプをターゲット選別条件とするステップ、または、
各クライアントに予め設定されたターゲット言語タイプを収集し、前記ターゲット言語タイプとは異なる他の言語タイプをターゲット選別条件とするステップを含むことができる。
図4は、本開示の実施例4に係るインタラクション情報処理方法のフローチャートである。本実施例は、前述の実施例に基づいて、さらに、ターゲットインタラクション情報を区別して表示する方法を提供する。この方法は、以下のステップを含む。
前記表示形態は、前記ターゲット選別条件における選別タイプに対応する。
前記ターゲットインタラクション情報を、他のインタラクション情報記録のコンテンツと区別できる表示形態で、前記インタラクション情報記録のコンテンツとともに、リアルタイムインタラクションインターフェースのターゲットエリア内に表示するステップを含む。
前記インタラクション情報記録のコンテンツにおいて前記ターゲットインタラクション情報をハイライト表示することと、
他のインタラクション情報記録のコンテンツの全部または一部を半透明状態となる遮光フードで覆うことと、
前記ターゲットインタラクション情報を所定のフォントで表示することと
のうちの少なくとも1種を含む。
前記ターゲットインタラクション情報と他のインタラクション情報記録のコンテンツとをそれぞれ、前記リアルタイムインタラクションインターフェースの異なるターゲットエリア内に表示するステップを含む。
図5は、本開示の実施例5に係るインタラクション情報処理装置の構成概略図である。本実施例に係るインタラクション情報処理装置は、ハードウェア及び/またはソフトウェアで実現することができ、ユーザーがアプリケーションソフトウェアに基づいてリアルタイムインタラクションを行う応用シナリオにおいてインタラクション情報を選別及び表示するために使用される。このインタラクション情報処理装置は、クライアントに統合されることができ、サーバーに統合されて各クライアントに業務サービスを提供することもできる。
前記リアルタイムインタラクションインターフェースの選別コントロールまたは検索コントロールを介して、ユーザーが入力したターゲット選別条件を取得するためのコントロール取得モジュールを含む。前記選別コントロールは、選別リスト、条件入力ボックス、及びタブラベルのうちの少なくとも1つを含む。
図6は、本開示の実施例6に係るインタラクション情報処理装置の構成概略図である。本実施例は、前述の実施例に基づいて、選別条件を決定するための具体的な実現方式をさらに提供する。
収集されたインタラクション行動データに基づいて各ユーザーの現在の活躍度値を決定し、前記現在の活躍度値に基づいてターゲット選別条件を決定する活躍度決定ユニットと、
収集されたインタラクション行動データに基づいて各ユーザーの言語タイプを決定し、前記言語タイプに基づいてターゲット選別条件を決定する言語タイプ決定ユニットと、
収集されたインタラクション行動データに基づいてインタラクション行動データの実質的な意味を決定し、前記インタラクション行動データの実質的な意味の有効または無効に基づいてターゲット選別条件を決定する語意決定ユニットと
のうちの少なくとも1つの機能ユニットを含むことができる。
または、インタラクション情報区別表示モジュールは、より具体的に、前記ターゲットインタラクション情報と他のインタラクション情報記録のコンテンツとを、それぞれ、前記リアルタイムインタラクションインターフェースの異なるターゲットエリア内に表示するために使用されることができる。
前記インタラクション情報記録のコンテンツにおいて前記ターゲットインタラクション情報をハイライト表示することと、
他のインタラクション情報記録のコンテンツの全部または一部を半透明状態となる遮光フードで覆うことと、
前記ターゲットインタラクション情報を所定のフォントで表示することと
のうちの少なくとも1種を含む。
以下で、図7を参照すると、本開示の実施例を実現するのに適している電子デバイス(図7における端末デバイスまたはサーバー)700の構成概略図が示されている。本開示の実施例における端末デバイスは、携帯電話、ノートパソコン、デジタル放送受信機、PDA(Personal Digital Assistant、携帯情報端末)、PAD(Portablc Android Device、タブレット)、PMP(Portable Mcdia Player、ポータブルマルチメディアプレーヤー)、車載端末(例えば、車載ナビゲーション端末)などの携帯端末、及びデジタルTV(television、テレビ)、デスクトップコンピュータなどの固定端末を含むことができるが、これらに限定されない。図7に示される電子デバイスは、1つの例示にすぎず、本開示の実施例の機能及び使用範囲に任意の制限を与えるべきではない。
本開示の実施例8は、プロセッサによって実行されるときに、上記の実施例によるインタラクション情報処理方法を実現するコンピュータプログラムが記憶されているコンピュータ記憶媒体を提供する。
リアルタイムインタラクションインターフェースに基づいてユーザーがインタラクションを行う過程において、ユーザーのインタラクション行動データに基づいてインタラクション情報記録を生成するステップと、
前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別するステップと、
前記ターゲットインタラクション情報を、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示するステップであって、前記ターゲットインタラクション情報が、前記インタラクション情報記録における1つまたは複数のインタラクション情報要素であるステップとを実行させる。
リアルタイムインタラクションインターフェースに基づいてユーザーがインタラクションを行う過程において、ユーザーのインタラクション行動データに基づいてインタラクション情報記録を生成するステップと、
前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別するステップと、
前記ターゲットインタラクション情報を、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示するステップであって、前記ターゲットインタラクション情報が、前記インタラクション情報記録における1つまたは複数のインタラクション情報要素であるステップと、を含む。
オプションとして、前記ユーザーの操作行動データには、共有行動及び共有コンテンツが含まれ、前記共有行動は、共有コンテンツを各ユーザーに提示する操作行動タイプであり、前記共有コンテンツには、共有文書、共有画面及び/またはウェブリンクが含まれる。
オプションとして、前記インタラクション行動データにはユーザーの音声データが含まれ、前記インタラクション情報記録のコンテンツには前記ユーザーの音声データによって識別されたテキストデータが含まれる、
または、
前記インタラクション行動データにはユーザーの操作行動データが含まれ、前記インタラクション情報記録のコンテンツには前記ユーザーの操作行動データによって識別されたテキストデータが含まれる、
または、
前記インタラクション行動データにはユーザーの音声データ及びユーザーの操作行動データが含まれ、前記インタラクション情報記録のコンテンツには前記ユーザーの音声データによって識別されたテキストデータ及び前記ユーザーの操作行動データによって識別されたテキストデータが含まれる。
オプションとして、前記ターゲット選別条件は、コンテンツキーワード、音声データの発話ユーザー、発話ユーザーの活躍度レベル、操作行動タイプ及び操作行動コンテンツオブジェクトの少なくとも1つを含む。
オプションとして、前記ターゲット選別条件は、
前記リアルタイムインタラクションインターフェースの選別コントロールまたは検索コントロールを介して、ユーザーが入力したターゲット選別条件を取得することによって決定され、
前記選別コントロールは、選別リスト、条件入力ボックス、及びタブラベルのうちの少なくとも1つを含む。
オプションとして、前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別するステップに先立って、
設定されたトリガー条件を検出した場合、ターゲット選別条件を決定するステップをさらに含む。
オプションとして、前記トリガー条件は、インタラクション過程中の予め設定された時点に達したこと、ユーザーの音声データに指示性音声データが含まれていることを検出したこと、及び発話ユーザーが使用する言語タイプに差異があることのうちの少なくとも1つを含む。
オプションとして、設定されたトリガー条件を検出した場合、ターゲット選別条件を決定する前記ステップは、
ユーザーによるリアルタイムインタラクション中に、収集されたインタラクション行動データに基づいて、設定されたトリガー条件を検出した場合、ターゲット選別条件を決定するステップを含む。
オプションとして、ユーザーによるリアルタイムインタラクション中に、収集されたインタラクション行動データに基づいて、設定されたトリガー条件を検出した場合、ターゲット選別条件を決定する前記ステップは、
収集されたインタラクション行動データに基づいて各ユーザーの現在の活躍度値を決定し、前記現在の活躍度値に基づいてターゲット選別条件を決定するステップと、
収集されたインタラクション行動データに基づいて各ユーザーの言語タイプを決定し、前記言語タイプに基づいてターゲット選別条件を決定するステップと、
収集されたインタラクション行動データに基づいてインタラクション行動データの実質的な意味を決定し、前記インタラクション行動データの実質的な意味の有効性に基づいてターゲット選別条件を決定するステップと
のうちの少なくとも1つを含む。
オプションとして、前記現在の活躍度値に基づいてターゲット選別条件を決定する前記ステップは、
現在の活躍度値が予め設定された活躍度値よりも高くなるユーザーをターゲット選別条件とするステップを含む。
オプションとして、収集されたインタラクション行動データに基づいて各ユーザーの言語タイプを決定し、前記言語タイプに基づいてターゲット選別条件を決定する前記ステップは、
前記インタラクション行動データにおける音声データに基づいて、各ユーザーに対応する現在の言語タイプを決定し、現在の言語タイプとは異なる他の言語タイプをターゲット選別条件とするステップ、または、
各クライアントに予め設定されたターゲット言語タイプを収集し、前記ターゲット言語タイプとは異なる他の言語タイプをターゲット選別条件とするステップを含む。
オプションとして、収集されたインタラクション行動データに基づいて各ユーザーの言語タイプを決定する前記ステップに先立って、
各ユーザーの音声データに対して声紋認識を行って、前記音声データが属する発話ユーザーを決定するステップをさらに含む。
オプションとして、前記ターゲットインタラクション情報を、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示する前記ステップは、
前記ターゲットインタラクション情報を対応する表示形態で、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示するステップであって、前記表示形態が、前記ターゲット選別条件における選別タイプに対応するステップを含む。
オプションとして、前記ターゲット選別条件における選別タイプは、検索コントロールに入力された選別条件を含み、前記ターゲットインタラクション情報を対応する表示形態で、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示する前記ステップは、
前記ターゲットインタラクション情報を、他のインタラクション情報記録のコンテンツと区別できる表示形態で、前記インタラクション情報記録のコンテンツとともに、リアルタイムインタラクションインターフェースのターゲットエリア内に表示するステップを含む。
オプションとして、前記ターゲット選別条件における選別タイプは、検索コントロールに入力された選別条件を含み、前記ターゲットインタラクション情報を対応する表示形態で、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示する前記ステップは、
前記ターゲットインタラクション情報と他のインタラクション情報記録のコンテンツとをそれぞれ、前記リアルタイムインタラクションインターフェースの異なるターゲットエリア内に表示するステップを含む。
オプションとして、前記表示形態は、
前記インタラクション情報記録のコンテンツにおいて前記ターゲットインタラクション情報をハイライト表示することと、
他のインタラクション情報記録のコンテンツの全部または一部を半透明状態となる遮光フードで覆うことと、
前記ターゲットインタラクション情報を所定のフォントで表示することと
のうちの少なくとも1種を含む。
オプションとして、前記リアルタイムインタラクションインターフェースは、ビデオ会議用インタラクションインターフェース、ビデオライブストリーミングインタラクションインターフェース、またはグループチャットインタラクションインターフェースである。
リアルタイムインタラクションインターフェースに基づいてユーザーがインタラクションを行う過程において、ユーザーのインタラクション行動データに基づいてインタラクション情報記録を生成するインタラクション情報記録モジュールと、
前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別するインタラクション情報選別モジュールと、
前記ターゲットインタラクション情報を、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリアに表示するインタラクション情報区別表示モジュールであって、前記ターゲットインタラクション情報が、前記インタラクション情報記録における1つまたは複数のインタラクション情報要素であるインタラクション情報区別表示モジュールと、を含む。
Claims (18)
- リアルタイムインタラクションインターフェースに基づいてユーザーがインタラクションを行う過程において、ユーザーのインタラクション行動データに基づいてインタラクション情報記録を生成するステップと、
前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別するステップと、
前記ターゲットインタラクション情報を、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示するステップであって、前記ターゲットインタラクション情報が、前記インタラクション情報記録における1つまたは複数のインタラクション情報要素であるステップと、を含み、
前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別する前記ステップに先立って、設定されたトリガー条件を検出した場合、ターゲット選別条件を決定するステップをさらに含み、
前記トリガー条件は、インタラクション過程中の予め設定された時点に達したこと、ユーザーの音声データに指示性音声データが含まれていることを検出したこと、及び発話ユーザーと現在のクライアントとの言語タイプに差異があることのうちの少なくとも1つを含む、ことを特徴とするインタラクション情報処理方法。 - 前記インタラクション行動データは、ユーザーの音声データを含み、前記インタラクション情報記録のコンテンツは、前記ユーザーの音声データによって識別されたテキストデータを含む、
または、
前記インタラクション行動データはユーザーの操作行動データを含み、前記インタラクション情報記録のコンテンツは、前記ユーザーの操作行動データによって識別されたテキストデータを含む、
または、
前記インタラクション行動データは、ユーザーの音声データ及びユーザーの操作行動データを含み、前記インタラクション情報記録のコンテンツは、前記ユーザーの音声データによって識別されたテキストデータ及び前記ユーザーの操作行動データによって識別されたテキストデータを含む、ことを特徴とする請求項1に記載の方法。 - 前記ユーザーの操作行動データには、共有行動及び共有コンテンツが含まれ、前記共有行動は、共有コンテンツを各ユーザーに提示する操作行動タイプであり、前記共有コンテンツには、共有文書、共有画面及び/またはウェブリンクが含まれる、ことを特徴とする請求項2に記載の方法。
- 前記ターゲット選別条件は、コンテンツキーワード、音声データの発話ユーザー、発話ユーザーの活躍度レベル、操作行動タイプ及び操作行動コンテンツオブジェクトのうちの少なくとも1つを含む、ことを特徴とする請求項2に記載の方法。
- 前記ターゲット選別条件は、
前記リアルタイムインタラクションインターフェースの選別コントロールまたは検索コントロールを介して、ユーザーが入力したターゲット選別条件を取得する方式によって決定され、
前記選別コントロールは、選別リスト、条件入力ボックス、及びタブラベルのうちの少なくとも1つを含む、ことを特徴とする請求項1から4のいずれか1項に記載の方法。 - 設定されたトリガー条件を検出した場合、ターゲット選別条件を決定する前記ステップは、
ユーザーによるリアルタイムインタラクション中に、収集されたインタラクション行動データに基づいて、設定されたトリガー条件を検出した場合、ターゲット選別条件を決定するステップを含む、ことを特徴とする請求項1に記載の方法。 - ユーザーによるリアルタイムインタラクション中に、収集されたインタラクション行動データに基づいて、設定されたトリガー条件を検出した場合、ターゲット選別条件を決定する前記ステップは、
収集されたインタラクション行動データに基づいて各ユーザーの現在の活躍度値を決定し、前記現在の活躍度値に基づいてターゲット選別条件を決定するステップと、
収集されたインタラクション行動データに基づいて各ユーザーの言語タイプを決定し、前記言語タイプに基づいてターゲット選別条件を決定するステップと、
収集されたインタラクション行動データに基づいてインタラクション行動データの実質的な意味を決定し、前記インタラクション行動データの実質的な意味の有効性に基づいてターゲット選別条件を決定するステップと
のうちの少なくとも1つを含む、ことを特徴とする請求項6に記載の方法。 - 前記現在の活躍度値に基づいてターゲット選別条件を決定する前記ステップは、
現在の活躍度値が予め設定された活躍度値よりも高くなるユーザーをターゲット選別条件とするステップを含む、ことを特徴とする請求項7に記載の方法。 - 収集されたインタラクション行動データに基づいて各ユーザーの言語タイプを決定し、前記言語タイプに基づいてターゲット選別条件を決定する前記ステップは、
前記インタラクション行動データにおける音声データに基づいて、各ユーザーに対応する現在の言語タイプを決定し、現在の言語タイプとは異なる他の言語タイプをターゲット選別条件とするステップ、または、
各クライアントに予め設定されたターゲット言語タイプを取得し、前記ターゲット言語タイプとは異なる他の言語タイプをターゲット選別条件とするステップを含む、ことを特徴とする請求項7に記載の方法。 - 収集されたインタラクション行動データに基づいて各ユーザーの言語タイプを決定する前記ステップに先立って、
各ユーザーの音声データに対して声紋認識を行い、前記音声データが属する発話ユーザーを決定するステップをさらに含む、ことを特徴とする請求項7に記載の方法。 - 前記ターゲットインタラクション情報を、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示する前記ステップは、
前記ターゲットインタラクション情報を、対応する表示形態で、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示するステップを含み、前記表示形態は、前記ターゲット選別条件における選別タイプに対応する、ことを特徴とする請求項1から4のいずれか1つに記載の方法。 - 前記ターゲット選別条件における選別タイプは、検索コントロールに入力された選別条件を含み、前記ターゲットインタラクション情報を対応する表示形態で、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示する前記ステップは、
前記ターゲットインタラクション情報を、他のインタラクション情報記録のコンテンツと区別できる表示形態で、前記インタラクション情報記録のコンテンツとともに、リアルタイムインタラクションインターフェースのターゲットエリア内に表示するステップを含む、ことを特徴とする請求項11に記載の方法。 - 前記ターゲット選別条件における選別タイプは、検索コントロールに入力された選別条件を含み、前記ターゲットインタラクション情報を対応する表示形態で、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示する前記ステップは、
前記ターゲットインタラクション情報と他のインタラクション情報記録のコンテンツをそれぞれ、前記リアルタイムインタラクションインターフェースの異なるターゲットエリア内に表示するステップを含む、ことを特徴とする請求項11に記載の方法。 - 前記表示形態は、
前記インタラクション情報記録のコンテンツにおいて前記ターゲットインタラクション情報をハイライト表示することと、
他のインタラクション情報記録のコンテンツの全部または一部を半透明状態となる遮光フードで覆うことと、
前記ターゲットインタラクション情報を所定のフォントで表示することと
のうちの少なくとも1種を含む、ことを特徴とする請求項11に記載の方法。 - 前記リアルタイムインタラクションインターフェースは、ビデオ会議用インタラクションインターフェース、ビデオライブストリーミングインタラクションインターフェース、またはグループチャットインタラクションインターフェースである、ことを特徴とする請求項1から4のいずれか1項に記載の方法。
- リアルタイムインタラクションインターフェースに基づいてユーザーがインタラクションを行う過程において、ユーザーのインタラクション行動データに基づいてインタラクション情報記録を生成するためのインタラクション情報記録モジュールと、
前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別するためのインタラクション情報選別モジュールと、
前記ターゲットインタラクション情報を、前記インタラクション情報記録における他のインタラクション情報要素と区別してリアルタイムインタラクションインターフェースのターゲットエリア内に表示するためのインタラクション情報区別表示モジュールであって、前記ターゲットインタラクション情報が、前記インタラクション情報記録における1つまたは複数のインタラクション情報要素であるインタラクション情報区別表示モジュールと、
前記インタラクション情報記録から、ターゲット選別条件を満たすターゲットインタラクション情報を選別することに先立って、設定されたトリガー条件を検出した場合、ターゲット選別条件を決定するための条件トリガーモジュールであって、前記トリガー条件は、インタラクション過程中の予め設定された時点に達したこと、ユーザーの音声データに指示性音声データが含まれていることを検出したこと、及び発話ユーザーと現在のクライアントとの言語タイプに差異があることのうちの少なくとも1つを含む、前記条件トリガーモジュールと、を含むことを特徴とするインタラクション情報処理装置。 - 1つ以上のプロセッサと、
1つ以上のプログラムを記憶するための記憶装置とを含み、
前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるときに、前記1つ以上のプロセッサに請求項1から15のいずれか1項に記載のインタラクション情報処理方法を実現させる、ことを特徴とする電子デバイス。 - コンピュータプロセッサによって実行されるときに、請求項1から15のいずれか1項に記載のインタラクション情報処理方法を実行するためのコンピュータ実行可能な命令を含む記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010366928.7A CN113014853B (zh) | 2020-04-30 | 2020-04-30 | 互动信息处理方法、装置、电子设备及存储介质 |
CN202010366928.7 | 2020-04-30 | ||
PCT/CN2021/088044 WO2021218680A1 (zh) | 2020-04-30 | 2021-04-19 | 互动信息处理方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023523230A JP2023523230A (ja) | 2023-06-02 |
JP7462070B2 true JP7462070B2 (ja) | 2024-04-04 |
Family
ID=76383556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022564172A Active JP7462070B2 (ja) | 2020-04-30 | 2021-04-19 | インタラクション情報処理方法、装置、電子デバイス及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220391058A1 (ja) |
EP (1) | EP4124025A4 (ja) |
JP (1) | JP7462070B2 (ja) |
CN (1) | CN113014853B (ja) |
WO (1) | WO2021218680A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114979754A (zh) * | 2022-04-11 | 2022-08-30 | 北京高途云集教育科技有限公司 | 一种信息显示方法、装置、设备以及存储介质 |
CN116149520B (zh) * | 2023-04-23 | 2023-07-21 | 深圳市微克科技有限公司 | 一种智能手表交互界面智能处理方法、系统及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000284876A (ja) | 1999-03-31 | 2000-10-13 | Sony Corp | 表示制御装置および表示制御方法、並びに媒体 |
JP2009194857A (ja) | 2008-02-18 | 2009-08-27 | Sharp Corp | 通信会議システム、通信装置、通信会議方法、コンピュータプログラム |
JP2011209731A (ja) | 2010-03-30 | 2011-10-20 | Polycom Inc | ビデオ会議に翻訳を追加するための方法及びシステム |
JP2013029684A (ja) | 2011-07-28 | 2013-02-07 | National Institute Of Advanced Industrial & Technology | 音声データ書き起こし用webサイトシステム |
JP2019053566A (ja) | 2017-09-15 | 2019-04-04 | シャープ株式会社 | 表示制御装置、表示制御方法及びプログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5014449B2 (ja) * | 2010-02-26 | 2012-08-29 | シャープ株式会社 | 会議システム、情報処理装置、会議支援方法、情報処理方法、及びコンピュータプログラム |
US8756500B2 (en) * | 2011-09-20 | 2014-06-17 | Microsoft Corporation | Dynamic content feed filtering |
US9007448B2 (en) * | 2012-02-03 | 2015-04-14 | Bank Of America Corporation | Video-assisted customer experience |
US9590929B2 (en) * | 2013-04-11 | 2017-03-07 | International Business Machines Corporation | Directed message notification in chat sessions |
JP6233798B2 (ja) * | 2013-09-11 | 2017-11-22 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | データを変換する装置及び方法 |
CN104615593B (zh) * | 2013-11-01 | 2017-09-29 | 北大方正集团有限公司 | 微博热点话题自动检测方法及装置 |
US20160094866A1 (en) * | 2014-09-29 | 2016-03-31 | Amazon Technologies, Inc. | User interaction analysis module |
CN105632498A (zh) * | 2014-10-31 | 2016-06-01 | 株式会社东芝 | 生成会议记录的方法、装置和系统 |
CN104679405B (zh) * | 2015-02-06 | 2019-05-14 | 深圳市金立通信设备有限公司 | 一种终端 |
CN105488116A (zh) * | 2015-11-20 | 2016-04-13 | 珠海多玩信息技术有限公司 | 一种基于在线直播的消息显示方法及客户端 |
CN106375865B (zh) * | 2016-09-20 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 一种基于社交信息的弹幕交互方法、系统及终端 |
CN112399133B (zh) * | 2016-09-30 | 2023-04-18 | 阿里巴巴集团控股有限公司 | 一种会议分享方法及装置 |
US11412012B2 (en) * | 2017-08-24 | 2022-08-09 | Re Mago Holding Ltd | Method, apparatus, and computer-readable medium for desktop sharing over a web socket connection in a networked collaboration workspace |
CN107645686A (zh) * | 2017-09-22 | 2018-01-30 | 广东欧珀移动通信有限公司 | 信息处理方法、装置、终端设备及存储介质 |
CN108881789B (zh) * | 2017-10-10 | 2019-07-05 | 视联动力信息技术股份有限公司 | 一种基于视频会议的数据交互方法和装置 |
US10250401B1 (en) * | 2017-11-29 | 2019-04-02 | Palantir Technologies Inc. | Systems and methods for providing category-sensitive chat channels |
US20200167699A1 (en) * | 2018-11-26 | 2020-05-28 | Tickitin Experiences LLC | Event management and coordination platform |
CN110392312B (zh) * | 2019-06-14 | 2022-02-22 | 北京字节跳动网络技术有限公司 | 群聊构建方法、系统、介质和电子设备 |
US11269591B2 (en) * | 2019-06-19 | 2022-03-08 | International Business Machines Corporation | Artificial intelligence based response to a user based on engagement level |
CN110851745B (zh) * | 2019-10-28 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 信息处理方法、装置、存储介质及电子设备 |
US11146700B2 (en) * | 2020-01-27 | 2021-10-12 | Kyocera Document Solutions Inc. | Image forming apparatus and communication system that utilize group chat function |
US10819532B1 (en) * | 2020-03-27 | 2020-10-27 | Ringcentral, Inc. | System and method for determining a source and topic of content for posting in a chat group |
-
2020
- 2020-04-30 CN CN202010366928.7A patent/CN113014853B/zh active Active
-
2021
- 2021-04-19 JP JP2022564172A patent/JP7462070B2/ja active Active
- 2021-04-19 WO PCT/CN2021/088044 patent/WO2021218680A1/zh unknown
- 2021-04-19 EP EP21796877.5A patent/EP4124025A4/en active Pending
-
2022
- 2022-08-09 US US17/883,877 patent/US20220391058A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000284876A (ja) | 1999-03-31 | 2000-10-13 | Sony Corp | 表示制御装置および表示制御方法、並びに媒体 |
JP2009194857A (ja) | 2008-02-18 | 2009-08-27 | Sharp Corp | 通信会議システム、通信装置、通信会議方法、コンピュータプログラム |
JP2011209731A (ja) | 2010-03-30 | 2011-10-20 | Polycom Inc | ビデオ会議に翻訳を追加するための方法及びシステム |
JP2013029684A (ja) | 2011-07-28 | 2013-02-07 | National Institute Of Advanced Industrial & Technology | 音声データ書き起こし用webサイトシステム |
JP2019053566A (ja) | 2017-09-15 | 2019-04-04 | シャープ株式会社 | 表示制御装置、表示制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220391058A1 (en) | 2022-12-08 |
JP2023523230A (ja) | 2023-06-02 |
WO2021218680A1 (zh) | 2021-11-04 |
CN113014853A (zh) | 2021-06-22 |
EP4124025A4 (en) | 2023-09-20 |
CN113014853B (zh) | 2022-11-11 |
EP4124025A1 (en) | 2023-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111510760B (zh) | 视频信息展示方法和装置、存储介质和电子设备 | |
WO2022068533A1 (zh) | 互动信息处理方法、装置、设备及介质 | |
JP6942821B2 (ja) | 複数のコーパスからの応答情報取得 | |
WO2016004763A1 (zh) | 业务推荐方法和具有智能助手的装置 | |
JP7462070B2 (ja) | インタラクション情報処理方法、装置、電子デバイス及び記憶媒体 | |
WO2021218981A1 (zh) | 互动记录的生成方法、装置、设备及介质 | |
US11652763B2 (en) | Information display method and apparatus, and electronic device | |
CN109036398A (zh) | 语音交互方法、装置、设备及存储介质 | |
US20200234008A1 (en) | Information processing method and device | |
EP4113936A1 (en) | Information switching and sharing method, device, electronic apparatus, and storage medium | |
CN110379406B (zh) | 语音评论转换方法、系统、介质和电子设备 | |
CN113886612A (zh) | 一种多媒体浏览方法、装置、设备及介质 | |
CN110806834A (zh) | 基于输入法的信息处理方法、装置、电子设备及介质 | |
JP2024506495A (ja) | 議事録の処理方法、装置、機器及び媒体 | |
WO2024094174A1 (zh) | 画面展示方法、装置、存储介质及电子设备 | |
CN112256372B (zh) | 信息处理方法、装置和电子设备 | |
US20220374618A1 (en) | Interaction information processing method and apparatus, device, and medium | |
WO2022057581A1 (zh) | 内容显示方法、装置、电子设备及计算机可读存储介质 | |
CN115328362A (zh) | 书籍信息显示方法、装置、设备和存储介质 | |
CN115547330A (zh) | 基于语音交互的信息展示方法、装置和电子设备 | |
CN114063795A (zh) | 一种交互方法、装置、电子设备和存储介质 | |
CN109450993B (zh) | 用于呈现信息的方法和设备 | |
WO2023045861A1 (zh) | 搜索结果显示方法、装置、设备、存储介质和程序产品 | |
CN111460836B (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN117156224A (zh) | 视频处理方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221021 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7462070 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |