JP2021180427A - グループ通信システム、グループ通信プログラム及びグループ通信方法 - Google Patents

グループ通信システム、グループ通信プログラム及びグループ通信方法 Download PDF

Info

Publication number
JP2021180427A
JP2021180427A JP2020085361A JP2020085361A JP2021180427A JP 2021180427 A JP2021180427 A JP 2021180427A JP 2020085361 A JP2020085361 A JP 2020085361A JP 2020085361 A JP2020085361 A JP 2020085361A JP 2021180427 A JP2021180427 A JP 2021180427A
Authority
JP
Japan
Prior art keywords
unit
information
voice
communication
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020085361A
Other languages
English (en)
Inventor
崇 片山
Takashi Katayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mintflag Inc
Original Assignee
Mintflag Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mintflag Inc filed Critical Mintflag Inc
Priority to JP2020085361A priority Critical patent/JP2021180427A/ja
Publication of JP2021180427A publication Critical patent/JP2021180427A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】ビデオチャットやテレビ会議など通信ネットワーク上に配置された複数の通信端末間でリアルタイムで音声若しくは映像を介した通信を行うグループ通信に際し、複数人の参加者が一斉に集合して通話を行うことによる不便さや不自由さを解消するグループ通信システム、グループ通信プログラム及びグループ通信方法を提供する。【解決手段】るグループ通話システムにおいて、参加者用端末1は、通話を音声通話部112に実行させるとともに、通話中の音声を認識部110により認識し、認識した音声に関連してインターネット上から検索された情報を情報共有処理部102dが通話に係る音声又は映像中に合成して複数の通信端末間で共有させる。また、映像取得部102eが取得した映像中から認識した文字、図形又は形状に基づいて特定される情報を、情報検索部103bがインターネット上から検索し、検索された情報をブラウザ部103が表示又は出力する。【選択図】図3

Description

本発明は、通信ネットワーク上に配置された複数の通信端末間でリアルタイムで音声若しくは映像を介した通信を行うグループ通信システム、グループ通信プログラム及びグループ通信方法に関する。
従来、遠隔地にいるユーザー同士の交流に用いる通信システムとして、電話、所謂テレビ電話、ビデオ会議システムなどが存在する。また、スマートフォンやモバイルコンピューター、などを用いてインターネットに接続し、インターネットを介してのデータ通信によるテキストチャットや、映像と音声を伴うビデオチャットなどを行う方法もある。
例えば、特許文献1に開示された技術は、グループのメンバー同士の映像通信を可能にするビデオチャットシステムであり、チャットのグループを形成するためのグループ形成手段と、グループ形成手段により形成されたグループのメンバー同士の音声通信を可能にする音声回線接続手段とを備え、グループ形成手段により形成されたグループのメンバー同士で、音声回線接続手段を通じての映像通信を実現している。
特開2003-6129号公報
ところで、上述したビデオチャットシステムでは複数人での会話が可能となっているが、チャットの途中で話題が尽きてしまったり、話題が発散してしまって共通の話題が見えなくなってしまったり、複数の話題が混在してしまったりするなど、複数人の参加者が一斉に集合して通話を行うことによる不便さや不自由さが指摘されている。
そこで、本発明は以上の点に鑑みてなされたもので、ビデオチャットやテレビ会議など通信ネットワーク上に配置された複数の通信端末間でリアルタイムで音声若しくは映像を介した通信を行うグループ通信に際し、複数人の参加者が一斉に集合して通話を行うことによる不便さや不自由さを解消できるグループ通信システム、グループ通信プログラム及びグループ通信方法を提供することをその課題とする。
上記課題を解決するために、本発明は、複数の参加者がそれぞれ使用する複数の通信端末間で、通信ネットワークを通じて通信を行うグループ通信システムであって、音声又は音声を含む映像による通話を行う通話部と、通話中の音声を認識する音声認識部と、音声認識部が認識した音声に関連する情報を、通信ネットワーク上から検索する情報検索部と、情報検索部が検索した情報を、通話に係る音声又は映像中に合成する情報合成部と、情報合成部が合成した情報を、複数の通信端末間で共有させる情報共有処理部とを備えることを特徴とする。
本発明は、通信ネットワーク上に配置された複数の通信端末間で、通信を行うオンライン会議システムであって、通信端末は、音声又は音声を含む映像による通話を行う通話部と、通信端末間で共有される映像を通話相手の通信端末から取得する映像取得部と、映像取得部が取得した映像中の文字、図形又は形状を認識する文字等認識部と、文字等認識部が認識した文字、図形又は形状から特定される情報を通信ネットワーク上から検索する情報検索部と、情報検索部が検索した情報を、映像取得部が取得した映像とは別途独立させて表示又は出力する検索情報出力部とを備えることを特徴とする。
また、本発明は、複数の参加者がそれぞれ使用する複数の通信端末間で通信ネットワークを通じて通信を行うグループ通信方法であって、
(1) 音声又は音声を含む映像による通話を通話部が実行させるとともに、通話中の音声を音声認識部が認識する通話認識ステップと、
(2) 音声認識部が認識した音声に関連し、通信ネットワーク上から検索された情報を、情報共有処理部が通話に係る音声又は映像中に合成して複数の通信端末間で共有させる情報共有処理ステップと
を含むことを特徴とする。
さらに、本発明は、通信ネットワーク上に配置された複数の通信端末間で、通信を行うグループ通信方法であって、
(3) 音声又は音声を含む映像による通話を通話部が実行させるとともに、通信端末間で共有される映像を通話相手の通信端末から映像取得部が取得する映像取得ステップと、
(4) 映像取得部が取得した映像中から認識した文字、図形又は形状に基づいて特定される情報を情報検索部が通信ネットワーク上から検索する情報検索ステップと、
(5) 情報検索ステップにおいて検索された情報を、映像取得部が取得した映像とは別途独立させて検索情報出力部が表示又は出力する検索情報出力ステップと
を含むことを特徴とする。
上記発明では、仮想的な人物又はキャラクターの音声又は映像を生成するボット生成部をさらに備え、情報検索部によって検索された情報は、ボット生成部により生成された音声又は映像として情報合成部により合成されることが好ましい。
上記発明では、自機と他の通信相手との仮想的な相対位置関係を設定する仮想位置設定部と、仮想位置設定部によって設定された各通信相手との仮想的な相対位置関係に基づいて、通話部によって通話される各通信相手から取得される音声の自機側における音量を通信相手となる通信端末毎に変更する音声バランス設定部をさらに備えることが好ましい。
上記発明では、通信端末間で共有された情報に対する各参加者による評価を、各自の通信端末を通じて収集する評価収集部をさらに備え、仮想位置設定部は、評価収集部によって収集された各参加者の評価に基づいて設定することが好ましい。
上記発明では、音声認識部が認識した音声と、その音声を発した参加者とを関連付けて発話記録として蓄積するとともに、認識された音声に基づいて検索された情報に対する評価及びその評価を行った参加者を特定する参加者識別子と発話記録とを関連付けて参加者相関情報を生成する参加者相関管理部をさらに備えることが好ましい。
以上説明したように本発明によれば、通話中の音声を認識して、認識された音声に関連する情報(話題や記事等)を通信ネットワーク上から自動的に検索し、その検索結果を通話に係る音声又は映像中に合成して共有させる。これにより、本実施形態では、ビデオチャットやテレビ会議など複数の通信端末間でリアルタイムでグループ通信する際、関連情報が自動的に提供されるため、チャットの途中で話題が尽きてしまったようなときであっても、会話をスムーズに継続することができる。
また、本発明によれば、通信端末間で共有される映像に含まれる文字、図形又は形状を認識し、その認識結果から特定される情報を別途独立されたアプリケーションウィンドウから表示又は出力することから、グループ通話から別途独立したツールでグループ通話に関連する情報を検索でき、話題が発散してしまって共通の話題が見えなくなってしまったときに、他のユーザーの会話を妨げることなく、ユーザーが独自に話題中の情報を検索することができる。
さらに、本発明によれば、各ユーザーが、自身と他の通信相手との仮想的な相対位置関係を設定して、その位置関係に基づいて、各通信相手の音量を変更する音声バランス設定ができることから、複数のユーザーがそれぞれ発話し話題が混在したような場合であっても、各ユーザーの声を適切な音量とすることができる。
これらの結果、本発明によれば、ビデオチャットやテレビ会議など通信ネットワーク上に配置された複数の通信端末間でリアルタイムで音声若しくは映像を介した通信を行うグループ通信に際し、チャットの途中で話題が尽きてしまったり、話題が発散してしまって共通の話題が見えなくなってしまったり、複数の話題が混在してしまったりするなど複数人の参加者が一斉に集合して通話を行うことによる不便さや不自由さを解消できる。
実施形態に係るシステムの全体構成を示す概念図である。 実施形態に係る管理サーバーの内部構成を示すブロック図である。 実施形態に係る参加者用端末の内部構成を示すブロック図である。 実施形態に係るグループ通話システムの動作(接続処理時)を示すシーケンス図である。 実施形態に係るグループ通話システムの動作(情報共有時)を示すシーケンス図である。 実施形態に係るグループ通話システムの動作(映像内文字列等抽出時)を示すシーケンス図である。 実施形態に係るグループ通話システムの画面構成を示す説明図である。 実施形態に係るグループ通話システムの画面構成を示す説明図である。 実施形態に係るグループ通話システムにおける仮想的相対位置を示す説明図である。 実施形態に係るグループ通話システムにおける映像内文字列抽出処理を示す説明図である。 実施形態に係るグループ通話システムの動作(ボット制御処理時)を示すシーケンス図である。 実施形態に係るグループ通話システムの動作(ボット制御処理時)時における画面構成を示す説明図である。
(グループ通話システムの概要)
以下に添付図面を参照して、本発明に係るグループ通話システムの第1実施形態を詳細に説明する。図1は、本実施形態に係るグループ通話システムの全体構成を示す概念図である。なお、以下に示す実施の形態は、この発明の技術的思想を具体化するための装置等を例示するものであって、この発明の技術的思想は、各構成部品の材質、形状、構造、配置等を下記のものに特定するものでない。この発明の技術的思想は、特許請求の範囲において、種々の変更を加えることができる。
図1に示すように、本発明に係るグループ通話システムはインターネット5上に配置された管理サーバー2に対して複数のユーザー用端末1a〜1cが接続され、当該複数のユーザー用端末1a〜1c同士での通信を介して仮想的なグループ(チャンネル)を形成させるとともに、当該仮想的なグループ内でライブチャットが行われる。
本実施形態において、上記仮想的な各グループには各グループに固有のURLが割り当てられ、ライブが提供される場へのリンクとして利用できるようになっている。具体的には、ユーザー毎に割り当てられるhttp://<ユーザー名>.<ドメイン名>といったURLや、http://<ユーザー名>.<ドメイン名>/<トピック名>といったトピックに基づいたURLを形成し、既存の検索エンジンやSNSなどを通じて他の者へ集合をかけたり招待したりできるようになっている。
なお、本実施形態では、ユーザー用端末1a〜1cのうち、ユーザー用端末1aを所持するユーザーUaが管理人となってグループ(チャンネル)を開設し、ユーザーUaが開設したグループ(チャンネル)に特定の参加者であるユーザーUb,Ucが参加する場合を例に説明する。そして、以下、ユーザーUaが所持する端末を示す場合には、管理者用端末と称し、それぞれのユーザー用端末1a〜1cを区別せずに示す場合には、総称してユーザー用端末1というものとする。なお、ここでは、ユーザーUaを管理者、他のユーザーUb、Ucを参加者とするが、他のユーザーUb,Ucのいずれかが管理人となり、ユーザーUaが参加者となることもできる。
インターネット5は、通信プロトコルTCP/IPを用いて種々の通信回線(FTTHなどの光回線、ADSL回線などの公衆回線、専用回線、無線通信網)を相互に接続して構築される分散型のIP網であり、このIP網には、10BASE-Tや100BASE-TX等によるイントラネット(企業内ネットワーク)や家庭内ネットワークなどのLANなども含まれる。また、本実施形態においてこのインターネット5には所謂P2P(ピア・ツー・ピア)ネットワークが構築され、ユーザー用端末1b,1c同士はP2Pネットワークを介しても接続可能となっている。
ユーザー用端末1は、CPUによる演算処理機能、及び通信インターフェースによる通信処理機能を備えた情報処理端末であり、例えば、スマートフォン等の携帯電話端末の他、パーソナルコンピュータ等の汎用コンピューターや、機能を特化させた専用装置、モバイルコンピューターやPDA(Personal Digital Assistance)で実現することができる。なお、図1に示す例では、1c,3cはパーソナルコンピュータ等の汎用コンピューターであり、1b,3bはスマートフォンや、移動電話、その他の携帯情報端末の機能を備える装置であり、1a,3aは携帯情報端末の通信機能を備え、表示部のサイズが大きいタブレット端末である。
このユーザー用端末1は、インターネット5にアクセスして、データの送受信を行うブラウザ機能も備えている。このブラウザ機能は、Webページを視聴するためのアプリケーションソフトであり、インターネットからHTML(HyperText Markup Language)ファイルや画像ファイル、音楽ファイルなどをダウンロードし、レイアウトを解析して表示・再生する。そして、ブラウザ機能では、フォームを使用してユーザーがデータをWebサーバーに送信したり、JavaScript(登録商標)やFlash、及びJava(登録商標)などで記述されたアプリケーションソフトを動作させ、ユーザーインターフェースを提供することも可能である。
また、本実施形態において、ユーザー用端末1は、インターネット等を通じて、コンテンツデータを含む放送画面の配信を受ける機能を備えているとともに、このコンテンツデータを視聴するアプリケーションを実行する機能も備えている。この「コンテンツデータ」とは、複数のユーザー用端末1でやり取りされる対話の音声データやテキストデータ、各ユーザー用端末1のカメラで撮影された静止画や動画等の映像データが含まれる。
特に、ユーザー用端末1では、P2Pネットワークにより、いずれかのユーザー用端末1a〜1cがダウンロードしたコンテンツデータを他のユーザー用端末1a〜1cと共有し、分散された端末間でコンテンツデータの配信を相互に行う機能を備えている。そして、各ユーザー用端末1は、それぞれがノードサーバーとしての機能を備えており、見つかった相手と直接接続を確立するか、若しくはリレー・ノードで中継して管理サーバー2を介さずに各データを直接送受するようになっている。
なお、このユーザー用端末1のうち、グループの管理者であるユーザーUaが使用する管理者用端末1aは、インターネット5(P2Pネットワークを含む。)の双方向通話及びデータ配信を制御する機能を有しており、グループ通信の開始及び終了などを制御することができるようになっている。
管理サーバー2は、インターネット5上に分散配置された一般的な通信サーバーであり、当該複数の端末同士での通信を通じて仮想的なチャンネルを形成するとともに、当該仮想的なチャンネルのコンテンツを他のユーザー用端末1に対して配信している。この管理サーバー2には、Webサーバーが含まれ、WWW(World Wide Web)等のドキュメントシステムにおいて、HTML(HyperText Markup Language)ファイルや画像ファイル、音楽ファイルなどの情報送信を行うサーバーコンピューター或いはその機能を持ったソフトウェアであり、HTML文書や画像などの情報を蓄積しておき、ユーザー用端末1上で実行されるWebブラウザなどのアプリケーションの要求に応じて、コンテンツ(Webページ)の配信を行う。
また、管理サーバー2は、インターネット5を通じて各端末と通信を確立させるとともに、チャットルームを内で共有されるデータを各ユーザー用端末1に対して配信するコンテンツ配信サーバーとしての機能を備えている。このような管理サーバー2ではデータベースが接続されており、ユーザーの管理を行う機能も有している。なお、本実施形態では、この管理サーバー2を単一のサーバー装置により構成しているが、例えば、ノード管理(グループ通話制御部)、トランスコードを行う変換サーバー、Webサーバー等に対してそれぞれのロードバランシングを行うなど、複数のサーバー群で構成してもよい。
また、図示していないが、インターネット5上には、無線基地局や、中継装置が配置される。無線基地局は、中継装置を通じて通信ネットワークに接続され、ユーザー用端末1との間で無線通信接続を確立し、通話やデータ通信を提供する装置である。中継装置は、通信ネットワークに接続するためのモデムやターミナルアダプタ、ゲートウェイ装置等のノード装置であり、通信経路の選択や、データ(信号)の相互変換を行い、無線基地局と、インターネット5との間における中継処理を行う。なお、これら無線基地局や中継装置としては、無線ルーターやアクセスポイント装置なども含まれる。
(各装置の内部構成)
次いで、上述した本グループ通話システムを構成する各装置の内部構造について説明する。図2は、本実施形態に係る管理サーバー2の内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
(1)管理サーバー2
先ず、管理サーバー2の機能構成について説明する。管理サーバー2は単一のサーバー装置の他、Webサーバーやデータベースサーバーなど複数種のサーバー群から構成することができ、本実施形態では、図2に示すように、通信インターフェース21と、制御部22と、本グループ通話システムに関する各種の情報を蓄積するデータベース群である各記憶部23とを備えている。通信インターフェース21は、インターネット5を通じて、ユーザー用端末1との間で通話制御や、データの送受信を行う通信インターフェースである。
記憶部23は、各データを蓄積する記憶装置であり、本実施形態では、ユーザーデータベース231と、グループデータベース232と、表示情報蓄積部233と、共有情報蓄積部234とを備えている。
ユーザーデータベース231は、本グループ通話システムを利用する各ユーザーに関する情報を記憶するデータベースであり、本実施形態では、図2に示すように、ユーザーを識別するユーザーIDに、ユーザー用端末1のIPアドレス及び個人情報(ハンドルネーム、性別、年齢等)が関連付けて蓄積されている。
グループデータベース232は、複数のユーザー用端末1がマルチ通話可能な通話グループを蓄積するデータベースであり、当該グループを識別するグループIDに、当該グループのIPアドレス、当該グループを開設した管理者を特定するユーザーID、参加制限数、当該グループへ参加した参加者を特定するユーザーIDが関連付けて蓄積される。本実施形態において、このグループは、ユーザー用端末1からのグループ生成要求に応じて生成されてもよく、管理サーバー2を運用・管理する運用者に応じて生成されてもよい。さらに、グループデータベースには、これに加えて、管理者が設定した位置情報、及び、そのグループ内の画面で中央・画面全域で再生しているコンテンツのID/URL等を保持している。
共有情報蓄積部234は、グループ内において、複数のユーザー用端末1の対話において送受信されたコンテンツを蓄積する記憶装置であり、本実施形態では、グループIDのフォルダに各配信者のユーザーIDが関連付けられ、各ユーザーIDには、各通信者の音声データ及び映像データが紐付けて蓄積されている。
表示情報蓄積部233は、アクセス者にユーザーインターフェースとして提供されるプログラムやスクリプト、データ等コンテンツデータとして蓄積する記憶装置であり、この表示情報蓄積部233には、参加者が操作・実行する接続要求に関するWebページや、グループのメンバーが作成するWebページ等の表示データが蓄積されている。なお、この表示情報蓄積部233では、グループIDに表示情報が関連付けて蓄積されており、各グループ固有の背景画面やチャンネル画面を生成することができるようになっている。また、後述するようなボット方式により本サービスを提供する場合には、ボットを生成するためのプログラムやスクリプト、データ等も表示情報としてこの表示情報蓄積部233に保存される。
制御部22は、CPUやDSP(Digital Signal Processor)等のプロセッサ、メモリ、及びその他の電子回路等のハードウェア、或いはその機能を持ったプログラム等のソフトウェア、又はこれらの組み合わせなどによって構成された演算モジュールであり、プログラムを適宜読み込んで実行することにより種々の機能モジュールを仮想的に構築し、構築された各機能モジュールによって、各部の動作制御、ユーザー操作に対する種々の処理を行っている。
そして、本発明のプログラムが実行されることにより、この制御部22には認証部221と、グループ通話制御部222と、データ送信部223と、トピック情報制御部224と、共有情報検索部225と、解析処理部226とが構築される。
認証部221は、インターネット5を介してアクセス者から取得されたユーザーIDに基づいて、アクセス者の権限を認証する処理を実行するモジュールであり、ユーザー用端末1からのアクセスに応じてユーザーデータベース231を照合することによって、アクセス者にその権利があるか否かや、そのアクセス者が本人であるか否かなどを確認する。なお、本実施形態において、認証部221は、利用時毎にID及びパスワードの入力を求めてもよいし、使用者の承諾がある場合には、端末情報のみで認証を許可するようにしてもよい。
グループ通話制御部222は、グループ通話の制御全体を管理するモジュールであり、グループ(チャンネル)の作成から、各ユーザー用端末1への接続処理を行う。このグループ通話制御部222は、グループ通話を制御する機能として接続管理機能が備えられている。この接続管理機能は、グループ参加の要求を受け付けて、当該ユーザー用端末1をグループ内に登録するモジュールである。具体的に、参加者が所持するユーザー用端末1a〜,1cからグループ参加の要求信号を取得すると、参加希望のグループIDに基づいて、グループデータベース232を参照し、当該データベース内の参加者欄にユーザーIDを登録する。また、接続管理機能は、ユーザー用端末1からグループ参加の要求を受け付けて、当該ユーザー用端末1を参加者用端末としてグループ内に登録する機能を備えている。具体的に、接続管理機能は、ユーザー用端末1から参加要求の信号を受信すると、当該参加要求信号をユーザー用端末1に対して送信する。そして、ユーザー用端末1b,1c又は管理者用端末1aからの許可信号を取得すると、取得した許可信号に基づいて、グループデータベース232を参照し、当該データベース内の参加者欄に、ユーザー用端末1のユーザーIDを登録して、ユーザー用端末1による第1の通信ネットワークへの接続を許可する。
さらに、グループ通話制御部222には、参加者相関管理部222aと、評価収集部222bと、グループ生成部222cと、認識処理制御部222dとが備えられている。
認識処理制御部222dは、ユーザー用端末1a〜1c側で認識された音声若しくは音声がテキスト化された文字列を取得するモジュールである。この認識処理制御部222dには、ユーザー用端末1a〜1c側のスペックに応じて音声認識処理を補足する機能も備えられており、ユーザー用端末1a〜1c側から取得された音声について、AIを備えた解析処理部226と協動し、音響モデルや言語モデルを用いて音声を解析して認識し、テキスト化された文字列を抽出することもできる。この認識処理制御部222dで取得された音声若しくは文字列は、参加者相関管理部222aを通じて、その音声を発した参加者を特定する識別子と関連付けて発話記録として蓄積される。特に、ボット機能が実行されている場合には、仮想的なユーザー用端末1a〜1cが生成されており、その仮想的なユーザー用端末1a〜1cの音声認識処理機能として実行される。
参加者相関管理部222aは、認識処理制御部222dで取得された音声若しくは文字列と、その音声を発した参加者とを関連付けて発話記録としてグループデータベース232に蓄積するとともに、認識された音声に基づいて検索された情報に対する評価及びその評価を行った参加者を特定する参加者識別子と発話記録とを関連付けて参加者相関情報を生成するモジュールである。
評価収集部222bは、各参加者の発話や、情報共有処理部102dが共有させた情報に対する各参加者による評価を、各自の通信端末のGUI制御部103cを通じて収集し、評価情報としてユーザーデータベース231及びグループデータベース232に蓄積するモジュールである。
グループ生成部222cは、グループ管理者となる発起人のユーザー用端末1からのグループ作成要求信号に応じて、複数のユーザーが参加可能なグループを生成するモジュールであり、生成したグループにグループIDを付加するとともに、グループ作成要求したユーザー用端末1から取得したユーザーIDをグループ管理者欄に登録する。また、ユーザー用端末1からの入力情報に基づいて、参加制限人数をグループデータベース232に設定する。
このグループ生成部222cには、端末リスト作成機能が備えられており、この端末リスト作成機能は、グループ内でコンテンツデータの送受を行うユーザー用端末1を記述したリストである端末リストを作成する機能である。具体的に端末リスト作成機能は、グループに参加したユーザー用端末1のユーザーID、その端末へのソケット参照が記載された端末リストを生成する。このグループ生成部222cでは、ユーザー用端末1から放送開始信号を取得すると、グループデータベース232内の参加者欄に記録されたユーザーIDを抽出するとともに、そのユーザーIDに基づいてユーザーデータベース231を参照して、対応するソケット参照を抽出して端末リストを生成して、ユーザー用端末1に対して送信する。なお、接続管理機能によって、ユーザー用端末1に対してグループの参加が許可された場合には、当該ユーザー用端末1を参加者用端末とし、そのユーザー用端末1b,1cのユーザーIDについても、端末リストに記録し、送信する。
解析処理部226は、認識処理制御部222dが取得した音声或いは音声をテキスト化した文字列を認識し、その音声を発話したユーザーと関連付けて発話内容を解析するモジュールであり、所謂AI(Artificial Intelligence:人工知能)システムを備えている。この解析処理部226による解析結果は、必要に応じて認識処理制御部222dにフィードバックされ、これと併せてトピック情報制御部224に入力される。この解析処理部226では、音響モデルや言語モデルを用いて音声を解析して認識し、テキスト化された文字列を抽出する音声認識処理とともに、発話内容の文法解析に基づいて話題となっているジャンルやトピックスを抽出する解析も実行する。
音響分析では、入力された音声データの音の強弱や周波数、音と音の間隔、時系列などさままな特徴量を抽出し、音響モデルで扱いやすい(コンピューターが認識しやすい)データに変換する。音響モデルでは、音響分析により抽出された特徴量がどの記号(音素や単語)にどれほど近いのかを学習したパターンと照らし合わせ、整合率を計算する。音声分析により抽出された特徴量を用いて、音声に含まれる音素を抽出して音声を正しい文字にマッチングさせる。
また、言語モデルでは、膨大な量のデータから単語のつながりを予測判定し、より正確な文章を組み立てる。ここでは予め蓄積したデータから使用する単語の出現率を算出し、単語を文章化する。言語モデルではある文字列に続く直後の文字の出現しやすさをパターン化し、それらの出現確率を定義する。発音辞書では、音声の最小単位の”音素”毎にモデル化されている膨大なデータベースから音の組み合わせをピックアップして「単語」として認識させ、その単語が属するジャンルや関連するトピックスをトピックス辞書から検索して、関連するジャンルやトピックスを特定する。
さらに、この解析処理部226には、ディープラーニング等の機械学習機能が備えられている。このディープラーニングとは、データから自動で特徴を抽出し分類や予測を行う技術であり、ディープラーニングの技術を用いた音声認識では、「音響モデル」から「言語モデル」までのプロセスが1つのニューラルネットワークモデルで実装され、例えば、言語モデルに「私は学校へ」と入力すると、次に出現する可能性が高い「行く」「行かない」などの単語を自動で予測する。
上記共有情報検索部225は、認識部110が認識した音声に関連する情報をインターネット5上から検索し、共有情報蓄積部234に蓄積するモジュールである。この共有情報検索部225による検索対象には、各ユーザー用端末1側の情報検索部103bで検索され情報共有処理部102dにおいて共有された情報も含まれ、その検索履歴も共有情報蓄積部234に蓄積される。
また、この共有情報検索部225は、インターネット5上の情報のみならず、各端末即ちローカルに保存された情報も検索対象とすることができる。各端末における検索範囲は、それぞれの情報検索部103bを通じて設定することができ、その設定で例えば自機に備えられたハードディスクに蓄積されたファイルを検索対象に含めることができる。特に、ボット機能が実行されている場合には、仮想的なユーザー用端末1a〜1cが生成されており、その仮想的なユーザー用端末1a〜1cの情報検索部103bとして実行される。
トピック情報制御部224は、共有情報検索部225が検索した情報を通話に係る音声又は映像中に合成するモジュールであり各ユーザー用端末1の情報合成部102cと同様の機能を果たす。このトピック情報制御部224には、ユーザー用端末1a〜1c側のスペックに応じて情報合成部102cの機能の全て又は一部を補完する機能も備えられており、ユーザー用端末1a〜1c側の情報検索部103bが検索した情報を通話に係る音声又は映像中に合成することもできる。特に、ボット機能が実行されている場合には、管理サーバー2上に仮想的なユーザー用端末1a〜1cが生成されており、その仮想的なユーザー用端末1a〜1cの情報合成部として実行される。
データ送信部223は、各種のデータを配信するモジュールであり、例えば、表示情報蓄積部233に蓄積された表示情報(Webデータ)をユーザー用端末1に送信するとともに、視聴要求の信号を送信してきたユーザー用端末1に対して、グループ通話画面の一部や、トピック情報制御部224で合成された共有情報を、インターネット5を通じて配信する。
また、データ送信部223には、ボット生成部223aが設けられている。このボット生成部223aは、ボットと呼ばれる仮想的な人物又はキャラクターの音声又は映像を生成するモジュールであり、ボット提供サービスの依頼があった場合に、データ送信部223上に仮想的な情報端末を構築し、その仮想的な情報端末を通じて、ボットが参加者としてグループ通話に参加する。
(2)ユーザー用端末1
次いで、各参加者が使用するユーザー用端末1について説明する。図3は、本実施形態に係るユーザー用端末1の内部構成を示すブロック図である。ユーザー用端末1には、通信インターフェース系のモジュールとして通信インターフェース101と、グループ通信制御部102とを備えている。通信インターフェース101は、インターネット5を通じて、データをパケットとして送受信するモジュールであり、また、本実施形態においては、この通信インターフェース101を介して、管理サーバー2と通信して端末リストや参加続要求信号等が送受され、他のユーザー用端末1と通信して、配信要求やコンテンツデータが送受される。
グループ通信制御部102は、ユーザー用端末1間で確立された通信経路を通じて、入力デバイスであるカメラ115やマイク114が取得した映像及び音声をリアルタイムに送受信して双方向通話を行うモジュールであり、具体的には、接続要求部102aと、コンテンツ制御部102bとを備えている。
接続要求部102aは、端末リストを参照して、当該グループ内における他のユーザー用端末1を選択し、選択した通信相手に対して、接続要求及びコンテンツデータの配信要求を送信するモジュールである。なお、接続要求部102aでは、配信要求の際、例えば、端末リスト中に記載された各端末の実行可能通信モードに基づいて、通信モードを指定してもよい。
コンテンツ制御部102bは、通信インターフェース101を通じて、コンテンツデータを取得したり、送信したりするモジュールである。受診に際しては、管理サーバー2からWebデータを受信したり、他のユーザー用端末1から全部又は一部のコンテンツデータを受信したりし、これらのデータをメモリ107に入力する。一方、コンテンツデータの送信に際しては、通話に係る映像や音声、その他のデータを送信する。
詳述すると、コンテンツ制御部102bは、映像・音声やコンテンツの配信に際し、カメラ115で撮影された映像データ、及びマイク114で入力された音声データを他のユーザー用端末1や管理サーバー2に対して配信する。このとき、端末リストを元に対話を行っている複数のユーザー用端末1に対して、一部又は全部のコンテンツデータを配信するとともに、当該コンテンツデータを管理サーバー2に対しても送信している。
本実施形態においてコンテンツ制御部102bには、情報合成部102cと、情報共有処理部102dと、映像取得部102eと、仮想位置設定部102fとが備えられている。
情報合成部102cは、情報検索部103bが検索した情報を通話に係る音声又は映像中に合成するモジュールである。この合成された映像データ若しくは音響データは情報共有処理部102dに入力される。情報共有処理部102dは情報合成部102cが合成した情報(ここでは、映像データ若しくは音響データ)を複数の通信端末間で共有させるモジュールである。
仮想位置設定部102fは、自機と他の通信相手との仮想的な相対位置関係を設定するモジュールである。音声バランス設定部117は、この仮想位置設定部102fによって設定された各通信相手との仮想的な相対位置関係に基づいて、通話される各通信相手から取得される音声の自機側における音量を通信相手となる通信端末毎に変更する。
映像取得部102eは、前記通信端末間で共有される映像を通話相手の通信端末から取得するモジュールである。この取得された映像は、認識部110に入力され、通話に係る映像中に含まれる文字列が抽出されて、表示された通話画面上にクリッカブルに表示される。このクリッカブル表示に対するクリック等のユーザー操作に応じて、ブラウザ部103に備えられた情報検索部103bによりインターネット5やローカルデータから検索される。この検索された情報は、例えばWebページやファイルとして、ブラウザの別タグやウィンドウ、別途のアプリケーション画面として、映像取得部102eが取得した映像とは別途独立させて表示又は出力される。
メモリ107は、OS(Operating System)や各種のアプリケーション用のプログラム、その他のデータ等などを記憶するROM装置であり、管理サーバー2から送信された端末リストなどが含まれている。また、このメモリ107には、キャッシュ部107aを備えている。キャッシュ部107aは、他のユーザー用端末1から送信された全部又は一部のコンテンツデータを一時的に蓄積するバッファ装置であり、本実施形態では、配信要求に応じて取得されたコンテンツデータを画面生成部103aによるコンテンツ再生に先行して、コンテンツを予めキャッシュ部107aにダウンロードして記憶する。このキャッシュ部107aに記憶されたデータは、他のユーザー用端末1と共有することができ、他のユーザー用端末1から配信要求があった場合には、当該他のユーザー用端末1に対して送信される。
さらに、ユーザー用端末1は、コンテンツの再生・操作に関するモジュールとして、アプリケーション実行部111と、操作デバイスインターフェース104と、ブラウザ部103と、出力インターフェース106とを備えている。
アプリケーション実行部111は、一般のOSやブラウザソフト、メディア視聴アプリケーションなどのアプリケーションを実行するモジュールであり、通常はCPU等により実現される。なお、本実施形態では、このアプリケーション実行部111で、例えば、ブラウザソフトが実行されることによって、ブラウザ部103がCPU上に仮想的に構築され、また、メディア視聴アプリケーションを実行することによって、画面生成部103aがCPU上に仮想的に構築される。ブラウザソフトは、管理サーバー内に蓄積されたWebページを視聴可能に表示するためのソフトウェアであり、インターネットからHTML(HyperText Markup Language)ファイルや画像ファイルなどをダウンロードし、レイアウトを解析して表示・再生する。上記メディア視聴アプリケーションは、コンテンツデータのダウンロード機能や、再生機能をユーザー用端末1に実装させるプログラムであり、例えば、WebRTC(Web Real-Time Communication)などのリアルタイムコミュニケーション用のアプリケーションが用いられる。ダウンロードしたコンテンツデータを再生することによって、表示部105に表示された表示画面を通じてその映像を出力する。
操作デバイスインターフェース104は、マウスやタッチパネル等の操作デバイスが接続され、操作信号の入力を受け付けるモジュールである。ブラウザ部103の画面生成部103aにより、表示画面中にユーザー操作を受け付けるGUI(Graphical User Interface)であるGUI制御部103cが構築され、このGUI制御部103cを介して、管理者であるユーザーUaは、グループ通信を開始するための操作を行うとともに、参加者は映像や音声に関する操作をしたり、情報を検索したりなど、各種ユーザー操作を入力することができる。
詳述すると、ブラウザ部103は、情報検索部103bと、GUI制御部103cと、画面生成部103aとを有する。
情報検索部103bは、ブラウザ部103が接続する検索サイトや、ユーザー用端末1のOSに備えられたファイル検索機能と連携して、認識部110が認識した音声に関連する情報を通信ネットワーク或いはユーザー用端末1上から検索し、メモリ107上に記録するモジュールである。この情報検索部103bは、必要に応じて管理サーバー2側の共有情報検索部225と連携して、必要な情報をインターネット5上から検索してメモリ107上に記録する。これらメモリ107に記録された検索結果は情報共有処理部102d又は情報合成部102cに受け渡たされるとともに、管理サーバー2側の共有情報検索部225にも通知される。
ユーザー用端末1上の検索において情報検索部103bは、インターネット5上の情報のみならず、各ユーザー用端末1即ちローカルに保存された情報も検索対象とすることができる。各端末における検索範囲は、それぞれの情報検索部103bに対して設定することができ、その設定で例えば自機に備えられたハードディスクに蓄積されたファイルを検索対象に含めることができる。
GUI制御部103cは、表示部105に表示されたグループ通信ソフトのウィンドウ500内に配置され、グループ通信に関する表示及びユーザー操作を受け付けるグラフィックユーザーインターフェース(GUI)を制御するモジュールである。特に、本実施形態では、図7に示すような通信インターフェース101における双方向通話をしている参加者を指し示すアイコン500aや、画面共有されたキャプチャー画面500bなどをウィンドウ500内に生成し、ウィンドウ500内に表示させたアイコンやキャプチャー画面に対する操作を、GUIを通じて操作デバイスインターフェース104により受け付けて各モジュールに操作信号を送信する。このGUIに対する操作により、チャンネルの作成や、既存チャンネルに対する参加及び退出の要求や、チャンネルの切替えが行われる。
画面生成部103aは、表示部105の画面内にGUI等の表示情報を表示させるモジュールであり、双方向通話を行っている参加者の映像及び音声を指し示すアイコンや共有画面を、参加者による操作信号により選択可能に通話画面上に表示するとともに、操作信号による選択操作に応じて、各アイコンに対応する映像及び音声を出力させる。この画面生成部103aによって生成される画面としては、例えば、グループ通話前であれば、管理者用端末1a専用のチャンネル画面や、管理者用端末1aが生成したチャンネル画面が含まれる。また、画面生成部103aは、グループ通話が開始されている場合には図7に示すような各ユーザー用端末1が参加しているグループ通話画面を表示させ、通話画面には参加している参加者を示すアイコン500aが複数表示されており、アイコン500aには、各端末のカメラで撮影された参加者の顔や、会員登録時に設定されたグラフィック等が表示される。
また、画面生成部103aには、管理者権限でアクセスした場合、管理者権限特有のモジュールとして、管理者操作用のGUIを表示させる機能を備えている。このGUI制御部103cは、管理者用端末1aの操作デバイスインターフェース104からの操作信号に応じて、各アイコンに関する映像及び音声の出力を制御するようになっており、この操作によって、映像及び音声の出力が制限されると、ユーザー用端末1では、参加者による操作信号が入力された場合であっても、各アイコンに関する映像及び音声が出力されないようになっている。
出力インターフェース106は、映像及び音声の出力信号を、表示部105及びスピーカー113からそれぞれ出力させるモジュールである。表示部105は、例えば、液晶ディスプレイ等の表示装置であり、ブラウザソフトなどのアプリケーションによって生成されるウィンドウを通じて、映像や文字などを表示することができる。スピーカー113は、音声信号や音声ファイルを外部に音響として出力する出力装置であり、本実施形態では、他のユーザー用端末1から取得した音声データを受信して、各ユーザーの音声を出力する。
さらに、ユーザー用端末1には、コンテンツデータの生成・配信に関するモジュールとして、音声通話部112と、認識部110と、画像処理部116と、音声バランス設定部117とを備えている。音声通話部112は、音声信号を送受信することによって通常の通話を実行するモジュールであり、管理者又は参加者の音声を取得する入力デバイスであるマイク114より入力される音声を音声信号としてインターネット5に送信する一方、インターネット5を通じて受信される音声信号を音声として受話器のスピーカー113から出力する。なお、この音声通話部112は、VoIP機能によるインターネット電話を実現する機能も備えており、音声通話部112から入力される音声信号をIPパケットデータに変換し、通話相手のユーザー用端末1に送信し、通話相手のユーザー用端末1から受信されたIPパケットデータを音声信号に変換し、音声通話部112に入力する。
認識部110は、通話中の音声を認識するとともに、映像取得部102eが取得した映像中の文字、図形又は形状を画像認識する文字等認識部として機能するモジュールである。詳述すると、認識部110は、音声通話部112を通じて通話中の音声を取得し、又は映像取得部102eから映像を取得し、取得された音声についてはAIにより音響モデルや言語モデルを用いて解析して認識してテキスト化された文字列を抽出する。また、映像については画像認識技術により映像中の文字列を抽出する。この認識部110で認識された音声についてはその音声を発した参加者を特定する識別子と関連付けて発話記録としてメモリ107に記録され、映像中の文字列についてはその映像中における文字列に相当する部位の範囲の座標と関連付けられてメモリ107に記録される。
また、認識部110は、音声通話部112から取得した音声を認識し、その音声を発話したユーザーと関連付けて発話内容を解析する。この解析では、所謂AI(Artificial Intelligence:人工知能)によって音響モデルや言語モデルを用いて音声を解析して認識し、テキスト化された文字列を抽出する音声認識処理とともに、発話内容の文法解析に基づいて話題となっているジャンルやトピックスを抽出する解析も実行する。
音響分析では、入力された音声データの音の強弱や周波数、音と音の間隔、時系列などさままな特徴量を抽出し、音響モデルで扱いやすい(コンピューターが認識しやすい)データに変換する。音響モデルでは、音響分析により抽出された特徴量がどの記号(音素や単語)にどれほど近いのかを学習したパターンと照らし合わせ、整合率を計算する。音声分析により抽出された特徴量を用いて、音声に含まれる音素を抽出して音声を正しい文字にマッチングさせる。
また、言語モデルでは、膨大な量のデータから単語のつながりを予測判定し、より正確な文章を組み立てる。ここでは予め蓄積したデータから使用する単語の出現率を算出し、単語を文章化する。言語モデルではある文字列に続く直後の文字の出現しやすさをパターン化し、それらの出現確率を定義する。発音辞書では、音声の最小単位の”音素”毎にモデル化されている膨大なデータベースから音の組み合わせをピックアップして「単語」として認識させ、その単語が属するジャンルや関連するトピックスをトピックス辞書から検索して、関連するジャンルやトピックスを特定する。
さらに、この認識部110には、ディープラーニング等の機械学習機能が備えられている。このディープラーニングとは、データから自動で特徴を抽出し分類や予測を行う技術であり、ディープラーニングの技術を用いた音声認識では、「音響モデル」から「言語モデル」までのプロセスが1つのニューラルネットワークモデルで実装され、例えば、言語モデルに「私は学校へ」と入力すると、次に出現する可能性が高い「行く」「行かない」などの単語を自動で予測する。
画像処理部116は、画像表示に必要な画像データの変換等を行い、画像処理に特化したデジタル信号処理を行うモジュールであり、本実施形態では、管理者又は参加者の映像を取得する入力デバイスであるカメラ115により撮影された配信者の静止画像や動画像のデータに対して圧縮符号化等を行い、その圧縮符号化された映像(画像)データを、アプリケーション実行部111による制御に基づいてメモリ107に記憶させるとともに、メモリ107に記憶され圧縮符号化されている映像データ等を伸張復号化等し、その伸張復号後のデータラインを介して映像データを表示部105へ送って表示させる。ここで、メモリ107内に記憶されている映像データとは、カメラ115によって撮影された映像データの他、インターネットを介して他のユーザー用端末1から取得され映像データも含まれる。
そして、表示部105の通話画面には、カメラ115で撮影された当該端末の所有者の他、グループ通信に参加している他の配信者のアイコン500aが画面の各位置にそれぞれ表示される。なお、画像処理部116には、画像データを表示画像にRGB画像に変換する色変換、画像データの切替等を制御し、表示部105における画像形成処理全体を制御する画像形成制御機能が含まれる。
音声バランス設定部117は、仮想位置設定部102fによって設定された各通信相手との仮想的な相対位置関係に基づいて、グループ通信制御部102によって通話される各通信相手から取得される音声の自機側における音量を通信相手となる通信端末毎に変更するモジュールである。本実施形態において、上述したアイコン500aの配置は音声バランス設定部117により決定される。
カメラ115は、静止画、又は動画を撮影する撮像装置であって、レンズと、CCDである固定撮像素子から構成され、入射された被写体像を表す光がCCDの受光面に結像され、カメラ信号処理回路及びA/D変換器等を介して画像処理部116に送信される。この画像データには、動画及び静止画が含まれ、動画データは、多数の連続画像がフレームとなったストリーミング形式で転送される。
(グループ通話方法)
以上の構成を有するグループ通話システムを動作させることで、本発明のグループ通話方法を実施することができる。図4〜図6に本実施形態における対話グループ生成から通話開始までの動作を示す。なお、ここでは、ユーザーUaが管理者としてユーザー用端末1aを操作してグループ(チャンネル)を作成し、他のユーザーUbが当該グループに参加する場合を例に説明する。また、ここでは、管理サーバー2には、予め、ユーザー用端末1aからの会員登録は完了されているものとする。
(1)接続処理
先ず、接続処理について説明する。図4に示すように、ユーザーUaがユーザー用端末1aを通じて管理サーバー2にアクセスすると、Webページ上に認証画面が表示される。そして、管理者用端末1a側でユーザーID及びパスワード等を入力すると、管理サーバー2の認証部221では、入力されたユーザーID及びパスワード等に基づいて認証処理が実行される。認証されない場合には、管理者用端末1aの画面上にはエラー表示がなされ、再度、ユーザーID及びパスワード等などの認証情報入力が促される。そして、認証が許可されると管理者用端末1aに対して、現在視聴可能、若しくは参加可能なチャンネルのWebページが送信される。ここで、ユーザーUaは新たなグループ(チャンネル)を作成するグループ作成操作を行う(S101)。このグループ作成操作により、そのグループ作成信号が管理サーバー2のグループ生成部222cに送信される。
他方、グループ生成部222cではグループ作成信号を受信すると(S102)、生成したグループに対して識別子であるグループIDを付加し、グループデータベース232に新規登録するとともに、グループ作成要求した管理者用端末1aから取得したユーザーIDをグループ管理者欄に登録する(S103)。また、ユーザー用端末1aからの入力情報に基づいて参加制限人数をグループデータベース232に設定する。
そして、データ送信部223では、このグループデータベース232に新規登録されたグループを、新規チャンネルとしてWebサイト上に公開する(S104)。これを受けて、各ユーザー用端末1a,1bでは、この開設されたチャンネルのWebページを受信すると、GUI制御部103cでは、双方向通話で送受信されている映像データ及び音声データを指し示すアイコンなどを生成し、画面生成部103aでは、生成されたアイコンを参加者による操作信号により選択可能に画面上に配置して表示するとともに、操作信号による選択操作に応じて、各アイコンに関する映像及び音声を出力させるグループ通話画面を生成して、表示部105のウィンドウ500上に表示させる。
次いで、ユーザーUbがユーザー用端末1を用いて管理サーバー2にアクセスすると(S106)、上記同様に認証処理が行われる。なお、視聴者端末の認証処理については、自動的に割り当てられた文字列などをユーザーIDとして、ユーザーに認証操作を強制せずに視聴を可能とすることが望ましい。ここで、認証されない場合には、ユーザー用端末1bの画面上にはエラー表示を行い、再度、ユーザーID及びパスワード等などの認証情報入力を促す。一方、認証が許可されると、チャンネル一覧画面や、各チャンネルのホーム画面等がデータ送信部223からユーザー用端末1bに送信される(S107)。ユーザー用端末1では、ブラウザ部103によって、表示部105に、通話用画面等が表示される(S108)。その後、ユーザーUbが、参加するチャンネルを決定し参加要求操作を行う(S109)。この参加要求信号が生成され、この信号は管理サーバー2のグループ通話制御部222で受信される(S110)。
グループ通話制御部222でこの参加要求信号を取得すると、アプリケーション側は視聴参加可否の決定をするとともに、当該可否の結果情報を、管理者用端末1aに結果情報として送信するとともに、参加者用結果情報としてユーザー用端末1bに送信する(S113)。そして、管理者用端末1aでは、この結果情報を取得し、取得された情報を被視聴情報や状態表示として表示させる(S112)一方、ユーザー用端末1では、この結果情報を取得し、取得された情報を表示部105上に表示させる(S111)。また、グループ通話制御部222では、取得した許可信号に基づいて、グループデータベース232を参照し、当該データベース内の参加者欄に、ユーザー用端末1のユーザーIDを登録し、ユーザー用端末1bをグループ通話に参加させ、双方向通話を開始させる。
(2)共有情報合成出力処理
このように接続されたグループ通話において共有情報を合成出力する場合について説明する。
上述したシーケンスによって通話が開始されると(S201)、映像や音声その他のデータ(各種ファイルやキャプチャーされたデスクトップ画面等)等のコンテンツデータが各端末及び管理サーバー2間で双方向に送受信され(S202)、各端末において映像が表示され音声が出力される(S203)。
ここで、ユーザー用端末1a側で共有情報合成出力処理を行う場合を例として説明する。先ず、図5に示すように、ユーザー用端末1aの認識部110によって認識を行う通話認識ステップを実行する(S204)。具体的には、認識部110が、音声通話部112を通じて通話中の音声を取得し、又は映像取得部102eから映像を取得し、取得された音声についてはAIにより音響モデルや言語モデルを用いて解析して認識してテキスト化された文字列を抽出する。
次いで情報共有処理ステップとしてステップS205及びS206を実行する。具体的には、通話認識ステップ(S204)で認識された音声の文字列から検索キーワードを抽出し(S205)、情報検索を実行する(S206)。検索キーワードは通話認識ステップで認識された文字列をそのまま用いる場合と、その文字列に関連付けられた類義語などを含める場合とが挙げられる。また、このとき情報検索部103bは、インターネット5上の情報のみならず、各ユーザー用端末1即ちローカルに保存された情報も検索対象とすることができる。各端末における検索範囲は、それぞれの情報検索部103bに対して設定することができ、その設定で例えば自機に備えられたハードディスクに蓄積されたファイルを検索対象に含めることができる。
そして、この検索された情報を各ユーザー端末間で共有する(S207)。具体的には、情報合成部102cが、情報検索部103bが検索した情報を通話に係る音声又は映像中に合成し、この合成された映像データ若しくは音響データは情報共有処理部102dに入力され、この情報共有処理部102dによって複数の通信端末間で共有される。この共有された情報は、図8に示すように、各ユーザー用端末1でグループ通信ソフトのウィンドウ500内にポップアップ画面500dとして合成出力されるとともに(S209,S210)、管理サーバー2において共有情報蓄積部234に蓄積される。ここでは、グループ通信ソフトのウィンドウ500内に表示されたユーザーのスポーツに関する発話が吹出しアイコン500cとして表示されるとともに、このスポーツに関する発話が認識されて共有情報として昨日のプロサッカー試合の結果が検索されて、ポップアップ画面500dにより合成表示されている。このポップアップ画面500dには評価操作用のGUIとしてよい評価・悪い評価を選択的に入力する評価ボタン500eが設けられている。
その後、この共有された情報について、各端末を通じて各ユーザーが評価操作を行う(S211)。ここでは、ウィンドウ500内に合成表示されたポップアップ画面500dに設けられた評価ボタン500eをクリックするなどの評価操作を、ユーザーUaが行ったものとする。この評価操作は、管理サーバー2側で取得・収集され集計される(S212)とともに、その集計された結果に基づいて、参加者同士の相関情報が生成され(S214)、評価結果に基づく仮想的相対位置を設定する(S215)。具体的には、参加者相関管理部222aが認識処理制御部222dで取得された音声若しくは文字列と、その音声を発した参加者とを関連付けて発話記録としてグループデータベース232に蓄積する。
これと併せて参加者相関管理部222a、認識された音声に基づいて検索された情報に対する評価及びその評価を行った参加者を特定する参加者識別子と発話記録とを関連付けて、図9に示すような参加者相関情報を生成する。同図に示した例では、スポーツ関連の話題にユーザーUc及びその他のユーザーU1,U2が高い評価をしておりユーザーUcに対するユーザーU1,U2の仮想的距離が短く設定される。また、同図に示した例では、時事関連の話題にユーザーUcは低い評価をしているのに対し他のユーザーU6〜8は高い評価をしており、この時事関連に関しユーザーUcに対するユーザーU6〜8の仮想的距離が短く設定される。
そして、この参加者相関管理部222aで作成された評価集計結果は他のユーザー用端末1aにも送信され、その評価集計結果を取得したユーザー用端末1a側では取得した評価結果を、例えば「いいね」や星印の数量などで表示する(S213)。また、この設定された仮想的相対位置に応じて、各ユーザーを示すアイコンの配置を変化させるとともに、その仮想的な相対距離に応じて音声バランスを調整することができる(S216)。図9に示した例では、ユーザーU1及びU2がGUI中心近くに大きめに配置されて音量も大きめに設定され、ユーザーU6〜8がGUIの端側の上方に小さめに配置されて音量も小さめに設定されている。
(3)映像内文字列抽出処理
次いで、各端末に備えられている映像内文字列抽出機能による処理について説明する。先ず、上述したシーケンスによって通話が開始されると(S301)、映像や音声その他のデータ(各種ファイルやキャプチャーされたデスクトップ画面等)等のコンテンツデータが各端末及び管理サーバー2間で双方向に送受信され(S302)、各端末において映像が表示され音声が出力される(S303)。
この取得された映像について、その映像内に映っている文字列を画像認識処理により抽出する(S304)。具体的には、図10に示すように、認識部110の文字等認識機能が、映像取得部102eが取得した映像中の文字、図形又は形状を画像認識して抽出し、その映像中における文字列に相当する部位の範囲の座標と関連付けられてメモリ107に記録する。図10に示した例では、いずれかのユーザー端末上でキャプチャーされたアプリケーションウィンドウ501が他のユーザー間で共有されている。このキャプチャーされたデスクトップ画面に含まれるブラウザソフトのアプリケーションウィンドウ501に表示されたURL501aを画像認識して抽出し、その映像中における文字列に相当する部位の範囲の座標と関連付けられてメモリ107に記録する。
そして、その抽出された文字列が表示された座標に相当する部位がクリッカブルにディスプレイ上に表示されるとともに、このクリッカブル表示の部位に対するユーザー操作を取得する(S305)。ここでは、デスクトップ画面に含まれるブラウザソフトのアプリケーションウィンドウ501に表示されたURL501aに相当する部位をユーザーがクリックしたことを検出する。次いで、このクリックされた部位の座標を検出することにより、その操作により特定された座標に関連付けられた上記URL501aの文字列が取得され、その取得された文字列に基づいて情報の検索が行われる(S306)。
このステップS306における検索の検索結果である情報を表示する(S307)。詳述すると、このクリッカブル表示に対するクリック等のユーザー操作に応じて、ブラウザ部103に備えられた情報検索部103bによりインターネット5やローカルデータから検索される。この検索された情報は、ここでは、Webページやファイルとして、グループ通信ソフトのアプリケーションウィンドウ500とは別のアプリケーションウィンドウ502として、映像取得部102eが取得した映像とは別途独立させて表示又は出力される。
(4)ボット処理
本実施形態では、サーバー0上のボット生成部223aによって、ボットと呼ばれる仮想的な人物又はキャラクターの音声又は映像を生成する機能を備えてお降り、ボット提供サービスの依頼があった場合に、データ送信部223上に仮想的な情報端末を構築し、その仮想的な情報端末を通じて、図12に示すような仮想的なキャラクターであるボットB1のイメージ画像が参加者としてグループ通話に参加させるサービスが提供される。ボットB1は、例えば3Dモデルや2Dモデルで擬人的に挙動する仮想上の人物(動物やクリーチャー等を含む)であり、このボット生成部223aは情報検索部103bによって検索された情報がボットB1を通じて情報合成部102cにより合成される。本実施形態においてこの情報合成部102cは、ボットB1があたかもグループ通信の参加者の一人として表示され、グループ通信で通話されたり共有された情報に関して自発的に検索した情報を、音声や文字表示で提供する。
このボット提供サービスにおけるシーケンスを図11に示す。同図に示すように、ボット生成処理が実行され、生成されたボットが参加者としてグループ通話に対する酸化処理が実行され(S401)、各端末間において通話が開始されると(S402)、映像や音声その他のデータ(各種ファイルやキャプチャーされたデスクトップ画面等)等のコンテンツデータが各端末及び管理サーバー2間で双方向に送受信され(S403)、各端末において映像が表示され音声が出力される(S404)。
次いで、認識処理制御部222dによって音声認識を行う(S405)。具体的には、認識処理制御部222d及び解析処理部226がグループ通話制御部222を通じて通話中の音声を取得し、取得された音声について、解析処理部226のAIにより音響モデルや言語モデルを用いて解析して認識してテキスト化された文字列を抽出する。
次いで,通話認識ステップ(S405)で認識された音声の文字列から検索キーワードを抽出し(S406)、情報検索を実行する(S407)。検索キーワードは通話認識ステップで認識された文字列をそのまま用いる場合と、その文字列に関連付けられた類義語などを含める場合とが挙げられる。また、このとき共有情報検索部225がインターネット5上の情報のみならず、各ユーザー用端末1即ちローカルに保存された情報を検索対象とする。
そして、この検索された情報は、ボットの発話処理を通じて各ユーザー端末間で共有される(S408)。具体的には、共有情報検索部225及びトピック情報制御部224が検索して決定したトピック情報を、ボット生成部223aが、通話に係る音声又は映像中に合成し、この合成された映像データ若しくは音響データは、通話用の映像データ及び音響データとして情報共有処理部102dに入力され、情報共有処理部102dによって他の通信端末へ送信される。この送信された共有情報は各端末の音声通話部112で他の通話映像と同様に取得され(S409)、ボットB1の発話として出力されるとともに(S411)、管理サーバー2において共有情報蓄積部234に蓄積される(S410)。
その後、この共有された情報について、各端末を通じて各ユーザーが評価操作を行う(S412)。ここでは、グループ通信ソフトのウィンドウ500内に合成表示されたポップアップ画面500dに設けられた評価ボタン500eをクリックするなどの評価操作を、ユーザーUaが行ったものとする。この評価操作は、管理サーバー2側で取得・収集され集計される(S413)とともに、その集計された結果に基づいて、参加者同士の相関情報が生成され(S414)、評価結果に基づく仮想的相対位置を設定する(S415)。具体的には、参加者相関管理部222aが認識処理制御部222dで取得された音声若しくは文字列と、その音声を発した参加者とを関連付けて発話記録としてグループデータベース232に蓄積する。
詳しくは、参加者相関管理部222a、認識された音声に基づいて検索された情報に対する評価及びその評価を行った参加者を特定する参加者識別子と発話記録とを関連付けて、図9に示すような参加者相関情報を生成する(S414)。そして、この参加者相関管理部222aで作成された評価集計結果は他のユーザー用端末1aにも送信され、その評価集計結果を取得したユーザー用端末1a側では取得した評価結果を、例えば「いいね」や星印の数量などで表示する。次いで、この設定された仮想的相対位置に応じて、各ユーザーを示すアイコンの配置を変化させるとともに、その仮想的な相対距離に応じて音声バランスを調整することができる(S415及びS416)。
(グループ通話プログラム)
上述した本実施形態係るユーザー用端末1及びグループ通話方法は、所定の言語で記述されたプログラムをコンピューター上で実行することにより実現することができる。即ち、このプログラムをクライアント側が使用するパーソナルコンピュータ、ネットワーク上に配置されたサーバー装置にインストールし、CPU上で実行することにより、上述した各機能を有するグループ通話システムを容易に構築することができる。このプログラムは、例えば、通信回線を通じて配布することが可能であり、またスタンドアローンの計算機上で動作するパッケージアプリケーションとして譲渡することができる。
そして、このようなプログラムは、パーソナルコンピュータで読み取り可能な記録媒体に記録することができる。具体的には、CD-ROMやDVD-ROM等の光ディスクの他、USBメモリやメモリカードなど、種々の記録媒体に記録することができる。
(作用・効果)
このような本実施形態によれば、通話中の音声を認識して、認識された音声に関連する情報(話題や記事等)を通信ネットワーク上から自動的に検索し、その検索結果を通話に係る音声又は映像中に合成して共有させる。これにより、本実施形態では、ビデオチャットやテレビ会議など複数の通信端末間でリアルタイムでグループ通信する際、関連情報が自動的に提供されるため、チャットの途中で話題が尽きてしまったようなときであっても、会話をスムーズに継続することができる。
また、本実施形態によれば、通信端末間で共有される映像に含まれる文字、図形又は形状を認識し、その認識結果から特定される情報を別途独立されたアプリケーションウィンドウから表示又は出力することから、グループ通話から別途独立したツールでグループ通話に関連する情報を検索でき、話題が発散してしまって共通の話題が見えなくなってしまったときに、他のユーザーの会話を妨げることなく、ユーザーが独自に話題中の情報を検索することができる。
さらに、本実施形態によれば、各ユーザーが、自身と他の通信相手との仮想的な相対位置関係を設定して、その位置関係に基づいて、各通信相手の音量を変更する音声バランス設定ができることから、複数のユーザーがそれぞれ発話し話題が混在したような場合であっても、各ユーザーの声を適切な音量とすることができる。
これらの結果、本実施形態によれば、グループ通信に際し、複数人の参加者が一斉に集合して通話を行うことによる不便さや不自由さを解消できる。
B1…ボット(画像イメージ)
U1〜12,Ua〜Uc…ユーザー
1(1a〜1c)…ユーザー用端末
2…管理サーバー
5…インターネット
21…通信インターフェース
22…制御部
23…記憶部
101…通信インターフェース
102…グループ通信制御部
102a…接続要求部
102b…コンテンツ制御部
102c…情報合成部
102d…情報共有処理部
102e…映像取得部
102f…仮想位置設定部
103…ブラウザ部
103a…画面生成部
103b…情報検索部
103c…GUI制御部
104…操作デバイスインターフェース
105…表示部
106…出力インターフェース
107…メモリ
107a…キャッシュ部
110…認識部
111…アプリケーション実行部
112…音声通話部
113…スピーカー
114…マイク
115…カメラ
116…画像処理部
117…音声バランス設定部
221…認証部
222…グループ通話制御部
222a…参加者相関管理部
222b…評価収集部
222c…グループ生成部
222d…認識処理制御部
223…データ送信部
223a…ボット生成部
224…トピック情報制御部
225…共有情報検索部
226…解析処理部
231…ユーザーデータベース
232…グループデータベース
233…表示情報蓄積部
234…共有情報蓄積部
500…アプリケーションウィンドウ
500a…アイコン
500b…共有キャプチャー画面
500c…吹出しアイコン
500d…ポップアップ画面
500e…評価ボタン
501…キャプチャーされたアプリケーションウィンドウ
501a…URL
502…アプリケーションウィンドウ

Claims (18)

  1. 複数の参加者がそれぞれ使用する複数の通信端末間で通信ネットワークを通じて通信を行うグループ通信システムであって、
    音声又は音声を含む映像による通話を行う通話部と、
    通話中の音声を認識する音声認識部と、
    前記音声認識部が認識した音声に関連する情報を通信ネットワーク上から検索する情報検索部と、
    前記情報検索部が検索した情報を前記通話に係る音声又は映像中に合成する情報合成部と、
    前記情報合成部が合成した情報を前記複数の通信端末間で共有させる情報共有処理部と
    を備えることを特徴とするグループ通信システム。
  2. 仮想的な人物又はキャラクターの音声又は映像を生成するボット生成部をさらに備え、
    前記情報検索部によって検索された情報は、前記ボット生成部により生成された音声又は映像として前記情報合成部により合成される
    ことを特徴とする請求項1に記載のグループ通信システム。
  3. 通信ネットワーク上に配置された複数の通信端末間で通信を行うオンライン会議システムであって、
    音声又は音声を含む映像による通話を行う通話部と、
    前記通信端末間で共有される映像を通話相手の通信端末から取得する映像取得部と、
    映像取得部が取得した映像中の文字、図形又は形状を認識する文字等認識部と、
    前記文字等認識部が認識した文字、図形又は形状から特定される情報を通信ネットワーク上から検索する情報検索部と、
    前記情報検索部が検索した情報を、前記映像取得部が取得した映像とは別途独立させて表示又は出力する検索情報出力部と
    を備えることを特徴とするグループ通信システム。
  4. 自機と他の通信相手との仮想的な相対位置関係を設定する仮想位置設定部と、
    前記仮想位置設定部によって設定された各通信相手との仮想的な相対位置関係に基づいて、前記通話部によって通話される各通信相手から取得される音声の自機側における音量を通信相手となる通信端末毎に変更する音声バランス設定部をさらに備えることを特徴とする請求項1乃至3のいずれかに記載のグループ通信システム。
  5. 前記通信端末間で共有された情報に対する各参加者による評価を、各自の通信端末を通じて収集する評価収集部をさらに備え、
    前記仮想位置設定部は、前記評価収集部によって収集された各参加者の評価に基づいて設定する
    ことを特徴とする請求項4に記載のグループ通信システム。
  6. 前記音声認識部が認識した音声と、その音声を発した参加者とを関連付けて発話記録として蓄積するとともに、認識された音声に基づいて検索された情報に対する評価及びその評価を行った参加者を特定する参加者識別子と前記発話記録とを関連付けて参加者相関情報を生成する参加者相関管理部をさらに備えることを特徴とする請求項1乃至3のいずれかに記載のグループ通信システム。
  7. 複数の参加者がそれぞれ使用する複数の通信端末間で、通信ネットワークを通じて通信を行うグループ通信プログラムであって、コンピューターを、
    音声又は音声を含む映像による通話を行う通話部と、
    通話中の音声を認識する音声認識部と、
    前記音声認識部が認識した音声に関連する情報を、通信ネットワーク上から検索する情報検索部と、
    前記情報検索部が検索した情報を、前記通話に係る音声又は映像中に合成する情報合成部と、
    前記情報合成部が合成した情報を、前記複数の通信端末間で共有させる情報共有処理部として
    機能させることを特徴とするグループ通信プログラム。
  8. 前記コンピューターを仮想的な人物又はキャラクターの音声又は映像を生成するボット生成部としてさらに機能させ、
    前記情報検索部によって検索された情報は、前記ボット生成部により生成された音声又は映像として前記情報合成部により合成される
    ことを特徴とする請求項7に記載のグループ通信プログラム。
  9. 通信ネットワーク上に配置された複数の通信端末間で、通信を行うオンライン会議プログラムであって、コンピューターを、
    音声又は音声を含む映像による通話を行う通話部と、
    前記通信端末間で共有される映像を通話相手の通信端末から取得する映像取得部と、
    映像取得部が取得した映像中の文字、図形又は形状を認識する文字等認識部と、
    前記文字等認識部が認識した文字、図形又は形状から特定される情報を通信ネットワーク上から検索する情報検索部と、
    前記情報検索部が検索した情報を、前記映像取得部が取得した映像とは別途独立させて表示又は出力する検索情報出力部として
    機能させることを特徴とするグループ通信プログラム。
  10. 前記コンピューターを、
    自機と、他の通信相手との仮想的な相対位置関係を設定する仮想位置設定部と、
    前記仮想位置設定部によって設定された各通信相手との仮想的な相対位置関係に基づいて、前記通話部によって通話される各通信相手から取得される音声の自機側における音量を通信相手となる通信端末毎に変更する音声バランス設定部
    としてさらに機能させることを特徴とする請求項7乃至9のいずれかに記載のグループ通信プログラム。
  11. 前記コンピューターを、前記通信端末間で共有された情報に対する各参加者による評価を、各自の通信端末を通じて収集する評価収集部としてさらに機能させ、
    前記仮想位置設定部は、前記評価収集部によって収集された各参加者の評価に基づいて設定する
    ことを特徴とする請求項10に記載のグループ通信プログラム。
  12. 前記コンピューターを、前記音声認識部が認識した音声とその音声を発した参加者とを関連付けて発話記録として蓄積するとともに、認識された音声に基づいて検索された情報に対する評価及びその評価を行った参加者を特定する参加者識別子と前記発話記録とを関連付けて参加者相関情報を生成する参加者相関管理部としてさらに機能させることを特徴とする請求項7に記載のグループ通信プログラム。
  13. 複数の参加者がそれぞれ使用する複数の通信端末間で通信ネットワークを通じて通信を行うグループ通信方法であって、
    音声又は音声を含む映像による通話を通話部が実行させるとともに、通話中の音声を音声認識部が認識する通話認識ステップと、
    前記音声認識部が認識した音声に関連し、通信ネットワーク上から検索された情報を、情報共有処理部が前記通話に係る音声又は映像中に合成して前記複数の通信端末間で共有させる情報共有処理ステップと
    を含むことを特徴とするグループ通信方法。
  14. 前記情報共有処理ステップでは、前記検索された情報を、ボット生成部により生成された仮想的な人物又はキャラクターの音声又は映像として合成することを特徴とする請求項13に記載のグループ通信方法。
  15. 通信ネットワーク上に配置された複数の通信端末間で、通信を行うグループ通信方法であって、
    音声又は音声を含む映像による通話を通話部が実行させるとともに、前記通信端末間で共有される映像を通話相手の通信端末から映像取得部が取得する映像取得ステップと、
    映像取得部が取得した映像中から認識した文字、図形又は形状に基づいて特定される情報を情報検索部が通信ネットワーク上から検索する情報検索ステップと、
    前記情報検索ステップにおいて検索された情報を、前記映像取得部が取得した映像とは別途独立させて検索情報出力部が表示又は出力する検索情報出力ステップと
    を含むことを特徴とするグループ通信方法。
  16. 自機と他の通信相手との仮想的な相対位置関係に基づいて、前記通話部によって通話される音声の自機側における音量を通信相手となる通信端末毎に音声バランス設定部が変更する音声バランス設定ステップをさらに含むことを特徴とする請求項13乃至15のいずれかに記載のグループ通信方法。
  17. 前記通信端末間で共有された情報に対する各参加者による評価を、評価収集部が各自の通信端末を通じて収集する評価収集ステップをさらに含み、
    前記音声バランス設定ステップでは、前記評価収集ステップで収集された各参加者の評価に基づいて仮想的な相対位置関係を設定する
    ことを特徴とする請求項16に記載のグループ通信方法。
  18. 前記音声認識部が認識した音声と、その音声を発した参加者とを関連付けて発話記録として蓄積するとともに、認識された音声に基づいて検索された情報に対する評価及びその評価を行った参加者を特定する参加者識別子と前記発話記録とを関連付けて参加者相関情報を参加者相関管理部が生成する参加者相関管理ステップをさらに含むことを特徴とする請求項13に記載のグループ通信方法。
JP2020085361A 2020-05-14 2020-05-14 グループ通信システム、グループ通信プログラム及びグループ通信方法 Pending JP2021180427A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020085361A JP2021180427A (ja) 2020-05-14 2020-05-14 グループ通信システム、グループ通信プログラム及びグループ通信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020085361A JP2021180427A (ja) 2020-05-14 2020-05-14 グループ通信システム、グループ通信プログラム及びグループ通信方法

Publications (1)

Publication Number Publication Date
JP2021180427A true JP2021180427A (ja) 2021-11-18

Family

ID=78510576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020085361A Pending JP2021180427A (ja) 2020-05-14 2020-05-14 グループ通信システム、グループ通信プログラム及びグループ通信方法

Country Status (1)

Country Link
JP (1) JP2021180427A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145849A1 (ja) * 2022-01-28 2023-08-03 Line株式会社 プログラム、情報処理方法、端末、サーバ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145849A1 (ja) * 2022-01-28 2023-08-03 Line株式会社 プログラム、情報処理方法、端末、サーバ

Similar Documents

Publication Publication Date Title
US10984346B2 (en) System and method for communicating tags for a media event using multiple media types
US8768705B2 (en) Automated and enhanced note taking for online collaborative computing sessions
US11024286B2 (en) Spoken dialog system, spoken dialog device, user terminal, and spoken dialog method, retrieving past dialog for new participant
JP6404912B2 (ja) ライブ放送システム
US9021118B2 (en) System and method for displaying a tag history of a media event
CN102158614B (zh) 语境敏感的基于云的电话技术
WO2021034038A1 (en) Method and system for context association and personalization using a wake-word in virtual personal assistants
JP2002049559A (ja) 会話ブラウズおよびマルチメディア・ブロードキャスト・オン・デマンドを提供する会話ポータル
WO2008066836A1 (en) Method and apparatus for translating speech during a call
TW201222271A (en) System and method for providing and managing interactive services
JP6719166B2 (ja) ライブ放送システム
KR20090004934A (ko) 디지털 음성 대화로부터 데이터 패킷들을 마이닝하는 방법,컴퓨터 판독가능 매체 및 디지털 음성 대화의 내용과 관련된 추가의 정보를 제공하는 방법
JP5614798B2 (ja) 電話会議システム、通信サーバー、通信端末及び電話会議方法。
JP2016006607A (ja) 対話型通信システム、端末装置およびプログラム
US20080275937A1 (en) Control Device, Method and Program for Providing Information
JP4250938B2 (ja) コミュニケーション支援方法およびコミュニケーションサーバ
JP2021180427A (ja) グループ通信システム、グループ通信プログラム及びグループ通信方法
JP4380144B2 (ja) 音声対話用情報処理装置
JP6554517B2 (ja) サウンドを利用したソーシャルネットワークサービス提供装置及びその方法
JP7185712B2 (ja) 人工知能デバイスと連動して音声記録を管理する方法、コンピュータ装置、およびコンピュータプログラム
JP2004279897A (ja) 音声通信記録生成方法、装置及びプログラム
JP2002006871A (ja) インターネット・カラオケ・システム
WO2024032111A9 (zh) 在线会议的数据处理方法、装置、设备、介质及产品
JP7284204B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP4596727B2 (ja) 利用者参加型情報展開システム及び利用者参加によって展開されるマルチメディア組み込み情報を表示する移動体情報端末

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240702