JP7489341B2 - NETWORK SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM - Google Patents
NETWORK SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP7489341B2 JP7489341B2 JP2021019596A JP2021019596A JP7489341B2 JP 7489341 B2 JP7489341 B2 JP 7489341B2 JP 2021019596 A JP2021019596 A JP 2021019596A JP 2021019596 A JP2021019596 A JP 2021019596A JP 7489341 B2 JP7489341 B2 JP 7489341B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- user terminal
- operator
- operator terminal
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title description 5
- 238000003672 processing method Methods 0.000 title description 5
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000005540 biological transmission Effects 0.000 claims 2
- 238000000605 extraction Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 description 44
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000011664 signaling Effects 0.000 description 5
- 238000000034 method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012559 user support system Methods 0.000 description 2
- 238000010411 cooking Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011330 nucleic acid test Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、インターネットなどのネットワークを利用したユーザとオペレータのコミュニケーションのためのネットワークシステムの技術に関する。 The present invention relates to network system technology for communication between users and operators using a network such as the Internet.
従前より、インターネットなどのネットワークを利用したユーザとオペレータとのコミュニケーションのための技術や、オペレータがユーザを支援するための技術などが知られている。たとえば、特開2016-183968号公報(特許文献1)には、音声ガイド支援システム及びそのプログラムが開示されている。特許文献1によると、ユーザのガイドを行う場合に、オペレータ端末に、ユーザ端末からのカメラ撮影画像データを表示して、ユーザ向けの音声入力がある場合には、ユーザ用音声データとしてユーザ端末宛にセンタサーバを介して送信すると共に、ユーザ周囲の人向けの音声入力がある場合には、外部用音声データとしてユーザ端末宛にセンタサーバを介して送信し、ユーザ端末が、受信したユーザ用音声データを音声入出力装置に音声出力し、受信した外部用音声データを音声外部出力部から外部へ音声出力する音声ガイド支援システムが提供される。 Technologies for communication between users and operators using networks such as the Internet, and technologies for operators to support users, have been known for some time. For example, Japanese Patent Laid-Open Publication No. 2016-183968 (Patent Document 1) discloses an audio guidance support system and its program. According to Patent Document 1, when guiding a user, a voice guidance support system is provided in which camera-captured image data from a user terminal is displayed on an operator terminal, and if there is voice input for the user, the image data is transmitted to the user terminal via a center server as user voice data, and if there is voice input for people around the user, the image data is transmitted to the user terminal via the center server as external voice data, and the user terminal outputs the received user voice data to a voice input/output device, and outputs the received external voice data to the outside from a voice external output unit.
本発明の目的は、オペレータがユーザに必要な情報をより効率的に伝えることができる技術を提供することにある。 The objective of the present invention is to provide technology that allows operators to more efficiently convey necessary information to users.
本発明の一態様に従うと、カメラを含むユーザ端末と、操作部を含むオペレータ端末と、を備えるネットワークシステムが提供される。ユーザ端末は、カメラで撮影中の画像をインターネットを介してオペレータ端末に送信するとともに、カメラで撮影中の画像とオペレータ端末からの動画像とを表示する。オペレータ端末は、操作部に入力される命令に基づいて、カメラで撮影された画像に対する編集中の画像を、インターネットを介して動画像としてユーザ端末に送信する。 According to one aspect of the present invention, a network system is provided that includes a user terminal including a camera and an operator terminal including an operation unit. The user terminal transmits an image being captured by the camera to the operator terminal via the Internet, and displays the image being captured by the camera and a video from the operator terminal. Based on a command input to the operation unit, the operator terminal transmits an image being edited from the image captured by the camera to the user terminal via the Internet as a video.
以上のように、本発明によれば、オペレータがユーザに必要な情報をより効率的に伝えることができるようになる。 As described above, the present invention allows operators to more efficiently convey necessary information to users.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<ネットワークシステム1の全体構成>
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the following description, the same components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
First Embodiment
<Overall configuration of network system 1>
まず、図1を参照して本実施の形態にかかるネットワークシステム1の全体構成について説明する。本実施の形態にかかるネットワークシステム1は、主に、ユーザサポートサービスを提供するためのサーバ100と、当該サービスを利用する質問者としてのユーザが利用するユーザ端末200と、回答者としてのオペレータが利用するオペレータ端末300とを含む。
First, the overall configuration of the network system 1 according to the present embodiment will be described with reference to FIG. 1. The network system 1 according to the present embodiment mainly includes a
なお、サーバ100は、クラウド上の単一または複数の装置によって実現されるものである。たとえば、サーバ100は、最初にQ&Aの問い合わせを受け付けてチャットボットなどによって対応するWebサイトを運営するサーバや、オペレータの稼働状態やオペレータ端末300の利用状態などを管理するサーバや、ユーザ端末200とオペレータ端末300とを常時接続させるためのサーバなどを含む概念である。
The
ユーザ端末200は、スマートフォンやタブレットやパーソナルコンピュータなどによって実現され、インターネットやキャリア網を介してサーバ100やオペレータ端末300と通信可能である。
The
オペレータ端末300は、パーソナルコンピュータやタブレットやスマートフォンなどによって実現され、インターネットやキャリア網を介してサーバ100やユーザ端末200と通信可能である。
<ネットワークシステム1の動作概要>
The
<Overview of Operation of Network System 1>
次に、図1および図2を参照して、本実施の形態にかかるネットワークシステム1の動作概要について説明する。以下では、一例として、ユーザが、電気機器の使用方法をオペレータに教えてもらう場合について説明するが、本実施の形態にかかるネットワークシステム1は、他にも、料理の方法を伝える場合や、診察や、スポーツや、観光ガイドなどにも利用することができる。 Next, an overview of the operation of the network system 1 according to this embodiment will be described with reference to Figures 1 and 2. As an example, the following describes a case where a user is instructed by an operator on how to use an electrical device, but the network system 1 according to this embodiment can also be used for other purposes, such as providing cooking instructions, medical examinations, sports, and tourist guides.
本実施の形態においては、まず、質問者が、ユーザ端末200を利用して、電気機器のホームページなどに貼られている質問のためのバナーやショートメールのURLなどをクリックする。サーバ100は、オペレータとやり取りするためのユーザ側WEBページをユーザ端末200にダウンロードして、登録されているオペレータの中から、現在顧客対応中でないオペレータを探す。サーバ100は、空いているオペレータを見つけると、当該オペレータのオペレータ端末300に、ユーザとやり取りするためのオペレータ側WEBページをダウンロードする。本実施の形態においては、WebRTC(Web Real-Time Communications)の技術を利用して、ユーザ端末200とオペレータ端末300とが、音声や画像をやり取りするものである。
In this embodiment, first, the questioner uses the
図2(A)に示すように、ユーザ端末200は、ダウンロードしたWEBページの指示に従って、カメラを起動して、撮影中の画像をディスプレイの左側の画面231に表示するとともに、撮影している動画像やマイクで取得した音声を常時接続サーバを介してオペレータ端末300に送信する。オペレータ端末300は、ダウンロードしたWEBページの指示に従って、ユーザ端末200で撮影されている画像のストリーミング映像をディスプレイの左側の画面331に表示するとともに、ユーザ端末200に入力された音声をスピーカから出力する。なお、オペレータ端末300のマイクで取得された音声は、ユーザ端末200のスピーカから出力される。
As shown in FIG. 2(A), the
この状態において、オペレータが所望のタイミングで所定のボタン333を押すと、オペレータ端末300は、ダウンロードしたWEBページの指示に従って、図2(B)に示すように、押されたタイミングの画像の静止画像を、ディスプレイの右側の編集用画面332に表示する。オペレータは、当該静止画像に対して編集を加えることができる。たとえば、説明の対象となっているボタンや操作部やその他の部位に印をつけたり、説明のためのイラストやテキストなどを描いたりすることができる。オペレータ端末300は、編集されている右側の画面332の動画像やマイクで取得した音声を常時接続サーバを介してユーザ端末200に送信する。ユーザ端末200は、WEBページの指示に従って、ユーザ端末200で撮影されている動画像をディスプレイの左側の画面231に表示するとともに、オペレータ端末300からの編集中の動画像のストリーミング映像をディスプレイの右側の画面232に表示する。なお、この状態において、ユーザ端末200に入力された音声はオペレータ端末300で出力され、オペレータ端末300に入力された音声はユーザ端末200で出力される。
In this state, when the operator presses a
このように、本実施の形態においては、ユーザ端末200のカメラで撮影されている画像をオペレータが確認できるだけでなく、オペレータはユーザやユーザ端末200から見えている景色に対して画像や文字やイラストなどを描くことができる。つまり、オペレータは、ユーザの周囲の状況を的確に認識しやすくなり、ユーザに対する説明も容易になる。また、ユーザは、自分が見ている景色に対して説明が付されたストリーミング画像を確認しながら、オペレータの説明を聞くことができる。その結果、ユーザがオペレータの意図を認識しやすく、オペレータとユーザとの間での話の齟齬を低減することができる。
In this manner, in this embodiment, not only can the operator check images captured by the camera of the
以下、このような機能を実現するためのネットワークシステム1の具体的な構成について詳述する。
<サーバの構成>
A specific configuration of the network system 1 for realizing such functions will be described in detail below.
<Server configuration>
まず、本実施の形態にかかるネットワークシステム1を構成するサーバ100の構成の一態様について説明する。図3を参照して、サーバ100は、主たる構成要素として、CPU(Central Processing Unit)110と、メモリ120と、操作部140と、通信インターフェイス160とを含む。
First, one aspect of the configuration of the
CPU110は、メモリ120に記憶されているプログラムを実行することによって、サーバ100の各部を制御する。たとえば、CPU110は、メモリ120に格納されているプログラムを実行し、各種のデータを参照することによって、後述する各種の処理を実行する。
The
メモリ120は、各種のRAM、各種のROMなどによって実現され、サーバ100に内包されているものであってもよいし、サーバ100の各種インターフェイスに着脱可能なものであってもよいし、サーバ100からアクセス可能な他の装置の記録媒体であってもよい。メモリ120は、CPU110によって実行されるプログラムや、CPU110によるプログラムの実行により生成されたデータ、入力されたデータ、その他の本実施の形態にかかるサービスに利用されるデータベースなどを記憶する。
たとえば、メモリ120は、オペレータのIDと、オペレータの名前と、オペレータ端末300のIDと、現在の稼働状態などの対応関係を記憶する。
For example, the
操作部140は、サービスの管理者などの命令を受け付けて、当該命令をCPU110に入力する。
The
通信インターフェイス160は、CPU110からのデータを、インターネット、キャリア網、ルータなどを介して、ユーザ端末200や、オペレータ端末300や、その他の機器などに送信する。逆に、通信インターフェイス160は、インターネット、キャリア網、ルータなどを介してそれらの機器からのデータを受信して、CPU110に受け渡したり、メモリ120に格納したりする。
<ユーザ端末200の構成>
The
<Configuration of
次に、図4を参照して、質問者などのユーザが利用するユーザ端末200の構成の一態様について説明する。たとえば本実施の形態にかかるユーザ端末200は、主たる構成要素として、CPU210と、メモリ220と、ディスプレイ230と、操作部240と、通信インターフェイス260と、スピーカ270と、マイク280と、カメラ290とを含む。
Next, referring to FIG. 4, one embodiment of the configuration of a
CPU210は、メモリ220に記憶されているプログラムを実行することによって、ユーザ端末200の各部を制御する。
The
メモリ220は、各種のRAMや、各種のROMなどによって実現される。メモリ220は、各種サービスのためのアプリケーションプログラム、インターネットからダウンロードしたWEBページ、カメラ290で撮影した動画像データや静止画像データ、マイク280で取得した音声データ、各種のサービス専用のアプリケーションプログラム、CPU310によるプログラムの実行により生成されたデータ、サーバ100から受信したデータ、操作部240を介して入力されたデータ、ユーザ端末200自身の情報やユーザを特定するための情報などを記憶する。
The
ディスプレイ230は、CPU210からのデータに基づいて、画像やテキストを表示する。操作部240は、ポインティングデバイスやスイッチなどから構成され、ユーザからの各種の命令をCPU210に入力する。なお、ユーザ端末200は、ディスプレイ230と操作部240とを含むタッチパネル250を有してもよい。
The
通信インターフェイス260は、インターネットやキャリア網やルータなどを介して、サーバ100やオペレータ端末300などの他の装置との間でデータを送受信する。たとえば、CPU210は、WEBブラウザのプログラムやその他のアプリケーションプログラムに従って、通信インターフェイス260を介してサーバ100と、画像データや、音声データや、チャットのためのテキストデータなど、各種の情報をやりとりする。
The
スピーカ270は、CPU210からの信号に基づいて、各種の音声を出力する。CPU210は、オペレータ端末300が取得したオペレータの音声やチャットのテキストを音声出力してもよい。
The
マイク280は、音声を受け付けて、音声データをCPU210に入力する。CPU210は、操作部240に限らず、ユーザからの音声メッセージを受け付けて、当該音声メッセージをサーバ100に送信する。
The
カメラ290は、CPU210からの指示に従って、動画像や静止画像を撮影して、当該画像データをCPU210に入力したり、メモリ220に格納したりする。
<オペレータ端末300の構成>
<Configuration of
図5を参照して、ネットワークシステム1を構成するオペレータやサービスマンなどが利用するオペレータ端末300の構成の一態様について説明する。たとえばオペレータ端末300は、主たる構成要素として、CPU310と、メモリ320と、ディスプレイ330と、操作部340と、通信インターフェイス360と、スピーカ370と、マイク380とを含む。
With reference to FIG. 5, one embodiment of the configuration of the
CPU310は、メモリ320に記憶されているプログラムを実行することによって、オペレータ端末300の各部を制御する。
The
メモリ320は、各種のRAMや、各種のROMなどによって実現される。メモリ320は、各種サービスのためのアプリケーションプログラム、インターネットからダウンロードしたWEBページ、ユーザ端末200からの動画像データ、切り取った静止画像データ、オペレータ端末300での編集内容を示すデータや編集画面自体の変化を示す動画像データ、各種のサービス専用のアプリケーションプログラムや、CPU310によるプログラムの実行により生成されたデータ、サーバ100から受信したデータ、操作部340を介して入力されたデータ、オペレータ端末300自身の情報やオペレータを特定するための情報などを記憶する。
The
ディスプレイ330は、CPU310からのデータに基づいて、画像やテキストを表示する。操作部340は、ポインティングデバイスやスイッチなどから構成され、ユーザからの、画像にイラストやテキストなどを追加する命令や編集を施すための命令などの各種の命令をCPU310に入力する。本実施の形態においては、オペレータ端末300は、ディスプレイ330と操作部340とを含むタッチパネル350を有していることが好ましい。
The
通信インターフェイス360は、インターネットやキャリア網やルータなどを介して、サーバ100やユーザ端末200などの他の装置との間でデータを送受信する。たとえば、CPU310は、WEBブラウザのアプリケーションプログラムや各種サービスのアプリケーションプログラムに従って、通信インターフェイス360を介してサーバ100と、画像データや、音声データや、チャットのためのテキストデータなど、各種の情報をやりとりする。
The
スピーカ370は、CPU310からの信号に基づいて、各種の音声を出力する。CPU210は、ユーザ端末200が取得したユーザの音声やチャットのテキストを音声出力してもよい。
The
マイク380は、音声を受け付けて、音声データをCPU310に入力する。CPU310は、操作部340に限らず、オペレータからの音声メッセージを受け付けて、当該音声メッセージをサーバ100に送信してもよい。
The
カメラ390は、CPU310からの指示に従って、動画像や静止画像を撮影して、当該画像データをCPU310に入力したり、メモリ320に格納したりする。
<ネットワークシステム1の情報処理>
<Information Processing in Network System 1>
次に、図6を参照して、本実施の形態にかかるネットワークシステム1のサーバ100やユーザ端末200やオペレータ端末300における情報処理について説明する。なお、サーバ100のCPU110は、メモリ120のプログラムに従って、以下の処理を実行する。ユーザ端末200のCPU210は、メモリ220のプログラムに従って、以下の処理を実行する。オペレータ端末300のCPU310は、メモリ320のプログラムに従って、以下の処理を実行する。
Next, with reference to FIG. 6, information processing in the
まず、オペレータ端末300のCPU310は、操作部340を介して、オペレータからの指示に従って、通信インターフェイス360を介してサーバ100に接続する(ステップS102)。
First, the
サーバ100のCPU110は、オペレータ端末300からの要求に応じて、通信インターフェイス160を介して、ログイン用のWEBページをオペレータ端末300にダウンロードする(ステップS104)。
In response to a request from the
オペレータ端末300のCPU310は、WEBページをディスプレイ330に表示する。CPU310は、操作部340を介して、オペレータのIDやパスワードの入力を受け付けて、通信インターフェイス360を介してサーバ100に認証を要求する(ステップS106)。
The
サーバ100のCPU110は、認証に成功すると、通信インターフェイス160を介して、オペレータ用のピアツーピア通信のためのWEBページをオペレータ端末300にダウンロードする(ステップS108)。
If the authentication is successful, the
オペレータ端末300のCPU310は、サーバ100からのWEBページをディスプレイ330に表示して、ユーザからの質問を待ち受ける(ステップS110)。
The
ユーザ端末200のCPU210は、操作部240を介して、ユーザからの指示に従って、通信インターフェイス260を介してサーバ100に接続する(ステップS112)。たとえば、各種のホームページなどに貼られている質問のためのバナーやショートメールのURLなどをクリックすることによって、サーバ100への接続処理を開始することができる。
The
サーバ100のCPU110は、ユーザ端末200からの要求に応じて、通信インターフェイス160を介して、ユーザサポート用のピアツーピア通信のためのWEBページをユーザ端末200にダウンロードする(ステップS114)。
In response to a request from the
ユーザ端末200のCPU210は、サーバ100からのWEBページをディスプレイ230に表示する。CPU210は、操作部240を介してオペレータとのリアルタイムビデオ通信を開始するための命令を受け付けると、WEBページやリモートWebRTCの指示に従って、カメラ290を起動して、オペレータからの応答を待ち受ける(ステップS116)。
The
サーバ100のCPU110は、通信インターフェイス160を介して、オペレータ端末300にユーザが待機していることを表示させる(ステップS118)。
The
オペレータ端末300のCPU310は、操作部340を介して、オペレータからの開始命令を受け付けて(ステップS120)、通信インターフェイス360を介して、その旨をサーバ100に応答する(ステップS122)。
The
サーバ100のCPU110は、通信インターフェイス160を介して、ユーザ端末200とオペレータ端末300とに、ピアツーピア通信の接続に必要な情報を提供する(ステップS124)。
The
ユーザ端末200とオペレータ端末300とは、上述のサーバ100を介さないピアツーピア通信の接続に必要な情報を交換し合うことによって、ピアツーピア通信を開始して(ステップS126)、以下の状態に移行する。
The
ユーザ端末200のCPU210は、カメラ290による撮影を行いながら、図2に示すように、撮影中の動画像をディスプレイ230の左側に表示したり、当該動画像やマイク280からの音声を通信インターフェイス360を介してオペレータ端末300に送信したりする(ステップS130)。また、CPU210は、通信インターフェイス260を介して、オペレータ端末300からの編集中の動画像ストリーミングデータや音声データを受信して、編集中の動画像をディスプレイ230の右側に表示したり、スピーカ270からオペレータの音声を出力したりする(ステップS130)。また、CPU210は、オペレータとの通信を終了するためのボタンをディスプレイ230に表示したり、チャット画面235を表示したりする。
While capturing an image using the
オペレータ端末300のCPU310は、図2に示すように、ユーザ端末200で撮影中の動画像をディスプレイ330の左側に表示したり、ユーザ端末200からの音声をスピーカ370から出力したりする(ステップS140)。CPU310は、操作部340からのオペレータによる切り取り命令を受け付けて、動画像から静止画像を取得して、ディスプレイ330の右側の編集用画面332に表示させる。CPU310は、タッチパネル350を介して静止画像に対して画像やテキストなどを上書きしたり編集したりしながら、当該編集されている画面自体の動画像やマイク380で拾った音声を通信インターフェイス360を介してユーザ端末200に送信する。
2, the
なお、編集中においても、CPU310は、ディスプレイ330の左側に、ユーザ端末200から受信したカメラの撮影画像のストリーミング映像を表示しており、操作部340からのオペレータによる切り取り命令を受け付けて、動画像から静止画像を取得してもよい。すなわち、オペレータは、ディスプレイ330の右側の編集画面の静止画像を自由に更新して、編集作業を仕切り直すことができる。
Even during editing, the
ユーザ端末200とオペレータ端末300とは、画面235,335を利用して、テキストやスタンプなどによるチャットを実行できる(ステップS150)
The
本実施の形態においては、CPU310は、通信インターフェイス360を介して、ユーザ端末200からのカメラ動画像や音声や、オペレータ端末300での編集中の動画像や音声などをサーバ100にアップロードする(ステップS152)。
In this embodiment, the
サーバ100のCPU110は、通信インターフェイス160を介して、オペレータ端末300から受信した、ユーザ端末200からのカメラ動画像や音声や、オペレータ端末300での編集中の動画像や音声などをデータベースに蓄積していく(ステップS154)。
The
本実施の形態においては、ユーザ端末200に対するユーザの命令や、オペレータ端末300に対するオペレータの命令や、通信切断などによって(ステップS160)、ユーザ端末200のCPU210は、ピアツーピアによるオペレータ端末300との通信を終了し(ステップS162)、オペレータ端末300のCPU310は、ピアツーピアによるユーザ端末200との通信を終了する(ステップS164)。
<第2の実施の形態>
In this embodiment, in response to a user command to the
Second Embodiment
上記の実施の形態においては、サポートセンターとのコールセッション中に、ユーザ端末200において2つのビデオストリームが表示される。たとえば、1つ目のビデオストリームはオーディオがミュートされたユーザ端末200のカメラ290からの撮影画像であり、2つ目はオペレータ端末300からの編集に関するビデオ/オーディオストリームである。なお、オペレータ端末300から登録済みの製品のサポートファイルなどからビデオファイルのURLを送信すると、ユーザ端末200において3つ目のビデオが表示される場合もある。
In the above embodiment, two video streams are displayed on the
スマートフォンなどのOS(Operating System)の中には、ユーザ端末200が、オペレータ端末300からのビデオファイルを再生しようとすると、リモートWebRTCによるビデオ/オーディオストリームを停止してしまうものもある。つまり、ユーザは、いずれかの音声やビデオしか視聴することができない場合がある。オペレータ端末300からのビデオファイルを再生しつつ、リモートWebRTCのビデオ/オーディオストリームを中断しないようにするためには、新しいビデオファイルの音声をミュートする必要があるが、この場合は、ユーザ端末200では、オペレータ端末300からのビデオの音声を聞くことができないという問題が生じる。
Some operating systems (OSs) for smartphones and the like stop the video/audio stream from the remote WebRTC when the
そこで、本実施の形態においては、以下のように構成されている。ユーザ端末200のCPU210は、オペレータ端末300からのビデオファイルのURLを受け取ると、WEBページの指示に従って、属性「ミュート」がオンになっている新しいビデオ要素を作成する。そして、ユーザ端末200のCPU210は、操作部240を介してユーザから、オペレータ端末300からのビデオの再生命令を受け付けると、WEBブラウザがリモートによるWebRTCビデオストリームを停止してしまわないように、ミュートされたビデオを再生し始める。そして、すぐに、CPU210は、WEBページの指示に従って、オペレータ端末300からのビデオのミュートを解除して、当該ビデオの音声をスピーカ270から出力し始める。
Therefore, this embodiment is configured as follows. When the
なお、オペレータ端末300からのビデオを一時停止した場合には、CPU210は、WEBページの指示に従って、オペレータ端末300からのビデオのサウンドを再度ミュートにする。ユーザ端末200のCPU210は、オペレータ端末300からのビデオを再度再生する場合には、一旦ミュートされた状態で動画を再生し始めてから、すぐにWEBページの指示に従って、ミュートを解除する。
When the video from the
本実施の形態においては、ユーザ端末200では、このような処理を実行することによって、リモートからのWebRTCビデオ/オーディオストリームを継続的に再生し続けながら、並行して、オペレータ端末300からのサポートビデオファイルも再生することができるものである。
<第3の実施の形態>
In this embodiment, by executing such processing, the
Third Embodiment
また、ユーザ端末200やオペレータ端末300などのピア間で接続を確立しようとすると、WEBブラウザ間の直接接続が確立できない可能性ある。
In addition, when attempting to establish a connection between peers such as a
より詳細には、図7に示すように、ピアが同じローカルネットワークにない場合、各ピアのパブリックアドレスを検出するために、パブリックにアクセス可能なSTUN(Session Traversal Utilities for NATs)サーバが使用される。STUNサーバを使用すると、クライアントは、NAT(Network Address Translation)によって割り当てられたパブリックIPアドレスとポートに関する情報を取得できる。これによって、相手端末からのデータパケットを受信することができる。 More specifically, as shown in Figure 7, a publicly accessible Session Traversal Utilities for NATs (STUN) server is used to discover the public address of each peer if the peers are not on the same local network. Using the STUN server, the client can obtain information about the public IP address and port assigned to it by the Network Address Translation (NAT), so that it can receive data packets from the peer.
しかしながら、パブリックIPアドレスとポートに関する既知の情報があっても、ピア間の直接接続が不可能になる場合がある。たとえば、NATまたはファイアウォールがそのような直接的なトラフィックを許可しないことがある。このような場合、ピア間の接続を確立する方法としては、TURN(Traversal Using Relay around NAT)と呼ばれる公的にアクセス可能な中間サーバを介してデータストリームをルーティングすることが有効である。TURNサーバは、ピア間のデータのリレーポイントとして動作し、あるピアから別のピアにデータストリームを転送する。 However, even with known information about public IP addresses and ports, there are cases when a direct connection between peers is not possible. For example, a NAT or firewall may not allow such direct traffic. In such cases, a viable way to establish a connection between peers is to route the data stream through a publicly accessible intermediate server called TURN (Traversal Using Relay around NAT). TURN servers act as relay points for data between peers, forwarding the data stream from one peer to another.
TURNサーバは、ほとんどの場合ピア間の接続を提供するが、データストリームのリレーに使用するにはリソースを大量に消費する可能性があるため、最初に他のメカニズム(直接接続やSTUNサーバなど)を使用し、それらが失敗した場合に、フォールバックして、TURNサーバを使用することが好ましい。 TURN servers provide connections between peers in most cases, but because they can be resource intensive to use for relaying data streams, it is preferable to use other mechanisms first (such as direct connections or STUN servers) and then fall back to using TURN servers if they fail.
たとえば、ICE(Interactive Connectivity Establishment)方法論を採用するなどして、接続を確立するための最適な方法を見つけることができる。 For example, you can find the best way to establish a connection by employing the ICE (Interactive Connectivity Establishment) methodology.
本実施の形態においては、ユーザ端末200からの呼びかけと、オペレータ端末300の応答とに基づいて、まず、サーバ100との間のWebRTC接続の確立を試みる。ユーザ端末200のWEBブラウザはSDPオファーを生成し、それをシグナリング(Websocket)サーバに送信する。シグナリングサーバが、SDPオファーをオペレータ端末300に転送する。オペレータ端末300のWEBブラウザは、ユーザ端末200からのSDPオファーを使用してSDP応答を生成し、それをシグナリングサーバに送信する。シグナリングサーバはそれをユーザ端末200に配信する。その間、接続用のICE候補が収集され、シグナリングサーバを介してユーザ端末200とオペレータ端末300との間で交換される。ユーザ端末200やオペレータ端末300は、直接接続するための最適な候補を見つけて使用する。このようにして、ユーザ端末200とオペレータ端末300とが相互に直接的に常時接続ができると、両者のWEBブラウザの間でデータパケットを直接的に送受信することができる。
In this embodiment, based on the call from the
なお、NATやファイアウォールなどが原因で、直接ピアツーピア接続を確立するために使用できるICE候補がない場合は、ユーザ端末200やオペレータ端末300はTURNサーバから取得したICE候補を介して接続を試みる。TURNサーバを介した接続が確立されると、TURNサーバは、ピア間でデータパケットを中継する仲介サーバとして機能し始める。TURNサーバを介してデータを中継する場合、ユーザ端末200やオペレータ端末300はデータパケットをTURNサーバに送信し、TURNサーバはそれらを別のピアに転送する。データパケットの中継にTURNサーバを使用することで、ピア同士の直接接続が不可能な場合でも、TURNサーバを介してピアを接続することが可能になる。
If there is no ICE candidate that can be used to establish a direct peer-to-peer connection due to a NAT, a firewall, etc., the
また、TURNサーバによるリレーを必要とする多数の接続を処理するために、STUN/TURNサーバクラスターの前に負荷分散を実装して、クラスター内の複数のサーバに負荷を分散させることができる。負荷分散を実装することにより、システムはスケーラブルになり、接続負荷を複数のTURNサーバのノードに分散することで、必要に応じて接続の増加に対応することができるようになる。
<第4の実施の形態>
Additionally, to handle the large number of connections that require relaying by a TURN server, load balancing can be implemented in front of a STUN/TURN server cluster to distribute the load across multiple servers in the cluster. Implementing load balancing makes the system scalable and allows the system to handle an increase in connections as needed by distributing the connection load across multiple TURN server nodes.
<Fourth embodiment>
上記の実施の形態においては、図2(B)に示すように、オペレータ端末300においては、ディスプレイ330の左側にユーザ端末200のカメラ290の撮影画像のストリーミングが表示され、ディスプレイ330の右側に編集画面が表示されるものであった。しかしながら、表示される位置は特に限定されない。たとえば、図8に示すように、オペレータ端末300において、ディスプレイ330の右側にユーザ端末200のカメラ290の撮影画像のストリーミングが表示され、ディスプレイ330の左側に編集画面が表示されてもよい。
In the above embodiment, as shown in FIG. 2(B), in the
同様に、図8に示すように、ユーザ端末200において、ディスプレイ230の右側にユーザ端末200のカメラ290の撮影画像が表示され、ディスプレイ230の左側にオペレータ端末300からの編集画面のストリーミングが表示されてもよい。
Similarly, as shown in FIG. 8, in the
あるいは、図9に示すように、オペレータ端末300において、ディスプレイ330の上側または下側にユーザ端末200のカメラ290の撮影画像のストリーミングが表示され、ディスプレイ330の下側または上側に編集画面が表示されてもよい。
Alternatively, as shown in FIG. 9, in the
同様に、図9に示すように、ユーザ端末200において、ディスプレイ230の上側または下側にユーザ端末200のカメラ290の撮影画像が表示され、ディスプレイ230の下側または上側にオペレータ端末300からの編集画面のストリーミングが表示されてもよい。
<第5の実施の形態>
Similarly, as shown in FIG. 9 , in the
Fifth embodiment
あるいは、常時2つの画面が表示されなくてもよい。たとえば、図10(A)に示すように、ユーザ端末200は、ダウンロードしたWEBページの指示に従って、カメラを起動して、撮影している最中の動画像をディスプレイ230に表示するとともに、撮影している動画像やマイクで取得した音声を常時接続サーバを介してオペレータ端末300に送信する。オペレータ端末300は、ダウンロードしたWEBページの指示に従って、ユーザ端末200で撮影されている最中の動画像をディスプレイ330に表示するとともに、ユーザ端末200に入力された音声をスピーカから出力する。なお、オペレータ端末300のマイクで取得された音声は、ユーザ端末200のスピーカから出力される。
Alternatively, two screens do not have to be displayed at all times. For example, as shown in FIG. 10(A), the
この状態において、オペレータが所望のタイミングで所定のボタンを押すと、オペレータ端末300は、ダウンロードしたWEBページの指示に従って、図10(B)に示すように、押されたタイミングの画像が静止画像として、ディスプレイ330の編集画面に表示する。オペレータは、当該静止画像に対して編集を加えることができる。たとえば、説明の対象となっているボタンや操作部やその他の部位に印をつけたり、説明のためのイラストを描いたりすることができる。オペレータ端末300は、ダウンロードしたWEBページの指示に従って、編集されている最中の右側の画面の動画像やマイクで取得した音声を常時接続サーバを介してユーザ端末200に送信する。ユーザ端末200は、ダウンロードしたWEBページの指示に従って、オペレータ端末300からの編集中の動画像をディスプレイ230に表示する。なお、この状態において、ユーザ端末200に入力された音声はオペレータ端末300で出力され、オペレータ端末300に入力された音声はユーザ端末200で出力される。
In this state, when the operator presses a specific button at a desired timing, the
なお、オペレータの説明がユーザに上手く伝わらない場合は、オペレータ端末300でも、ユーザ端末200でも、カメラに戻るためのボタン334、234を押すことによって、CPU310,210が、WEBページやリモートWebRTCの指示に従って、図10(A)に示す状態からの処理を実行し直すことが好ましい。
If the operator's explanation is not properly conveyed to the user, it is preferable that the user presses the button 334, 234 to return to the camera on either the
このように、本実施の形態においても、オペレータはユーザに見えている景色に対して画像や文字やイラストなどを描くことができる。つまり、オペレータは、ユーザの周囲の状況を的確に認識しやすくなり、ユーザに対する説明も容易になる。また、ユーザは、自分が見ている景色に対して説明が付された画像を確認することができる。その結果、ユーザがオペレータの意図を認識しやすくなり、オペレータとユーザとの間での話の齟齬を低減することができる。
<第6の実施の形態>
In this manner, also in this embodiment, the operator can draw images, characters, illustrations, and the like on the scenery visible to the user. In other words, the operator can more easily accurately recognize the situation around the user, and can more easily explain to the user. In addition, the user can check an image with an explanation of the scenery he or she is looking at. As a result, the user can more easily recognize the intention of the operator, and discrepancies in the conversation between the operator and the user can be reduced.
Sixth embodiment
上記の実施の形態においては、オペレータ端末300において、ユーザ端末200で撮影された動画像を切り取った静止画像に対する編集を行い、当該編集中のストリーミング画像をユーザ端末200で表示するものであった。しかしながら、図11に示すように、オペレータ端末300において、ユーザ端末200で撮影された動画像に編集を行い、当該編集中のストリーミング画像をユーザ端末200で表示してもよい。
In the above embodiment, the
より詳細には、本実施の形態においては、図6のピアツーピア通信の開始(ステップS126)の後、以下のような処理が行われる。 More specifically, in this embodiment, after the peer-to-peer communication is started (step S126) in FIG. 6, the following processing is performed.
ユーザ端末200のCPU210は、カメラ290による撮影を行いながら、図11に示すように、撮影中の動画像をディスプレイ230の左側に表示したり、当該動画像やマイク280からの音声を通信インターフェイス360を介してオペレータ端末300に送信したりする(ステップS130)。また、CPU210は、通信インターフェイス260を介して、オペレータ端末300からの編集中の動画像ストリーミングデータや音声データを受信して、編集中の動画像をディスプレイ230の右側に表示したり、スピーカ270からオペレータの音声を出力したりする(ステップS130)。また、CPU210は、オペレータとの通信を終了するためのボタンをディスプレイ230に表示したり、チャット画面235を表示したりする。
While capturing an image using the
オペレータ端末300のCPU310は、図11に示すように、ユーザ端末200で撮影中の動画像をディスプレイ330の左側に表示したり、ユーザ端末200からの音声をスピーカ370から出力したりする(ステップS140)。CPU310は、操作部340からのオペレータによる編集開始を受け付けて、ユーザ端末200からの動画像自体を、ディスプレイ330の右側の編集用画面332に表示させる。CPU310は、タッチパネル350を介して静止画像に対して画像やテキストなどを上書きしたり編集したりしながら、当該編集されている画面自体の動画像やマイク380で拾った音声を通信インターフェイス360を介してユーザ端末200に送信する。
As shown in FIG. 11, the
なお、撮影動画に対する編集としては、キーボードやペンや筆などによる編集に限らず、オペレータ端末300のCPU310は、オペレータ端末300のカメラ390や外付けのカメラ390によって撮影された静止画像や動画像などを、MR(Mixed Reality)技術を利用することによって、ユーザ端末200の撮影動画に合成させることも可能である。この場合は、ユーザ端末200やオペレータ端末300では、ユーザ端末200で撮影中の動画と、ユーザ端末200で撮影中の動画に編集が加わった動画と、が並べて、または切り替わりながら表示される。
Editing of the captured video is not limited to editing with a keyboard, pen, brush, etc., and the
なお、上記の実施の形態や本実施の形態の処理の方法を、ユーザ端末200やオペレータ端末300において、切り替えられることが好ましい。たとえば、ユーザ端末200のCPU210が、操作部240を介してユーザからの指示を受け付けることによって、第1の実施の形態の表示態様から、第4の実施の形態の表示態様に切り替えてもよい。あるいは、オペレータ端末300のCPU310が、操作部340を介してオペレータからの指示を受け付けることによって、第1の実施の形態の処理方法から、本実施の形態の処理方法に切り替えてもよい
<第7の実施の形態>
It is preferable that the above-described embodiments and the processing method of this embodiment can be switched in the
上記の実施の形態のネットワークシステム1の各装置の役割の一部または全部を他の装置が実行してもよい。たとえば、サーバ100やユーザ端末200やオペレータ端末300の各々の役割の一部または全部を別の装置が担ったり、それらの装置の1つ1つの役割の一部または全部を、複数の装置で分担したりしてもよい。たとえば、サーバ100の役割が、クラウド上の複数の装置で実現されてもよいし、WEBページやWEBブラウザの役割が、ユーザ端末200やオペレータ端末300の別のアプリケーションプログラムで実現されたり、サーバ100によって実現されたりしてもよい。逆に、サーバ100の役割の一部または全部がユーザ端末200やオペレータ端末300によって実現されてもよい。
<まとめ>
Some or all of the roles of each device in the network system 1 of the above embodiment may be performed by other devices. For example, some or all of the roles of the
<Summary>
上記の実施の形態においては、カメラを含むユーザ端末と、操作部を含むオペレータ端末と、を備えるネットワークシステムが提供される。ユーザ端末は、カメラで撮影中の画像をインターネットを介してオペレータ端末に送信するとともに、カメラで撮影中の画像とオペレータ端末からの動画像とを表示する。オペレータ端末は、操作部に入力される命令に基づいて、カメラで撮影された画像に対する編集中の画像を、インターネットを介して動画像としてユーザ端末に送信する。 In the above embodiment, a network system is provided that includes a user terminal including a camera and an operator terminal including an operation unit. The user terminal transmits an image being captured by the camera to the operator terminal via the Internet, and displays the image being captured by the camera and a video from the operator terminal. Based on a command input to the operation unit, the operator terminal transmits an image being edited from the image captured by the camera to the user terminal via the Internet as a video.
好ましくは、オペレータ端末は、編集中の画像として、カメラで撮影中の画像を切り取った静止画像に対する編集中のストリーミング画像を、ユーザ端末に送信する。 Preferably, the operator terminal transmits to the user terminal, as the image being edited, a streaming image being edited for a still image cropped from an image being captured by a camera.
好ましくは、オペレータ端末は、編集中の画像として、カメラで撮影中の動画像に対する編集中のストリーミング画像を、ユーザ端末に送信する。 Preferably, the operator terminal transmits to the user terminal a streaming image being edited for a video being captured by a camera as the image being edited.
好ましくは、ユーザ端末は、カメラで撮影中の画像と、オペレータ端末からの編集中の画像と、を同時に並べて表示する。 Preferably, the user terminal simultaneously displays the image being captured by the camera and the image being edited from the operator terminal side by side.
好ましくは、オペレータ端末は、カメラで撮影中の画像と、編集中の画像に対する編集中の画像と、を同時に並べて表示する。 Preferably, the operator terminal simultaneously displays the image being captured by the camera and the image being edited for the image being edited side by side.
上記の実施の形態においては、ユーザ端末が、カメラで撮影中の画像を表示しながら、カメラで撮影中の画像をインターネットを介してオペレータ端末に送信するステップと、オペレータ端末が、操作部に入力される命令に基づいて、カメラで撮影された画像に対する編集中の動画像を、インターネットを介してユーザ端末に送信するステップと、ユーザ端末が、動画像を表示するステップと、を備える情報処理方法が提供される。 In the above embodiment, an information processing method is provided that includes the steps of: a user terminal transmitting an image being captured by the camera to an operator terminal via the Internet while displaying the image being captured by the camera; the operator terminal transmitting a video being edited for the image captured by the camera to the user terminal via the Internet based on a command input to an operation unit; and the user terminal displaying the video.
上記の実施の形態においては、オペレータ端末のためのプログラムが提供される。プログラムは、ユーザ端末で撮影された動画像を、インターネットを介して受信して表示するステップと、操作部に入力される命令に基づいて、ユーザ端末で撮影された画像に対する編集命令を受け付けるステップと、編集中の動画像を、インターネットを介してユーザ端末に送信するステップと、をプロセッサに実行させる。 In the above embodiment, a program for an operator terminal is provided. The program causes a processor to execute the steps of receiving and displaying a video captured by a user terminal via the Internet, accepting an editing command for the image captured by the user terminal based on a command input to the operation unit, and transmitting the video being edited to the user terminal via the Internet.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed herein should be considered to be illustrative and not restrictive in all respects. The scope of the present invention is indicated by the claims, not by the above description, and is intended to include all modifications within the meaning and scope of the claims.
1 :ネットワークシステム
100 :サーバ
110 :CPU
120 :メモリ
140 :操作部
160 :通信インターフェイス
200 :ユーザ端末
210 :CPU
220 :メモリ
230 :ディスプレイ
240 :操作部
250 :タッチパネル
260 :通信インターフェイス
270 :スピーカ
280 :マイク
290 :カメラ
300 :オペレータ端末
310 :CPU
320 :メモリ
330 :ディスプレイ
340 :操作部
350 :タッチパネル
360 :通信インターフェイス
370 :スピーカ
380 :マイク
390 :カメラ
390B :外付けカメラ
1: Network system 100: Server 110: CPU
120: Memory 140: Operation unit 160: Communication interface 200: User terminal 210: CPU
220: Memory 230: Display 240: Operation unit 250: Touch panel 260: Communication interface 270: Speaker 280: Microphone 290: Camera 300: Operator terminal 310: CPU
320: Memory 330: Display 340: Operation unit 350: Touch panel 360: Communication interface 370: Speaker 380: Microphone 390: Camera 390B: External camera
Claims (7)
操作部を含むオペレータ端末と、を備え、
前記ユーザ端末は、前記第1のカメラで撮影中の画像をインターネットを介して前記オペレータ端末に送信する第1送信手段と、前記第1のカメラで撮影中の画像と前記オペレータ端末からの動画像とを表示する第1表示手段とを有し、
前記オペレータ端末は、前記第1のカメラで撮影中の画像に基づくストリーミング映像から所定の入力操作があったタイミングの静止画像を編集用画像として切り出す編集用画像切り出し手段と、前記操作部に入力される命令に基づいて、前記編集用画像に対する編集中の画像を、インターネットを介して前記動画像として前記ユーザ端末に送信する第2送信手段とを有している、ネットワークシステム。 a user terminal including a first camera;
An operator terminal including an operation unit,
the user terminal has a first transmission means for transmitting an image being captured by the first camera to the operator terminal via the Internet, and a first display means for displaying the image being captured by the first camera and a moving image from the operator terminal,
The operator terminal has an editing image extraction means for extracting a still image at the timing when a specified input operation is performed from a streaming video based on the image being captured by the first camera as an editing image, and a second transmission means for transmitting the image being edited for the editing image to the user terminal as the moving image via the Internet based on a command input to the operation unit.
請求項1に記載のネットワークシステム。 when the input operation is performed while an image for editing already exists, the image for editing cutout means updates the image for editing to a still image at the timing of the input operation;
The network system according to claim 1 .
前記オペレータ端末は、前記動画像として、前記編集中の画像に前記第2のカメラによって撮影された静止画像または動画像を合成させた画像を、前記ユーザ端末に送信する、請求項1に記載のネットワークシステム。 the operator terminal includes a second camera;
2. The network system according to claim 1, wherein the operator terminal transmits to the user terminal an image in which the image being edited is combined with a still image or a moving image captured by the second camera as the moving image.
前記オペレータ端末が、前記カメラで撮影中の画像に基づくストリーミング映像から所定の入力操作があったタイミングの静止画像を編集用画像として切り出すステップと、
前記オペレータ端末が、操作部に入力される命令に基づいて、前記編集用画像に対する編集中の動画像を、インターネットを介して前記ユーザ端末に送信するステップと、
前記ユーザ端末が、前記動画像を表示するステップと、を備える情報処理方法。 a step of transmitting, via the user terminal, an image being captured by the camera to an operator terminal via the Internet while displaying the image being captured by the camera;
a step of the operator terminal extracting, as an image for editing, a still image at a timing when a predetermined input operation is performed from a streaming video based on an image being captured by the camera;
a step of transmitting, by the operator terminal, a moving image being edited for the image for editing to the user terminal via the Internet based on a command input to an operation unit;
and a step of the user terminal displaying the moving image.
ユーザ端末で撮影中の画像に基づくストリーミング映像を、インターネットを介して受信して表示するステップと、
前記ストリーミング映像から所定の入力操作があったタイミングの静止画像を編集用画像として切り出すステップと、
操作部に入力される命令に基づいて、前記編集用画像に対する編集命令を受け付けるステップと、
前記編集用画像に対する編集中の動画像を、インターネットを介して前記ユーザ端末に送信するステップと、をプロセッサに実行させるプログラム。 A program for an operator terminal,
receiving and displaying a streaming video based on an image being captured by the user terminal via the Internet;
extracting a still image at a timing when a predetermined input operation is performed from the streaming video as an image for editing;
receiving an editing command for the image to be edited based on a command input to an operation unit;
and transmitting, to the user terminal via the Internet, a moving image being edited with respect to the image for editing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021019596A JP7489341B2 (en) | 2021-02-10 | 2021-02-10 | NETWORK SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021019596A JP7489341B2 (en) | 2021-02-10 | 2021-02-10 | NETWORK SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022122399A JP2022122399A (en) | 2022-08-23 |
JP7489341B2 true JP7489341B2 (en) | 2024-05-23 |
Family
ID=82939357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021019596A Active JP7489341B2 (en) | 2021-02-10 | 2021-02-10 | NETWORK SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7489341B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123366A (en) | 2006-11-14 | 2008-05-29 | Nec Corp | Remote work support system, remote work support program, and server |
JP2013229672A (en) | 2012-04-24 | 2013-11-07 | Panasonic Corp | Communication terminal, communication method, communication program, and communication system |
JP2015159392A (en) | 2014-02-24 | 2015-09-03 | 株式会社オプティム | Operator terminal, mobile terminal, method for transmitting instruction, and operator terminal program |
JP2017120588A (en) | 2015-12-28 | 2017-07-06 | 株式会社オプティム | Screen sharing system, screen sharing method, and screen sharing program |
-
2021
- 2021-02-10 JP JP2021019596A patent/JP7489341B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123366A (en) | 2006-11-14 | 2008-05-29 | Nec Corp | Remote work support system, remote work support program, and server |
JP2013229672A (en) | 2012-04-24 | 2013-11-07 | Panasonic Corp | Communication terminal, communication method, communication program, and communication system |
JP2015159392A (en) | 2014-02-24 | 2015-09-03 | 株式会社オプティム | Operator terminal, mobile terminal, method for transmitting instruction, and operator terminal program |
JP2017120588A (en) | 2015-12-28 | 2017-07-06 | 株式会社オプティム | Screen sharing system, screen sharing method, and screen sharing program |
Also Published As
Publication number | Publication date |
---|---|
JP2022122399A (en) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6409857B2 (en) | Transmission system | |
US10623700B2 (en) | Dynamic speaker selection and live stream delivery for multi-party conferencing | |
US11956317B2 (en) | Unified, browser-based enterprise collaboration platform | |
EP3996355B1 (en) | Method for transferring media stream and user equipment | |
CN107431781B (en) | Information processing apparatus, screen switching method, non-transitory recording medium, and transmission system | |
JP6634686B2 (en) | Information processing apparatus, program, communication platform determination method, transmission system | |
US10834514B2 (en) | Representation of contextual information by projecting different participants' audio from different positions in a 3D soundscape | |
JP6286240B2 (en) | Video communication system, video communication environment providing method, server, server control method, and computer program | |
JP2003203023A (en) | Information processing system, information processor, information processing method, and information processing network program | |
JP5494129B2 (en) | Communication system and communication method | |
JP7489341B2 (en) | NETWORK SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP2017028347A (en) | Information processing device, communication system, program | |
JP2020144476A (en) | Communication terminal, communication system, communication method, and program | |
WO2018126134A1 (en) | Unified, browser-based enterprise collaboration platform | |
JP2021056840A (en) | Program, communication method, communication terminal and communication system | |
JP2015156176A (en) | Session control system, communication system, program, and session control method | |
JP6877727B1 (en) | Connection method between terminals via the room site of the signaling server, cloud server and program | |
JP7398248B2 (en) | Network systems, servers, and information processing methods | |
EP3563248B1 (en) | Unified, browser-based enterprise collaboration platform | |
JP6861353B1 (en) | Programs, methods, and information processing equipment | |
JP4573135B2 (en) | Information processing apparatus, information processing method, and program | |
Sakomaa | Analysis of a web conferencing system: development and customisation | |
Presta et al. | Setting up CLUE telepresence sessions via the WebRTC data channel | |
JP2020144477A (en) | Communication terminal, communication system, communication method, and program | |
JP2005073160A (en) | Session control method and system arrangement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231110 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240513 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7489341 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |