JP2019083494A - Web conference system and control method therefor, and program - Google Patents

Web conference system and control method therefor, and program Download PDF

Info

Publication number
JP2019083494A
JP2019083494A JP2017211284A JP2017211284A JP2019083494A JP 2019083494 A JP2019083494 A JP 2019083494A JP 2017211284 A JP2017211284 A JP 2017211284A JP 2017211284 A JP2017211284 A JP 2017211284A JP 2019083494 A JP2019083494 A JP 2019083494A
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
sound data
web conference
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017211284A
Other languages
Japanese (ja)
Other versions
JP7132478B2 (en
JP2019083494A5 (en
Inventor
良 小田
Ryo Oda
良 小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2017211284A priority Critical patent/JP7132478B2/en
Publication of JP2019083494A publication Critical patent/JP2019083494A/en
Publication of JP2019083494A5 publication Critical patent/JP2019083494A5/ja
Application granted granted Critical
Publication of JP7132478B2 publication Critical patent/JP7132478B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

To provide a mechanism capable of appropriately sharing voice data reproduced by a reproduction device of an information processor among conference participants in a web conference system.SOLUTION: The web conference system includes an information processor provided with an input section for inputting a voice and an output section for outputting sound data and a server device communicatable with the information processor, and acquires sound data output by the output section and voice data of the voice input by the input section. The web conference system further includes synthesis means for synthesizing the sound data and the voice data acquired and transmitting means for sound data and the voice data synthesized by the synthesis means.SELECTED DRAWING: Figure 11

Description

本発明は、ウェブ会議システム、その制御方法およびプログラムに関する。   The present invention relates to a web conferencing system, a control method and program thereof.

従来、インターネット回線などを利用したウェブ会議システムにおいては、サーバ装置と複数のクライアント端末とで、音声データ、及び画像データの送受信を行う。これにより、会議に参加するユーザは、それぞれ別の場所にいながらウェブ会議を行うことが可能となる。   Conventionally, in a web conference system using an internet connection or the like, audio data and image data are transmitted and received between a server device and a plurality of client terminals. This enables users participating in the meeting to conduct web meetings while staying at different places.

特許文献1の技術では、サーバ装置がクライアント端末から受信した音声データを異なるクライアント端末に送信する技術が開示されている。サーバ装置はクライアント端末から受信した音声データをすべて合成し、当該合成した音声データを各クライアント端末へ配信する処理を行う。この処理により、音声データを送受信する仕組みが開示されている。   In the technology of Patent Document 1, a technology is disclosed in which the server device transmits voice data received from a client terminal to different client terminals. The server apparatus synthesizes all the voice data received from the client terminal, and distributes the synthesized voice data to each client terminal. A mechanism for transmitting and receiving audio data by this process is disclosed.

特開平10−164239号公報JP 10-164239 A

ウェブ会議システムでは、ユーザが話す音声だけでなく、動画や音楽の再生音などクライアント端末で再生する音も他のクライアント端末と共有したい場合がある。   In the web conference system, there are cases where it is desired to share not only the voice spoken by the user but also the sound reproduced by the client terminal, such as the reproduced sound of a video or music, with other client terminals.

しかしながら、クライアント端末で再生する音を適切に共有したい場合の仕組みは、特許文献1では開示されていない。例えば、動画の音声を共有しようとした場合、クライアント端末が備えるスピーカーから再生された動画の再生音を、同じくクライアント端末が備えるマイクで取得する方法が考えられる。しかしながら、動画の再生音を十分に取得できるようにするためには、マイク位置の調整や動画の再生音の調整など、ユーザによる物理的な調整の手間が生じる。   However, the mechanism for sharing the sound reproduced by the client terminal appropriately is not disclosed in Patent Document 1. For example, when trying to share the audio of a moving image, a method is conceivable in which the reproduction sound of the moving image reproduced from the speaker of the client terminal is acquired by the microphone of the client terminal. However, in order to be able to obtain sufficient playback sound of a moving image, it takes time for the user to make physical adjustments, such as adjustment of the microphone position and adjustment of the playback sound of the moving image.

そこで本発明は、ウェブ会議システムにおいて、情報処理装置の再生デバイスで再生される音声を、会議の参加者に適切に共有させることが可能な仕組みを提供することを目的とする。   Therefore, an object of the present invention is to provide a mechanism capable of causing a participant of a conference to appropriately share audio reproduced by a playback device of an information processing apparatus in a web conference system.

本発明のウェブ会議システムは、音声を入力する入力部と音データを出力する出力部とを備える情報処理装置と、前記情報処理装置と通信可能なサーバ装置と、を備えるウェブ会議システムであって、前記出力部で出力される音データと、前記入力部で入力された音声の音声データとを取得する取得手段と、前記取得手段で取得した音データと音声データとを合成する合成手段と、前記合成手段で合成した前記音データと前記音声データとを送信する送信手段と、を備えることを特徴とする。   The web conference system according to the present invention is a web conference system including an information processing apparatus including an input unit for inputting voice and an output unit for outputting sound data, and a server apparatus capable of communicating with the information processing apparatus. Acquisition means for acquiring sound data output from the output unit and speech data of speech input from the input unit; synthesis means for synthesizing the sound data and speech data acquired by the acquisition means; It is characterized by comprising transmitting means for transmitting the sound data synthesized by the synthesizing means and the voice data.

本発明によれば、ウェブ会議システムにおいて、情報処理装置の再生デバイスで再生される音声を、会議の参加者に適切に共有させることが可能な効果を奏する。   According to the present invention, in the web conference system, it is possible to appropriately share voices played by the playback device of the information processing apparatus to the participants of the conference.

本実施形態のウェブ会議システムのシステム構成図の一例を示す図である。It is a figure showing an example of the system configuration figure of the web meeting system of this embodiment. 本実施形態のウェブ会議サーバ100のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the web meeting server 100 of this embodiment. 本実施形態の情報処理装置101及び102のハードウェア構成の一例を示す図である。It is a figure showing an example of the hardware constitutions of information processor 101 and 102 of this embodiment. 本実施形態の機能構成の一例を示す図である。It is a figure showing an example of functional composition of this embodiment. 本実施形態のウェブ会議システムの音声共有処理の全体の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the whole flow of the audio | voice sharing process of the web conference system of this embodiment. 本実施形態のウェブ会議システムのデバイス設定画面600の一例を示す図である。It is a figure which shows an example of the device setting screen 600 of the web conference system of this embodiment. 本実施形態のウェブ会議システムのデバイス状態テーブル700の一例を示す図である。It is a figure which shows an example of the device status table 700 of the web conference system of this embodiment. 本実施形態の、ウェブ会議アプリケーション画面800と画面共有操作画面810の一例を示す図である。It is a figure which shows an example of the web meeting application screen 800 and the screen sharing operation screen 810 of this embodiment. 本実施形態の、画面共有処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the screen sharing process of this embodiment. 本実施形態の、PC再生音共有開始処理の流れの一例を示すフローチャートである。It is a flow chart which shows an example of a flow of PC reproduction sound sharing start processing of this embodiment. 本実施形態の、ウェブ会議サーバ100への音声送信処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the audio | voice transmission process to the web meeting server 100 of this embodiment. 本実施形態の、音声再生処理の流れの一例を示すフローチャートである。It is a flow chart which shows an example of the flow of sound reproduction processing of this embodiment. 本実施形態の、OSによるPC再生音作成処理の流れの一例を示すフローチャートである。It is a flow chart which shows an example of a flow of PC reproduction sound creation processing by OS of this embodiment. 本実施形態の、PC再生音共有の停止処理の流れの一例を示すフローチャートである。It is a flow chart which shows an example of a flow of stop processing of PC reproduction sound sharing of this embodiment. 本実施形態の、PC再生音作成処理イメージ1500とPC再生音作成処理イメージ1510の一例を示すイメージ図である。It is an image figure showing an example of PC reproduction sound creation processing image 1500 and PC reproduction sound creation processing image 1510 of this embodiment. 本実施形態の、PC再生音作成処理イメージ1600の一例を示すイメージ図である。It is an image figure showing an example of PC reproduction sound creation processing image 1600 of this embodiment.

以下、図面を参照して、本発明の実施の形態の一例について説明する。   Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施例を示すウェブ会議システムのシステム構成を例示する図である。   FIG. 1 is a diagram illustrating a system configuration of a web conference system showing an embodiment of the present invention.

図1に示すように、本実施形態のウェブ会議システムは、例えば、情報処理装置などのパーソナルコンピュータを適用可能なウェブ会議サーバ100、情報処理装置101、情報処理装置102を有する。情報処理装置101は画面及び音声を共有させるホストコンピュータであり、情報処理装置102は画面及び音声を共有するゲストコンピュータである。これら100〜102に示す装置は、ネットワーク通信機能を利用し、LAN500(ローカルエリアネットワーク)を介してデータ通信可能であり、ウェブ会議システムに接続することでウェブ会議へ参加可能となる。   As shown in FIG. 1, the web conference system of the present embodiment includes, for example, a web conference server 100 to which a personal computer such as an information processing apparatus can be applied, an information processing apparatus 101, and an information processing apparatus 102. The information processing apparatus 101 is a host computer that shares a screen and sound, and the information processing apparatus 102 is a guest computer that shares a screen and sound. The apparatuses shown in these 100 to 102 can communicate data via the LAN 500 (local area network) using the network communication function, and can join the web conference by connecting to the web conference system.

ウェブ会議サーバ100は、ウェブブラウザを利用したウェブ会議を実現するためのサーバであり、例えば、情報処理装置などのパーソナルコンピュータを適用可能である。なお、ウェブ会議サーバ100は、公衆回線106を介してデータ通信が可能である。   The web conference server 100 is a server for realizing a web conference using a web browser. For example, a personal computer such as an information processing apparatus can be applied. The web conference server 100 can perform data communication via the public line 106.

情報処理装置101および情報処理装置102は、ウェブ会議サーバ100へアクセスすることにより、ウェブ会議アプリケーション画面(インタフェース)を取得してウェブ会議を行うことができる。情報処理装置101および情報処理装置102には、ウェブ会議サーバ100へアクセスするためのウェブブラウザ、及び専用のモジュールがインストールされている。なお、この専用のモジュールは、例えば、ウェブブラウザを介して、ウェブ会議サーバ100からダウンロードするActiveXコンポーネントである。   The information processing apparatus 101 and the information processing apparatus 102 can obtain a web conference application screen (interface) and conduct a web conference by accessing the web conference server 100. In the information processing apparatus 101 and the information processing apparatus 102, a web browser for accessing the web conference server 100 and a dedicated module are installed. Note that this dedicated module is, for example, an ActiveX component downloaded from the web conference server 100 via a web browser.

なお、情報処理装置101および情報処理装置102には、ウェブ会議において自身の動画像を送信する場合はウェブカメラ(不図示)を接続し、音声を送信する場合はマイク(不図示)を接続する。また、相手の音声を視聴するためにはスピーカー(不図示)を接続する。これらの各デバイスは、情報処理装置101および情報処理装置102上に複数台接続することが可能である。なお、本実施例のウェブ会議システムでは、各デバイスをそれぞれ1つずつ接続するものとする。   A web camera (not shown) is connected to the information processing apparatus 101 and the information processing apparatus 102 in the case of transmitting its own moving image in a web conference, and a microphone (not illustrated) is connected in the case of transmitting audio. . Also, a speaker (not shown) is connected to view the voice of the other party. A plurality of these devices can be connected on the information processing apparatus 101 and the information processing apparatus 102. In the web conference system of this embodiment, each device is connected one by one.

上記のウェブカメラから取得した映像、マイクから取得した音声は、それぞれ圧縮され、他の参加者の情報処理装置102に送信される。   The video acquired from the above-described web camera and the audio acquired from the microphone are each compressed and transmitted to the information processing apparatus 102 of another participant.

また、ウェブ会議システムでは、情報処理装置101の画面を情報処理装置102に表示することで、情報処理装置101の画面で表示している画面の共有を行うことができる。共有される画面は、情報処理装置101で指定することが可能である。また、共有される画面は、アプリケーションの画面であったり、デスクトップ全体の画面であったりする。   Further, in the web conference system, by displaying the screen of the information processing apparatus 101 on the information processing apparatus 102, the screen displayed on the screen of the information processing apparatus 101 can be shared. The screen to be shared can be designated by the information processing apparatus 101. Also, the screen to be shared may be the screen of the application or the screen of the entire desktop.

画面共有を行う場合、情報処理装置101の画面は、ウェブ会議サーバ100に送信され、ウェブ会議サーバ100から情報処理装置102に送信される。   When screen sharing is performed, the screen of the information processing apparatus 101 is transmitted to the web conference server 100, and transmitted from the web meeting server 100 to the information processing apparatus 102.

また、本実施形態においては、ホストコンピュータである情報処理装置101は、本ウェブ会議システムに1台だけ存在できる。ホストコンピュータの役割を担っていた情報処理装置101が情報処理装置102となり、ゲストコンピュータの役割を担っていた情報処理装置102が情報処理装置101としての役割を果たすことも可能である。情報処理装置102がホストコンピュータである情報処理装置101としての役割を果たす場合は、情報処理装置102の画面を本ウェブ会議システムで共有することができる。   Further, in the present embodiment, only one information processing apparatus 101, which is a host computer, can exist in the present web conference system. The information processing apparatus 101 playing the role of host computer may be the information processing apparatus 102, and the information processing apparatus 102 playing the role of guest computer may play the role of the information processing apparatus 101. When the information processing apparatus 102 plays a role as the information processing apparatus 101 which is a host computer, the screen of the information processing apparatus 102 can be shared by the present web conference system.

なお、本ウェブ会議システムは、ルームと呼ばれる仮想会議室を複数設定することが可能である。このルームを複数設定することにより複数の会議を行うことが可能であるが、本実施形態では、ウェブ会議システムでは1つのルームによる会議が行われているものとして説明する。複数のルームが存在する場合には、該当する1つのルームがウェブ会議システムを意味するものとする。以上が図1の説明である。   In the web conference system, it is possible to set a plurality of virtual conference rooms called rooms. It is possible to conduct a plurality of meetings by setting a plurality of rooms, but in the present embodiment, in the web conference system, it will be described that a conference by one room is being performed. When there are multiple rooms, one corresponding room shall mean the web conference system. The above is the description of FIG.

次に図2および図3を参照して、本発明の実施形態における各種装置に適用可能なハードウェア構成の一例について説明する。   Next, with reference to FIG. 2 and FIG. 3, an example of the hardware configuration applicable to various devices in the embodiment of the present invention will be described.

図2は、ウェブ会議サーバ100のハードウェア構成の一例を示す図である。   FIG. 2 is a diagram showing an example of a hardware configuration of the web conference server 100. As shown in FIG.

図2において、ウェブ会議サーバ100のCPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input/Output System)やオペレーティングシステム(以下、OS)が記憶される。また、ROM202あるいは外部メモリ211には、各サーバ或いは各PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。   In FIG. 2, a CPU 201 of the web conference server 100 centrally controls devices and controllers connected to the system bus 204. The ROM 202 or the external memory 211 stores a BIOS (Basic Input / Output System) that is a control program of the CPU 201 and an operating system (hereinafter referred to as an OS). The ROM 202 or the external memory 211 stores various programs, which will be described later, which are necessary to realize the functions executed by each server or each PC.

203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。   A RAM 203 functions as a main memory, a work area, and the like of the CPU 201. The CPU 201 loads a program and the like necessary for execution of processing from the ROM 202 or the external memory 211 to the RAM 203, and implements the various operations by executing the loaded program.

また、205は入力コントローラで、入力デバイス209からの入力を制御する。入力デバイス209としては、キーボード、タッチパネル、及びマウス等のポインティングデバイス等が挙げられる。   An input controller 205 controls an input from the input device 209. Examples of the input device 209 include a keyboard, a touch panel, and a pointing device such as a mouse.

なお、入力デバイス209がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。   When the input device 209 is a touch panel, various instructions can be given by the user pressing (touching with a finger or the like) according to an icon, a cursor, or a button displayed on the touch panel.

また、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。   Further, the touch panel may be a touch panel capable of detecting a position touched by a plurality of fingers, such as a multi-touch screen.

206はビデオコントローラで、ディスプレイ210等の表示機への表示を制御する。なお、ディスプレイ210は、CRT、液晶ディスプレイ等の表示機のことを指す。または、その他の表示機であってもよい。なお、ディスプレイ210は、本体と一体になったノート型パソコンのディスプレイも含まれるものとする。外部出力装置はディスプレイに限ったものではなく、例えばプロジェクタであってもよい。   A video controller 206 controls display on a display such as the display 210. The display 210 refers to a display such as a CRT or a liquid crystal display. Or, it may be another display. Note that the display 210 also includes a display of a notebook computer integrated with the main body. The external output device is not limited to the display, and may be, for example, a projector.

また、図2のウェブ会議サーバ100が前述のタッチ操作を受け付け可能な装置である場合には、ディスプレイ210が入力デバイス209としての機能を提供する。   Further, when the web conference server 100 of FIG. 2 is an apparatus capable of receiving the above-described touch operation, the display 210 provides a function as the input device 209.

207はメモリコントローラで、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイルへのアクセスを制御する。また、各種データ等を記憶するハードディスク(HDD)や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。   A memory controller 207 controls access to the boot program, various applications, font data, user files, and editing files. It also controls access to an external memory 211 such as a hard disk (HDD) that stores various data etc., a flexible disk (FD), or a compact flash (registered trademark) memory connected to a PCMCIA card slot via an adapter. .

208は通信I/Fコントローラで、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   A communication I / F controller 208 connects and communicates with an external device via a network, and executes communication control processing in the network. For example, communication using TCP / IP is possible.

なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォント展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。   The CPU 201 enables display on the display 210 by executing, for example, outline font development (rasterization) processing on a display information area in the RAM 203. In addition, the CPU 201 enables user instruction with a mouse cursor (not shown) or the like on the display 210.

本発明を実現するための後述する各種プログラムは、ROM202あるいは外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。   Various programs to be described later for realizing the present invention are stored in the ROM 202 or the external memory 211, and are executed by the CPU 201 by being loaded into the RAM 203 as necessary.

さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報、テーブル等も、外部メモリ211に格納されている。   Furthermore, a definition file, various information, tables, and the like used when executing the program are also stored in the external memory 211.

以上で、図2のウェブ会議サーバ100のハードウェア構成の説明を終了する。   This is the end of the description of the hardware configuration of the web conference server 100 in FIG.

図3は、情報処理装置101及び102のハードウェア構成の一例を示す図である。情報処理装置101と102は同じハードウェア構成であるため、情報処理装置101を例に以下説明する。   FIG. 3 is a diagram illustrating an example of the hardware configuration of the information processing apparatuses 101 and 102. Since the information processing apparatuses 101 and 102 have the same hardware configuration, the information processing apparatus 101 will be described below as an example.

図3において、情報処理装置101のCPU301は、システムバス304に接続される各デバイスやコントローラを統括的に制御する。また、ROM302あるいは外部メモリ311には、CPU301の制御プログラムであるBIOS(Basic Input/Output System)やオペレーティングシステム(以下、OS)が記憶される。また、ROM302あるいは外部メモリ311には、各サーバ或いは各PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。   In FIG. 3, a CPU 301 of the information processing apparatus 101 centrally controls devices and controllers connected to a system bus 304. The ROM 302 or the external memory 311 stores a BIOS (Basic Input / Output System) that is a control program of the CPU 301 and an operating system (hereinafter referred to as an OS). The ROM 302 or the external memory 311 stores various programs, which will be described later, which are necessary to realize the functions executed by each server or each PC.

303はRAMで、CPU301の主メモリ、ワークエリア等として機能する。CPU301は、処理の実行に際して必要なプログラム等をROM302あるいは外部メモリ311からRAM303にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。   A RAM 303 functions as a main memory, a work area, and the like of the CPU 301. The CPU 301 loads programs necessary for execution of processing from the ROM 302 or the external memory 311 into the RAM 303 and executes the loaded programs to realize various operations.

また、305は入力コントローラで、入力デバイス309からの入力を制御する。入力デバイス309としては、キーボード、タッチパネル、及びマウス等のポインティングデバイス等が挙げられる。   An input controller 305 controls an input from the input device 309. Examples of the input device 309 include a keyboard, a touch panel, and a pointing device such as a mouse.

なお、入力デバイス309がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。   When the input device 309 is a touch panel, various instructions can be given by the user pressing (touching with a finger or the like) according to an icon, a cursor or a button displayed on the touch panel.

また、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。   Further, the touch panel may be a touch panel capable of detecting a position touched by a plurality of fingers, such as a multi-touch screen.

306はビデオコントローラで、ディスプレイ310等の表示機への表示を制御する。なお、ディスプレイ310は、CRT、液晶ディスプレイ等の表示機のことを指す。または、その他の表示機であってもよい。なお、ディスプレイ310は、本体と一体になったノート型パソコンのディスプレイも含まれるものとする。外部出力装置はディスプレイに限ったものではなく、例えばプロジェクタであってもよい。   A video controller 306 controls display on a display such as the display 310. The display 310 refers to a display such as a CRT or a liquid crystal display. Or, it may be another display. Note that the display 310 also includes a display of a notebook computer integrated with the main body. The external output device is not limited to the display, and may be, for example, a projector.

また、図3の情報処理装置101及び102が前述のタッチ操作を受け付け可能な装置である場合には、ディスプレイ310が入力デバイス309としての機能を提供する。   Further, when the information processing apparatuses 101 and 102 in FIG. 3 are apparatuses capable of receiving the above-described touch operation, the display 310 provides a function as the input device 309.

307はメモリコントローラで、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HDD)や、フレキシブルディスク(FD)へのアクセスを制御する。また、メモリコントローラ307は、PCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ311へのアクセスを制御する。   A memory controller 307 controls access to a hard disk (HDD) storing a boot program, various applications, font data, user files, editing files, various data and the like, and a flexible disk (FD). The memory controller 307 also controls access to an external memory 311 such as a Compact Flash (registered trademark) memory connected to a PCMCIA card slot via an adapter.

308は通信I/Fコントローラで、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   A communication I / F controller 308 connects and communicates with an external device via a network, and executes communication control processing in the network. For example, communication using TCP / IP is possible.

なお、CPU301は、例えばRAM303内の表示情報用領域へアウトラインフォント展開(ラスタライズ)処理を実行することにより、ディスプレイ310上での表示を可能としている。また、CPU301は、ディスプレイ310上の不図示のマウスカーソル等でのユーザ指示を可能とする。   The CPU 301 enables display on the display 310 by executing, for example, outline font development (rasterization) processing on a display information area in the RAM 303. In addition, the CPU 301 enables user instruction with a mouse cursor (not shown) or the like on the display 310.

本発明を実現するための後述する各種プログラムは、ROM302あるいは外部メモリ311に記録されており、必要に応じてRAM303にロードされることによりCPU301によって実行されるものである。   Various programs to be described later for realizing the present invention are stored in the ROM 302 or the external memory 311, and are executed by the CPU 301 by being loaded into the RAM 303 as necessary.

さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報、テーブル等も、外部メモリ311に格納されており、これらについての詳細な説明も後述する。   Furthermore, definition files and various information used when executing the program, tables, and the like are also stored in the external memory 311, and a detailed description of these will be described later.

カメラコントローラ312は、カメラ314等による映像取得を制御し、音声コントローラ313はマイク315(入力部)、スピーカー(出力部)316等による音声取得制御やスピーカー316への出力を制御する。なお、音声コントローラ313が音声を出力する先は、スピーカー316だけではなくヘッドフォンや外部のスピーカーに出力するための出力端子であってもよい。   The camera controller 312 controls video acquisition by the camera 314 or the like, and the audio controller 313 controls audio acquisition control by the microphone 315 (input unit), the speaker (output unit) 316 or the like, and the output to the speaker 316. The audio controller 313 may output the audio not only to the speaker 316 but also to an output terminal for outputting to a headphone or an external speaker.

カメラ314は、図3のハードウェア構成を適用する装置に内蔵されているカメラである。また、マイク315及びスピーカー316は、図3のハードウェア構成を適用する装置に内蔵されているマイク315及びスピーカー316である。以上が図3の説明である。   The camera 314 is a camera incorporated in an apparatus to which the hardware configuration of FIG. 3 is applied. Also, the microphone 315 and the speaker 316 are the microphone 315 and the speaker 316 built in the apparatus to which the hardware configuration of FIG. 3 is applied. The above is the description of FIG.

次に図4を参照して、本発明の実施形態における、各種装置の機能構成の一例について説明する。   Next, with reference to FIG. 4, an example of functional configurations of various devices in the embodiment of the present invention will be described.

情報処理装置101及び102は、画像記憶部411、送信制御部412、受信制御部413、合成部414等を備えている。   The information processing apparatuses 101 and 102 each include an image storage unit 411, a transmission control unit 412, a reception control unit 413, a combining unit 414, and the like.

情報処理装置101と102は同じ機能構成であるため、ここでは情報処理装置101を例に説明を行い、情報処理装置102についての説明は省略する。   Since the information processing apparatuses 101 and 102 have the same functional configuration, the information processing apparatus 101 will be described as an example here, and the description of the information processing apparatus 102 will be omitted.

画像記憶部411は、送信制御部412によって送信する画像と同じ画像を記憶する記憶部(キュー)である。   The image storage unit 411 is a storage unit (queue) that stores the same image as the image transmitted by the transmission control unit 412.

キューには、情報処理装置101の撮像装置によって撮像される撮像画像(会議画像)用の画像キューと、ユーザ操作により指定された指定画像(情報処理装置101のデスクトップ画面の画像等)の画像キューがある。   The cues include an image cue for a captured image (meeting image) picked up by the imaging device of the information processing apparatus 101 and an image cue for a designated image (an image of a desktop screen of the information processing apparatus 101, etc.) designated by user operation. There is.

撮像画像用の画像キューには撮像画像を順次記憶する。カメラ314は継続的に撮像処理(動画の撮像及び情報処理装置101への動画の入力)を行うため、当該画像キューには、動画を構成する複数の画像が、動画内のフレームごとに順々に記憶される。   Captured images are sequentially stored in an image queue for captured images. Since the camera 314 continuously performs imaging processing (image capture of a moving image and input of the moving image to the information processing apparatus 101), in the image queue, a plurality of images constituting the moving image are sequentially for each frame in the moving image. Is stored in

指定画像用の画像キューには、指定画像を所定時間ごとに記憶する。例えば0.2秒ごとに、情報処理装置101のデスクトップ画面に表示されているデスクトップ画像を順次記憶する。記憶される各指定画像は、例えばデスクトップ画像を繋ぎ合わせて再生する動画の1フレームである。   The designated image is stored in the image queue for designated image at predetermined time intervals. For example, desktop images displayed on the desktop screen of the information processing apparatus 101 are sequentially stored every 0.2 seconds. Each designated image to be stored is, for example, one frame of a moving image to be reproduced by connecting desktop images.

送信制御部412は、各種画像や音声データを送信する機能部である(画像送信手段)。より具体的には、カメラ314において撮像され入力された画像(映像)や、ユーザ操作等により表示を共有する画像として指定された指定画像(デスクトップ全体または指定アプリケーションの画面の画像)を、ウェブ会議サーバ100に送信制御する。   The transmission control unit 412 is a functional unit that transmits various images and audio data (image transmission unit). More specifically, an image (video) captured and input by the camera 314, or a designated image (image of the entire desktop or a screen of a designated application) designated as an image sharing display by user operation or the like, Transmission control to the server 100 is performed.

送信された画像は、ウェブ会議サーバ100の受信制御部422で受信され、メモリ上の画像記憶部423(画像キュー)に格納される。   The transmitted image is received by the reception control unit 422 of the web conference server 100 and stored in the image storage unit 423 (image queue) on the memory.

受信制御部413は、ウェブ会議サーバ100から画像及び音声を受信する機能部である。   The reception control unit 413 is a functional unit that receives an image and a sound from the web conference server 100.

合成部414は、情報処理装置101が、OSで管理される動画や音楽プレイヤーで再生される再生音とマイク315から取得した音声データとウェブ会議サーバ100から受信した音声データとを合成する機能部である(合成手段)。当該再生音とマイク315から取得した音声データとウェブ会議サーバ100から受信した音声データとをすべて合成してもよいし、いずれかの再生音または音声データが含まれずに合成してもよい。合成部414の機能により各種の音声データを合成して一つの音データとすることで情報処理装置101からウェブ会議サーバ100に当該音データを送信する際にデータ通信量を削減することが可能となる。なお、本実施形態では合成部414は情報処理装置101及び102で機能するが、ウェブ会議サーバ100で合成してもよい。   The synthesizing unit 414 is a functional unit that causes the information processing apparatus 101 to synthesize reproduction sound reproduced by a moving image or music player managed by the OS, audio data acquired from the microphone 315, and audio data received from the web conference server 100. (Combination means). The reproduction sound, the voice data acquired from the microphone 315, and the sound data received from the web conference server 100 may be all synthesized, or any reproduction sound or sound data may be synthesized without being included. It is possible to reduce the amount of data communication when transmitting the sound data from the information processing apparatus 101 to the web conference server 100 by combining various voice data into one sound data by the function of the synthesis unit 414. Become. Although the combining unit 414 functions in the information processing apparatuses 101 and 102 in this embodiment, the combining unit 414 may combine in the web conference server 100.

以上で、情報処理装置101及び情報処理装置102の機能構成の説明を終了する。   This is the end of the description of the functional configurations of the information processing apparatus 101 and the information processing apparatus 102.

次に、ウェブ会議サーバ100の機能構成図について説明する。   Next, a functional configuration diagram of the web conference server 100 will be described.

ウェブ会議サーバ100は、会議情報記憶部421、受信制御部422、画像記憶部423、送信制御部424等を備えている。   The web conference server 100 includes a conference information storage unit 421, a reception control unit 422, an image storage unit 423, a transmission control unit 424, and the like.

会議情報記憶部421は、どのユーザが、どの会議室に入室してどのユーザと会議を行っているかを記憶する記憶部である。   The conference information storage unit 421 is a storage unit that stores which user is in which conference room and who is in a conference.

受信制御部422は、情報処理装置101の送信制御部412より送信された会議画像(映像)、および指定画像、音声を受信する受信部である。   The reception control unit 422 is a reception unit that receives the conference image (video), the designated image, and the sound transmitted from the transmission control unit 412 of the information processing apparatus 101.

画像記憶部423は、情報処理装置101及び情報処理装置102から受信した画像及び音声を記憶する機能部である。   The image storage unit 423 is a functional unit that stores an image and a sound received from the information processing apparatus 101 and the information processing apparatus 102.

送信制御部424は、受信制御部422で受信した画像や指定画像、音声等を、同じ会議に参加している(例:同じ会議室に入室中の)、当該画像や音声の送信元の情報処理装置101とは別の、他の情報処理装置102に送信する制御部である。   The transmission control unit 424 participates in the same conference with the image, designated image, voice, etc. received by the reception control unit 422 (e.g., entering the same conference room), information on the transmission source of the image or voice. The control unit transmits data to another information processing apparatus 102 different from the processing apparatus 101.

なお、本実施形態においては、情報処理装置102がウェブ会議サーバ100に対して、画像記憶部423からの画像の取得要求を行う。当該要求に応じてウェブ会議サーバ100の送信制御部424が要求元の情報処理装置102に対して、当該要求受付時におけるキュー内の最新の画像を送信するものとする。   In the present embodiment, the information processing apparatus 102 requests the web conference server 100 to obtain an image from the image storage unit 423. In response to the request, the transmission control unit 424 of the web conference server 100 transmits the latest image in the queue at the time of receiving the request to the information processing apparatus 102 of the request source.

情報処理装置102は、要求した画像を受信した後、当該受信した画像(動画内の1フレーム)を表示画面に表示する。そして当該表示と並行して、当該動画内の次の画像をウェブ会議サーバ100に要求する。会議が終了する等、動画の表示が終了するまで、当該画像の要求と表示を繰り返す。   After receiving the requested image, the information processing apparatus 102 displays the received image (one frame in the moving image) on the display screen. Then, in parallel with the display, the next image in the moving image is requested to the web conference server 100. The request and display of the image are repeated until the display of the moving image is ended, such as when the meeting is ended.

以上が図4のウェブ会議サーバ100の機能構成図の説明である。   The above is the description of the functional configuration of the web conference server 100 shown in FIG.

図5は、本実施形態のウェブ会議システムにおける、情報処理装置101および情報処理装置102の音声共有処理の全体の流れを例示するフローチャートである。   FIG. 5 is a flowchart illustrating the entire flow of the voice sharing process of the information processing apparatus 101 and the information processing apparatus 102 in the web conference system of the present embodiment.

ステップS501において、情報処理装置101のCPU301は、情報処理装置101の画面に、図6に示すようなデバイス設定画面600を表示するように制御する。   In step S501, the CPU 301 of the information processing apparatus 101 performs control to display a device setting screen 600 as illustrated in FIG. 6 on the screen of the information processing apparatus 101.

図6はデバイス設定画面600の一例を示す図である。デバイス設定画面600は、ウェブ会議システムで利用する各種デバイスを設定する画面である。デバイス設定画面600は、カメラ選択部601、スピーカー選択部602、マイク選択部603、OKボタン604を備える。カメラ選択部601、スピーカー選択部602、マイク選択部603でそれぞれのデバイスの選択を受け付け、OKボタン604の押下を受け付けるとウェブ会議システムで使用するデバイスを決定する。   FIG. 6 shows an example of the device setting screen 600. As shown in FIG. The device setting screen 600 is a screen for setting various devices used in the web conference system. The device setting screen 600 includes a camera selection unit 601, a speaker selection unit 602, a microphone selection unit 603, and an OK button 604. The camera selection unit 601, the speaker selection unit 602, and the microphone selection unit 603 receive the selection of the respective devices, and when the OK button 604 is received, the devices to be used in the web conference system are determined.

ステップS502において、情報処理装置101のCPU301は、図6に示すようなデバイス設定画面600を介して、使用するカメラ314、マイク315、スピーカー316など各デバイスの設定を受け付ける。そして各デバイスの使用状態を図7に示すようなデバイス状態テーブル700に保存し、ステップS503に処理を進める。   In step S502, the CPU 301 of the information processing apparatus 101 receives settings of devices such as the camera 314, the microphone 315, and the speaker 316 to be used via the device setting screen 600 as illustrated in FIG. Then, the usage state of each device is stored in the device state table 700 as shown in FIG. 7, and the process proceeds to step S503.

図7は、本実施例におけるデバイス状態テーブル700の一例を示す。デバイス状態テーブル700では、カメラ314、マイク315、スピーカー316の利用有無を保持する。デバイス状態テーブル700は、デバイスの種類を示すデバイス701、デバイスを利用しているか否かを示す利用702を備える。また、利用しているデバイスがOSで既定された既定のデバイスか否かを示す既定か否か703と、情報処理装置101及び102で再生される再生音(以下、PC再生音)を他の情報処理装置102と共有しているか否かを示すPC再生音共有704を備える。   FIG. 7 shows an example of the device status table 700 in the present embodiment. The device status table 700 holds the use of the camera 314, the microphone 315, and the speaker 316. The device status table 700 includes a device 701 indicating the type of device, and a use 702 indicating whether the device is used. In addition, whether the device being used is a default device indicating whether the device is a default device or not is determined whether it is a default device 703 or not, and the playback sound reproduced by the information processing apparatuses 101 and 102 (hereinafter referred to as PC playback sound) A PC playback sound sharing 704 indicating whether the information processing apparatus 102 is shared is provided.

以下、図5のフローチャートの説明に戻る。   Hereinafter, the description returns to the flowchart of FIG.

ステップS503では、情報処理装置101のCPU301は、ステップS502で設定を受け付け、選択されたスピーカー316が、情報処理装置101のOS既定のスピーカー316か否かを確認し、デバイス状態テーブル700に保存する。なお、OS既定のスピーカー316とは、情報処理装置101に接続されたスピーカー316のうち、音声を再生するソフトウェアが既定で使用するスピーカー316のことを示す。以降、PC再生音は、OS既定のスピーカー316から取得するものとして記述する。   In step S 503, the CPU 301 of the information processing apparatus 101 receives the setting in step S 502, confirms whether the selected speaker 316 is the OS default speaker 316 of the information processing apparatus 101, and stores it in the device state table 700. . The OS default speaker 316 indicates, of the speakers 316 connected to the information processing apparatus 101, the speaker 316 that is used by software that reproduces audio by default. Hereinafter, PC playback sound will be described as being acquired from the speaker 316 defined by the OS.

ステップS504では、情報処理装置101のCPU301は、図6のデバイス設定画面600で選択を受け付けた各デバイスの使用を開始する。   In step S504, the CPU 301 of the information processing apparatus 101 starts using each device for which selection has been received on the device setting screen 600 of FIG.

ステップS505では、情報処理装置101のCPU301は、スピーカー316の使用有無を判定する。情報処理装置101のCPU301は、スピーカー316を使用していると判定した場合、ステップS506に処理を進める。情報処理装置101のCPU301は、スピーカー316を使用していないと判定した場合、デバイス設定の一連の処理を終了する。   In step S505, the CPU 301 of the information processing apparatus 101 determines whether the speaker 316 is used. If the CPU 301 of the information processing apparatus 101 determines that the speaker 316 is used, the process proceeds to step S506. If the CPU 301 of the information processing apparatus 101 determines that the speaker 316 is not in use, the series of processes of device setting ends.

ステップS506では、情報処理装置101のCPU301は、ウェブ会議サーバ100からの音声データの受信処理を開始する。   In step S506, the CPU 301 of the information processing apparatus 101 starts the process of receiving voice data from the web conference server 100.

ステップS507では、情報処理装置101のCPU301は、ウェブ会議サーバ100からの音声データの受信処理を実行し、受信した音声を再生する音声再生処理を実行する。音声再生処理の詳細については、図12を用いて説明する。   In step S507, the CPU 301 of the information processing apparatus 101 executes reception processing of audio data from the web conference server 100 and executes audio reproduction processing for reproducing the received audio. The details of the audio reproduction process will be described with reference to FIG.

図12は、本発明の実施形態における、ウェブ会議アプリケーションの音声再生処理を例示するフローチャートである。図12の処理は、図5のステップS509における、ウェブ会議サーバ100からの音声受信開始処理において開始される。   FIG. 12 is a flowchart illustrating an audio reproduction process of the web conference application in the embodiment of the present invention. The process of FIG. 12 is started in the process of starting voice reception from the web conference server 100 in step S509 of FIG.

ステップS1201において、情報処理装置101のCPU301は、ウェブ会議サーバ100から音声データを受信する。ここで受信する音声データは、他の情報処理装置102のマイク315から入力された音声データである。当該音声データは、他の情報処理装置102からウェブ会議サーバ100が受信し、ウェブ会議サーバ100からさらに情報処理装置101が受信したものである。   In step S 1201, the CPU 301 of the information processing apparatus 101 receives audio data from the web conference server 100. The audio data received here is audio data input from the microphone 315 of the other information processing apparatus 102. The voice data is received by the web conference server 100 from another information processing apparatus 102 and further received by the information processing apparatus 101 from the web conference server 100.

ステップS1202において、情報処理装置101のCPU301は、ウェブ会議サーバ100から音声データを受信したか否かを判定する。音声データを受信したと判定した場合、情報処理装置101のCPU301は、S1203に処理を進める。ウェブ会議サーバ100から音声データを受信したと判定しなかったと判定した場合は、ウェブ会議サーバ100からの音声受信処理を終了する。   In step S 1202, the CPU 301 of the information processing apparatus 101 determines whether voice data has been received from the web conference server 100. If it is determined that voice data has been received, the CPU 301 of the information processing apparatus 101 proceeds with the process to S1203. If it is determined that the voice data is not received from the web conference server 100, the voice reception process from the web conference server 100 is ended.

ステップS1203では、情報処理装置101のCPU301は、ウェブ会議サーバ100からの受信した音声データを伸長(圧縮した音声データの解凍)し、ウェブ会議アプリケーションで選択されたスピーカー316のドライバに音声データを書き込む。これにより、選択されたスピーカー316で音声データが再生される。   In step S1203, the CPU 301 of the information processing apparatus 101 decompresses (decompresses the compressed voice data) the voice data received from the web conference server 100, and writes the voice data to the driver of the speaker 316 selected by the web conference application. . Thereby, the audio data is reproduced by the selected speaker 316.

図5に説明を戻す。   Description will be returned to FIG.

ステップS508では、情報処理装置101のCPU301は、画面共有処理を行う。画面共有処理については、図9を用いて説明する。   In step S508, the CPU 301 of the information processing apparatus 101 performs screen sharing processing. The screen sharing process will be described with reference to FIG.

図9は、本発明の実施形態における、画面共有処理を例示するフローチャートである。本実施形態では一例として、動画再生中の画面および音声を共有する場合を例示するが、画面を共有せず、動画もしくは音楽再生アプリケーションで再生する音楽を共有してもよい。   FIG. 9 is a flowchart illustrating screen sharing processing according to an embodiment of the present invention. In the present embodiment, as an example, the case of sharing a screen and audio during moving image reproduction is illustrated, but the screen may not be shared, and music to be reproduced by a moving image or music reproduction application may be shared.

ステップS901では、情報処理装置101のCPU301は、動画再生指示を受け付ける。動画再生指示を受け付けると、情報処理装置101のCPU301は、動画再生アプリケーションを起動し、動画の映像及び音声の再生を開始する。   In step S901, the CPU 301 of the information processing apparatus 101 receives a moving image reproduction instruction. When a moving image reproduction instruction is received, the CPU 301 of the information processing apparatus 101 activates a moving image reproduction application, and starts reproduction of the moving image and sound.

ステップS902では、情報処理装置101のCPU301は、情報処理装置101に表示された図8のウェブ会議アプリケーション画面800を介して、画面共有開始ボタン801の押下を受け付けるとステップS903に処理を進める。   In step S902, when the CPU 301 of the information processing apparatus 101 receives pressing of the screen sharing start button 801 via the web conference application screen 800 of FIG. 8 displayed on the information processing apparatus 101, the process proceeds to step S903.

図8のウェブ会議アプリケーション画面800は、本発明の実施形態におけるウェブ会議アプリケーション画面の一例を示す図である。ウェブ会議システムでは、ウェブ会議に参加しているユーザのうちいずれか1名(1台)がホスト(ホストコンピュータ)となる。ホストとなったユーザは自身のコンピュータ(情報処理装置101)のデスクトップ全体、または特定のアプリケーションを、他の参加ユーザ(複数台数可)をゲスト(ゲストコンピュータ)として共有表示することができる。画面共有を開始する場合、ユーザは入室後のウェブ会議アプリケーション画面800から画面共有開始ボタン801を押下する。画面共有開始ボタン801の押下を受け付けると、情報処理装置101は画面共有を開始する。   The web conference application screen 800 of FIG. 8 is a diagram showing an example of the web conference application screen in the embodiment of the present invention. In the web conference system, any one (one) of the users participating in the web conference serves as a host (host computer). A user who has become a host can share and display the entire desktop of his / her computer (information processing apparatus 101) or a specific application as a guest (a guest computer) with other participating users (a plurality of which may be available). To start screen sharing, the user presses the screen sharing start button 801 from the web conference application screen 800 after entering the room. When pressing of the screen sharing start button 801 is received, the information processing apparatus 101 starts screen sharing.

図8の画面共有操作画面810は、本発明の実施形態における、画面共有操作画面の一例を示す図である。   The screen sharing operation screen 810 of FIG. 8 is a diagram showing an example of the screen sharing operation screen in the embodiment of the present invention.

画面共有が開始された際、情報処理装置101のCPU301は、情報処理装置101の画面上に画面共有操作画面810を表示する。PC再生音共有ボタン811の押下を受け付けると(共有指示受付手段)、情報処理装置101のCPU301は、PC再生音の共有を開始する。PC再生音の共有開始処理については後述する。   When screen sharing is started, the CPU 301 of the information processing apparatus 101 displays a screen sharing operation screen 810 on the screen of the information processing apparatus 101. When pressing of the PC playback sound sharing button 811 is received (sharing instruction reception means), the CPU 301 of the information processing apparatus 101 starts sharing of PC playback sound. The sharing start process of the PC reproduction sound will be described later.

ステップS903では、情報処理装置101のCPU301は、情報処理装置101の画面に、図8に示すような画面共有操作画面810を表示するように制御する。   In step S 903, the CPU 301 of the information processing apparatus 101 controls to display a screen sharing operation screen 810 as shown in FIG. 8 on the screen of the information processing apparatus 101.

ステップS904では、情報処理装置101のCPU301は、図7のデバイス状態テーブル700を参照し、マイク315を使用しているか否かを判定する。マイク315を使用していないと判定した場合、情報処理装置101のCPU301は、ステップS905に処理を進める。マイク315を使用していると判定した場合、情報処理装置101のCPU301は、ステップS906に処理を進める。   In step S904, the CPU 301 of the information processing apparatus 101 refers to the device state table 700 of FIG. 7 and determines whether or not the microphone 315 is used. If it is determined that the microphone 315 is not used, the CPU 301 of the information processing device 101 proceeds with the process to step S905. If it is determined that the microphone 315 is used, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S906.

ステップS905では、情報処理装置101のCPU301は、ステップS903で表示された画面共有操作画面810のPC再生音共有ボタン811を無効化する。これは、ステップS904の判定により、マイクが使用されておらず、ウェブ会議サーバ100への音声送信処理が開始されていないためである。PC再生音の送信はウェブ会議サーバ100への音声送信処理に依存し、ウェブ会議サーバ100への音声送信処理が行われない場合にはPC再生音もウェブ会議サーバ100へ送信することが出来ない。PC再生音をウェブ会議サーバ100へ送信しなければ、PC再生音を他の情報処理装置102と共有できないため、ここでではPC再生音共有ボタン811を無効化する。   In step S 905, the CPU 301 of the information processing apparatus 101 invalidates the PC reproduction sound sharing button 811 of the screen sharing operation screen 810 displayed in step S 903. This is because, as a result of the determination in step S904, the microphone is not used, and the voice transmission process to the web conference server 100 has not been started. The transmission of the PC playback sound depends on the audio transmission processing to the web conference server 100, and when the audio transmission processing to the web conference server 100 is not performed, the PC reproduction sound can not be transmitted to the web conference server 100. . If the PC playback sound is not transmitted to the web conference server 100, the PC playback sound can not be shared with the other information processing apparatus 102, so the PC playback sound sharing button 811 is invalidated here.

ステップS906において、情報処理装置101のCPU301は、ウェブ会議サーバ100への共有画面のデータの送信を開始し、本フローチャートの処理を終了する。情報処理装置101のCPU301は、情報処理装置101が表示している画面のスクリーンショットを撮影し、ウェブ会議サーバ100へ撮影した当該画像を送信する処理を行う。当該処理により、情報処理装置101は、自身の画面を他の情報処理装置102に共有することが可能となる。   In step S906, the CPU 301 of the information processing apparatus 101 starts transmission of the data of the shared screen to the web conference server 100, and ends the processing of this flowchart. The CPU 301 of the information processing apparatus 101 captures a screen shot of the screen displayed by the information processing apparatus 101, and transmits the captured image to the web conference server 100. By the process, the information processing apparatus 101 can share its screen with other information processing apparatuses 102.

以上で、図9の画面共有処理の説明を終了する。図9の処理により、PC再生音を共有する際の各種画面の表示が制御され、また情報処理装置101で表示される画面が他の情報処理装置102に共有される。   This is the end of the description of the screen sharing process of FIG. By the process of FIG. 9, the display of various screens when sharing PC playback sound is controlled, and the screen displayed by the information processing apparatus 101 is shared by the other information processing apparatus 102.

図5に説明を戻す。   Description will be returned to FIG.

ステップS509では、情報処理装置101のCPU301は、PC再生音を他の情報処理装置102と共有するべくPC再生音共有開始処理を実行する。PC再生音共有開始処理の詳細については、図10を用いて説明する。   In step S 509, the CPU 301 of the information processing apparatus 101 executes PC reproduction sound sharing start processing to share the PC reproduction sound with another information processing apparatus 102. The details of the PC reproduction sound sharing start process will be described with reference to FIG.

図10は、本発明の実施形態における、PC再生音共有開始処理を例示するフローチャートである。   FIG. 10 is a flowchart illustrating PC reproduction sound sharing start processing in the embodiment of the present invention.

ステップS1001では、情報処理装置101のCPU301は、PC再生音共有ボタン811の押下を受け付けると、ステップS1002に処理を進める。   In step S1001, when the CPU 301 of the information processing apparatus 101 receives pressing of the PC reproduction sound sharing button 811, the process proceeds to step S1002.

ステップS1002では、情報処理装置101のCPU301は、デバイス状態テーブル700を参照し、ウェブ会議で利用しているスピーカー316がOS既定のスピーカー316か否かを判定する。既定のスピーカー316を利用していると判定した場合、情報処理装置101のCPU301は、ステップS1003に処理を進める。既定のスピーカー316を利用していないと判定した場合、情報処理装置101のCPU301は、ステップS1004に処理を進める。   In step S1002, the CPU 301 of the information processing apparatus 101 refers to the device state table 700, and determines whether the speaker 316 used in the web conference is the speaker 316 defined by the OS. If it is determined that the default speaker 316 is used, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1003. If it is determined that the default speaker 316 is not used, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1004.

ステップS1003では、情報処理装置101のCPU301は、ウェブ会議サーバ100からの音声受信処理を停止する。これは、PC再生音の共有処理により、エコーが発生することを防ぐためである。エコーが発生する理由については図13で後述する。   In step S1003, the CPU 301 of the information processing apparatus 101 stops the process of receiving voice from the web conference server 100. This is to prevent an echo from being generated by the sharing processing of the PC reproduction sound. The reason why the echo occurs will be described later with reference to FIG.

ステップS1004において、情報処理装置101のCPU301は、図7のデバイス状態テーブル700のPC再生音共有フラグを「あり」に切り替え、処理を終了する。   In step S1004, the CPU 301 of the information processing apparatus 101 switches the PC reproduction sound sharing flag in the device state table 700 of FIG. 7 to "Yes", and ends the process.

以上で、図10のPC再生音共有開始処理のフローチャートの説明を終了する。図10の一連の処理により、情報処理装置101で再生されるPC再生音が、他の情報処理装置102で共有可能に再生する処理が開始される。   This is the end of the description of the flowchart of the PC reproduction sound sharing start process of FIG. By the series of processes in FIG. 10, the process of reproducing the PC reproduction sound reproduced by the information processing apparatus 101 so as to be shareable by another information processing apparatus 102 is started.

ステップS510では、情報処理装置101のCPU301は、マイク315の使用有無を判定する。情報処理装置101のCPU301は、マイク315を使用していると判定した場合は、ステップS511に処理を進める。情報処理装置101のCPU301は、マイク315を使用していないと判定した場合は、ステップS513に処理を進める。   In step S510, the CPU 301 of the information processing apparatus 101 determines whether the microphone 315 is used. If the CPU 301 of the information processing apparatus 101 determines that the microphone 315 is used, the process proceeds to step S511. If the CPU 301 of the information processing apparatus 101 determines that the microphone 315 is not in use, the process proceeds to step S513.

ステップS511では、情報処理装置101のCPU301は、マイク315から取得した音声データのウェブ会議サーバ100への送信処理を開始する。   In step S 511, the CPU 301 of the information processing apparatus 101 starts transmission processing of the voice data acquired from the microphone 315 to the web conference server 100.

ステップS512では、情報処理装置101のCPU301は、情報処理装置101のCPU301は、音声送信処理を実行する。音声送信処理については、図11を用いて詳細を説明する。   In step S512, the CPU 301 of the information processing apparatus 101 executes an audio transmission process. The voice transmission process will be described in detail with reference to FIG.

図11は、本発明の実施形態における、ウェブ会議サーバ100への音声送信処理を例示するフローチャートである。本処理は、図5のステップS506のサーバへの音声送信開始処理において開始される。   FIG. 11 is a flowchart illustrating an audio transmission process to the web conference server 100 in the embodiment of the present invention. The present process is started in the process of starting voice transmission to the server in step S506 of FIG.

ステップS1101では、情報処理装置101のCPU301は、マイク入力を停止しているか否かを判定する。マイク入力を停止していないと判定した場合、情報処理装置101のCPU301は、ステップS1102に処理を進める。マイク入力を停止していると判定した場合、情報処理装置101のCPU301は、マイク315からの入力音を取得せずステップS1103に処理を進める。   In step S1101, the CPU 301 of the information processing apparatus 101 determines whether microphone input has been stopped. If it is determined that the microphone input is not stopped, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1102. If it is determined that the microphone input is stopped, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1103 without acquiring the input sound from the microphone 315.

ステップS1102では、情報処理装置101のCPU301は、マイク入力音を取得する。マイク入力音とは、情報処理装置101が備えるマイク315から入力された、ユーザが発した音声等の音声データを示す。マイク入力音を取得すると、情報処理装置101のCPU301は、ステップS1103に処理を進める。   In step S1102, the CPU 301 of the information processing apparatus 101 acquires a microphone input sound. The microphone input sound indicates voice data such as voice uttered by the user input from the microphone 315 of the information processing apparatus 101. When the microphone input sound is acquired, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1103.

ステップS1103では、情報処理装置101のCPU301は、PC再生音を作成する。PC再生音の作成はウェブ会議アプリケーションではなく、情報処理装置101のOSが行う処理である。PC再生音がOSによってどのように作成されるかについては図13と図15を用いて説明する。   In step S1103, the CPU 301 of the information processing apparatus 101 creates a PC playback sound. The creation of the PC reproduction sound is not a web conference application, but a process performed by the OS of the information processing apparatus 101. How the PC reproduction sound is created by the OS will be described with reference to FIGS. 13 and 15.

図13は、本発明の実施形態における、OSによるPC再生音作成処理を例示するフローチャートである。PC再生音とは、ホストコンピュータとなる情報処理装置101上で動作するアプリケーションからスピーカー316に書き込まれた、全ての音声データが合成された音声データである。ここでは便宜的に、OS既定のスピーカー316において、ウェブ会議アプリケーション、動画再生アプリケーション、その他のアプリケーションが音声データを再生している場合を例示する。   FIG. 13 is a flowchart illustrating PC reproduction sound creation processing by the OS according to the embodiment of the present invention. The PC reproduction sound is sound data obtained by synthesizing all sound data written to the speaker 316 from an application operating on the information processing apparatus 101 serving as a host computer. Here, for the sake of convenience, a case is illustrated in which the web conference application, the video playback application, and other applications are playing back audio data in the speaker 316 defined by the OS.

ステップS1301では、情報処理装置101のCPU301は、ウェブ会議アプリケーションからスピーカー316に書き込まれた音声データを取得する。ウェブ会議アプリケーションで書き込まれた音声データとは、ウェブ会議サーバ100から受信した音声データである。当該音声データにはウェブ会議サーバ100が他の情報処理装置102(ウェブ会議の参加者)から受信した音声データ(第二の音データ)が含まれる。   In step S1301, the CPU 301 of the information processing apparatus 101 acquires the audio data written to the speaker 316 from the web conference application. The voice data written by the web conference application is voice data received from the web conference server 100. The voice data includes voice data (second sound data) received by the web conference server 100 from another information processing apparatus 102 (a participant in the web conference).

ステップS1302では、情報処理装置101のCPU301は、動画再生アプリケーションから動画の再生時にスピーカー316に書き込まれた音声データを取得する。   In step S1302, the CPU 301 of the information processing apparatus 101 acquires audio data written to the speaker 316 at the time of reproduction of a moving image from the moving image reproduction application.

ステップS1303では、情報処理装置101のCPU301は、その他のアプリケーションから書き込まれた音声データを取得する。その他とは、動画再生アプリケーション以外のアプリケーションであり、たとえば音楽再生アプリケーションなどの音声データを再生可能なアプリケーションを示す。   In step S1303, the CPU 301 of the information processing apparatus 101 acquires audio data written from other applications. The “other” is an application other than the video reproduction application, and indicates an application capable of reproducing audio data such as a music reproduction application, for example.

ステップS1304において、情報処理装置101のCPU301は、ステップS1301からステップS1304の全ての音声データを合成し、PC再生音を作成する。つまり、同一のスピーカー316に対し、ウェブ会議アプリケーション、動画再生アプリケーション、その他のアプリケーションが音声データを再生している場合、PC再生音には当該3つの音声データが含まれる。   In step S1304, the CPU 301 of the information processing apparatus 101 synthesizes all the audio data from step S1301 to step S1304 to create PC reproduction sound. That is, when the web conference application, the video reproduction application, and other applications reproduce audio data for the same speaker 316, the PC reproduction sound includes the three audio data.

ここで、図15について説明する。図15のPC再生音作成処理イメージ1500は、図11の音声送信処理と図13のPC再生音作成処理の処理のイメージ図の一例を示す。PC再生音作成処理イメージ1500はすべて情報処理装置101上での処理のイメージである。PC再生音作成処理イメージ1500では、ウェブ会議アプリケーション、動画再生アプリケーション、その他のアプリケーションからそれぞれ音声データを情報処理装置101のスピーカー316のドライバに書き込む。そして当該書き込んだ音声データを合成し(点線部1501)、情報処理装置101は点線部1501のPC再生音を作成する。ここまでが、図13のステップS1301から1304までの処理のイメージとなる。   Here, FIG. 15 will be described. The PC reproduction sound creation processing image 1500 of FIG. 15 shows an example of an image diagram of the processing of the sound transmission processing of FIG. 11 and the processing of PC reproduction sound creation of FIG. The PC reproduction sound creation processing image 1500 is all an image of processing on the information processing apparatus 101. In the PC playback sound creation processing image 1500, audio data is written from the web conference application, the video playback application, and other applications to the driver of the speaker 316 of the information processing apparatus 101. Then, the written voice data is synthesized (dotted line portion 1501), and the information processing apparatus 101 creates PC reproduced sound of the dotted line portion 1501. The above is an image of the processing of steps S1301 to 1304 in FIG.

ウェブ会議アプリケーションがスピーカー316に書き込んだ音声データは、ウェブ会議サーバ100が他の情報処理装置102(ウェブ会議の参加者)から受信した音声データが含まれる。つまり、情報処理装置101で合成するPC再生音には、他の参加者が送信した情報処理装置102の音声データが含まれる。情報処理装置102からの音声データを含む合成したPC再生音を、情報処理装置101からウェブ会議サーバ100に送信すると(図15の1503)、ウェブ会議サーバ100は当該PC再生音を情報処理装置102に送信する。その結果、情報処理装置102は自身が入力した音声データをウェブ会議サーバ100から再び受信することとなる。したがって、自身が発した音声が自身に返ってくる現象(エコーと呼ばれる)が起こり、ウェブ会議の阻害要因となる課題が発生する。   The voice data written by the web conferencing application to the speaker 316 includes voice data received by the web conference server 100 from another information processing apparatus 102 (a participant of the web conference). That is, the PC reproduction sound synthesized by the information processing apparatus 101 includes the audio data of the information processing apparatus 102 transmitted by another participant. When the synthesized PC playback sound including voice data from the information processing apparatus 102 is transmitted from the information processing apparatus 101 to the web conference server 100 (1503 in FIG. 15), the web conference server 100 transmits the PC playback sound to the information processing apparatus 102. Send to As a result, the information processing apparatus 102 receives again the voice data inputted by itself from the web conference server 100. Therefore, a phenomenon (called an echo) in which the voice uttered by the user is returned to the user occurs, and a task causing the web conference is generated.

上記の課題を、図10のS1003の処理を行うことで解決する。PC再生音共有ボタン811の押下を受け付けた場合には、まずウェブ会議サーバ100からの音声データの受信を停止する。図15のPC再生音作成処理イメージ1510は、ウェブ会議サーバ100からの音声データの受信を停止してPC再生音を作成しているイメ―ジ図である。音声データの受信停止により図13のステップS1301では、ウェブ会議サーバ100から書き込まれた音声を取得せず、ステップS1304では他の情報処理装置102からの音声データを含まない状態でPC再生音を作成することとなる(図15の1511)。つまり、結果的に各アプリケーションで再生した動画の音声データや音楽の音声データのみのPC再生音を作成する。当該PC再生音の作成により、情報処理装置102は自身が入力した音声データを含まないPC再生音を受信することができるため、上記の課題であるエコーの発生を抑止することが可能となる。   The above problem is solved by performing the process of S1003 in FIG. When the pressing of the PC playback sound sharing button 811 is accepted, the reception of voice data from the web conference server 100 is first stopped. The PC reproduction sound creation processing image 1510 of FIG. 15 is an image diagram in which the reception of the voice data from the web conference server 100 is stopped and the PC reproduction sound is generated. In step S1301 of FIG. 13 due to the reception stop of the voice data, the voice written from the web conference server 100 is not acquired, and in step S1304, the PC reproduction sound is created without including the voice data from the other information processing apparatus 102. (1511 in FIG. 15). That is, as a result, PC reproduction sound of only the audio data of the moving image and the audio data of the music reproduced by each application is created. The creation of the PC reproduction sound enables the information processing apparatus 102 to receive the PC reproduction sound not including the audio data inputted by itself, and therefore, it is possible to suppress the generation of the echo which is the above-mentioned problem.

ただし、情報処理装置101には、スピーカー316は複数存在することが可能となるため、ウェブ会議アプリケーションが音声データを書き込むスピーカー316と、PC再生音を取得するスピーカー316が異なる場合には、上記の課題は発生しない。上記の課題が発生するのは、ウェブ会議アプリケーションが音声データを書き込むスピーカー316と、PC再生音を取得するスピーカー316が同一であった場合である。従って、図10のS1003の処理は、ウェブ会議アプリケーションが音声データを書き込むスピーカー316が、PC再生音を取得するスピーカー316、つまりOS既定のスピーカー316と同一の場合にのみ行う。そのため、図10のステップS1002で、情報処理装置101のCPU301は、OS既定のスピーカー316を利用していると判定した場合はウェブ会議サーバ100からの音声受信を停止する。一方、情報処理装置101のCPU301は、OS既定のスピーカー316を利用していないと判定した場合は、ウェブ会議アプリケーションが音声データを書き込むスピーカー316と、PC再生音を取得するスピーカー316が異なり上記課題が発生しない。図16のPC再生音作成イメージ1600は、上記課題が発生しない場合(既定のスピーカー以外のスピーカーが情報処理装置101のウェブ会議システムで設定され利用されている場合)のイメージ図である。そのため、情報処理装置101のCPU301は、ウェブ会議サーバ100からの音声受信処理を停止しない。   However, since a plurality of speakers 316 can be present in the information processing apparatus 101, when the speaker 316 for writing voice data by the web conference application is different from the speaker 316 for acquiring PC reproduction sound, There is no problem. The above problem occurs in the case where the web conference application writes the voice data to the speaker 316 and the speaker 316 for acquiring the PC playback sound are the same. Therefore, the process of S1003 in FIG. 10 is performed only when the speaker 316 to which the web conference application writes the audio data is identical to the speaker 316 that acquires the PC reproduction sound, that is, the speaker 316 defined by the OS. Therefore, the CPU 301 of the information processing apparatus 101 stops the voice reception from the web conference server 100 when it is determined in step S1002 in FIG. 10 that the OS default speaker 316 is used. On the other hand, when the CPU 301 of the information processing apparatus 101 determines that the OS default speaker 316 is not used, the speaker conference for writing web data by the web conference application differs from the speaker 316 for acquiring PC playback sound. Does not occur. The PC reproduction sound creation image 1600 in FIG. 16 is an image view when the above problem does not occur (when a speaker other than the default speaker is set and used in the web conference system of the information processing apparatus 101). Therefore, the CPU 301 of the information processing apparatus 101 does not stop the voice reception process from the web conference server 100.

以上で、PC再生音作成処理の説明を終了する。   This is the end of the description of the PC playback sound creation process.

図11に説明を戻す。   Description will be returned to FIG.

ステップS1104では、情報処理装置101のCPU301は、ステップS1103で作成したPC再生音を取得する。図15の1502は、当該ステップS1104の処理のイメージ図である。   In step S1104, the CPU 301 of the information processing apparatus 101 acquires the PC reproduction sound created in step S1103. Reference numeral 1502 in FIG. 15 is an image diagram of the process of step S1104.

ステップS1105では、情報処理装置101のCPU301は、デバイス状態テーブル700のPC再生音共有704を参照し、PC再生音を送信するか否かを判定する。より具体的には、デバイス状態テーブル700のPC再生音共有704のフラグが「あり」となっていればPC再生音を送信する。PC再生音を送信すると判定した場合、情報処理装置101のCPU301は、ステップS1106に処理を進める。PC再生音を送信しないと判定した場合、情報処理装置101のCPU301は、ステップS1107に処理を進める。   In step S1105, the CPU 301 of the information processing apparatus 101 refers to the PC playback sound sharing 704 in the device state table 700, and determines whether to transmit a PC playback sound. More specifically, when the flag of the PC reproduction sound sharing 704 in the device state table 700 is "present", the PC reproduction sound is transmitted. If it is determined that the PC reproduction sound is to be transmitted, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1106. If it is determined that the PC reproduction sound is not transmitted, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1107.

ステップS1106において、情報処理装置101のCPU301は、マイク入力音があるか否かを判定する。マイク入力音があると判定した場合、情報処理装置101のCPU301は、ステップS1107に処理を進める。マイク入力音がないと判定した場合、情報処理装置101のCPU301は、ステップS1109に処理を進める。   In step S1106, the CPU 301 of the information processing apparatus 101 determines whether there is a microphone input sound. If it is determined that there is a microphone input sound, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1107. If it is determined that there is no microphone input sound, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1109.

ステップS1107では、情報処理装置101のCPU301は、取得したマイク入力音と、取得したPC再生音を一つの音声データとして合成し、ステップS1109に処理を進める。マイク入力音と共に合成されるPC再生音は、ウェブ会議アプリケーションから書き込まれた他の情報処理装置102の音声データと、動画再生アプリケーション、およびその他のアプリケーションから書き込まれた音声データ(第一の音データ)とを含む。PC再生音は、ウェブ会議アプリケーションから書き込まれた音声データと、動画再生アプリケーション、およびその他のアプリケーションから書き込まれた音声データとのすべて、もしくはいずれかを含めばよい。PC再生音はステップS1103で作成され、ステップS1103で作成されたPC再生音とマイク入力音とをステップS1107で合成する。この合成処理により、PC再生音の音声データの容量を小さくして情報処理装置102に対して共有することが可能となる。なお、ステップS1107でマイク入力音とPC再生音の合成を行った後の音声データは、音割れを防ぐために音量を調整するとよい。   In step S1107, the CPU 301 of the information processing apparatus 101 synthesizes the acquired microphone input sound and the acquired PC reproduction sound as one audio data, and the process proceeds to step S1109. The PC playback sound to be synthesized with the microphone input sound is voice data of the other information processing apparatus 102 written from the web conference application, voice data written from the video playback application, and other applications (first sound data And). The PC playback sound may include all or any of audio data written from a web conference application, audio data written from a video playback application, and other applications. The PC reproduction sound is created in step S1103 and the PC reproduction sound and the microphone input sound created in step S1103 are synthesized in step S1107. By this synthesis process, it is possible to reduce the volume of audio data of PC playback sound and share it with the information processing apparatus 102. The sound data after synthesizing the microphone input sound and the PC reproduction sound in step S1107 may be adjusted in volume in order to prevent a sound break.

ステップS1108において、情報処理装置101のCPU301は、マイク入力音があるか否かを判定する。マイク入力音があると判定した場合、情報処理装置101のCPU301は、ステップS1109に処理を進める。マイク入力音がないと判定した場合、情報処理装置101のCPU301は、図11のフローチャートの一連の処理を終了する。   In step S1108, the CPU 301 of the information processing apparatus 101 determines whether there is a microphone input sound. If it is determined that there is a microphone input sound, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1109. If it is determined that there is no microphone input sound, the CPU 301 of the information processing apparatus 101 ends the series of processes in the flowchart of FIG.

ステップS1109において、情報処理装置101のCPU301は、音声データの圧縮を行い、ステップS1110に処理を進める。ここで圧縮される音声データは、ステップS1108でマイク入力音があると判定された場合は、マイク入力音のみ圧縮する。ステップS1107でマイク入力音とPC再生音を合成した場合は、マイク入力音とPC再生音を合成した音声データを圧縮する。ステップS1106でマイク入力音が無いと判定された場合は、PC再生音のみ圧縮する。つまり、ステップS1109で圧縮される音声データのパターンとしては、PC再生音のみ、マイク入力音のみ、PC再生音とマイク入力音を合成した音声データの3パターン存在する。   In step S1109, the CPU 301 of the information processing apparatus 101 compresses the audio data, and the process proceeds to step S1110. Here, when it is determined in step S1108 that there is a microphone input sound, only the microphone input sound is compressed. When the microphone input sound and the PC playback sound are synthesized in step S1107, the audio data obtained by combining the microphone input sound and the PC playback sound is compressed. If it is determined in step S1106 that there is no microphone input sound, only PC reproduction sound is compressed. That is, there are three patterns of audio data compressed in step S1109: only PC playback sound, only microphone input sound, and voice data in which PC playback sound and microphone input sound are synthesized.

ステップS1110において、情報処理装置101のCPU301は、圧縮した音声データをウェブ会議サーバ100に送信し、一連の処理を終了する。   In step S1110, the CPU 301 of the information processing apparatus 101 transmits the compressed voice data to the web conference server 100, and ends the series of processing.

以上により、図11のウェブ会議サーバ100への音声送信処理を例示するフローチャートの説明を終了する。図11の一連の処理により、情報処理装置101から、同じウェブ会議に参加している他の情報処理装置102に対してPC再生音のみ、マイク入力音のみ、PC再生音とマイク入力音を合成した音声データ、の3パターンの音声データを共有することが可能となる。なお、当該3パターンの音声データには限らず、他のパターンの組み合わせの音声データを情報処理装置102に共有してもよい。   This is the end of the description of the flowchart illustrating the voice transmission process to the web conference server 100 of FIG. Through the series of processes shown in FIG. 11, the information processing apparatus 101 synthesizes only the PC playback sound, only the microphone input sound, and combines the PC playback sound and the microphone input sound with the other information processing apparatus 102 participating in the same web conference. It becomes possible to share three patterns of voice data, which are voice data. The information processing apparatus 102 may share audio data of not only the three patterns of audio data but also combinations of other patterns.

図13のステップS1301で取得する音声データは、図12のステップS1203でスピーカー316のドライバに書き込まれた音声データである。なお、情報処理装置101のCPU301は、図10のステップS1003でサーバからの音声受信処理を停止していた場合はステップS1201からステップS1203の処理を実行しない。   The audio data acquired in step S1301 of FIG. 13 is the audio data written to the driver of the speaker 316 in step S1203 of FIG. Note that the CPU 301 of the information processing apparatus 101 does not execute the processing from step S1201 to step S1203 when the voice reception processing from the server is stopped in step S1003 of FIG.

図5に説明を戻す。   Description will be returned to FIG.

ステップS513では、情報処理装置101のCPU301は、PC再生音の共有停止指示を受け付けたか否かを判定する。より具体的には、図8の画面共有操作画面810にPC再生音共有停止ボタン(不図示)を表示させ、そのボタンの押下を受け付けることによりPC再生音の共有停止を受け付けるとよい。情報処理装置101のCPU301は、PC再生音の共有停止指示を受け付けたと判定した場合はステップS514に処理を進める。情報処理装置101のCPU301は、PC再生音の共有停止指示を受け付けていないと判定した場合はPC再生音の共有指示を受け付けるまでPC再生音の共有処理を継続する。   In step S513, the CPU 301 of the information processing apparatus 101 determines whether an instruction to stop sharing the PC playback sound has been received. More specifically, it is preferable to display a PC playback sound sharing stop button (not shown) on the screen sharing operation screen 810 of FIG. 8 and receive the pressing of the button to receive the sharing stop of the PC playback sound. If the CPU 301 of the information processing apparatus 101 determines that the instruction to stop sharing the PC playback sound has been received, the process proceeds to step S514. If the CPU 301 of the information processing apparatus 101 determines that the PC reproduction sound sharing stop instruction is not received, the CPU reproduction sound sharing process continues until the PC reproduction sound sharing instruction is received.

ステップS514では、情報処理装置101のCPU301は、PC再生音共有停止処理を実行して図5の音声共有処理の一連の処理を終了する。   In step S514, the CPU 301 of the information processing apparatus 101 executes PC reproduction sound sharing stop processing, and ends the series of processing of the sound sharing processing in FIG.

次に、図14のフローチャートの一連の処理の流れについて説明する。図14は、本発明の実施形態における、PC再生音共有の停止処理を例示するフローチャートである。   Next, the flow of a series of processes in the flowchart of FIG. 14 will be described. FIG. 14 is a flowchart illustrating stop processing of PC playback sound sharing in the embodiment of the present invention.

ステップS1401において、情報処理装置101のCPU301は、デバイス状態テーブル700のPC再生音共有704のフラグを「なし」に切り替える。   In step S1401, the CPU 301 of the information processing apparatus 101 switches the flag of the PC playback sound sharing 704 in the device state table 700 to "none".

ステップS1402において、情報処理装置101のCPU301は、ウェブ会議サーバ100からの音声受信処理を停止しているか否かを判定する。ウェブ会議サーバ100からの音声受信処理を停止していると判定した場合、情報処理装置101のCPU301は、ステップS1403に処理を進める。ウェブ会議サーバ100からの音声受信処理を停止していないと判定した場合、情報処理装置101のCPU301は、ステップS1404に処理を進める。   In step S <b> 1402, the CPU 301 of the information processing apparatus 101 determines whether the process of receiving voice from the web conference server 100 has been stopped. If it is determined that the voice reception process from the web conference server 100 is stopped, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1403. If it is determined that the voice reception process from the web conference server 100 is not stopped, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1404.

ステップS1403では、情報処理装置101のCPU301は、ウェブ会議サーバ100からの音声受信処理を開始する。   In step S <b> 1403, the CPU 301 of the information processing apparatus 101 starts an audio reception process from the web conference server 100.

ステップS1404では、情報処理装置101のCPU301は、マイク入力を停止しているか否かを判定する。マイク入力を停止していると判定した場合、情報処理装置101のCPU301は、ステップS1405に処理を進める。マイク入力を停止していないと判定した場合、情報処理装置101のCPU301は、一連の処理を終了する。   In step S1404, the CPU 301 of the information processing apparatus 101 determines whether microphone input has been stopped. If it is determined that the microphone input is stopped, the CPU 301 of the information processing apparatus 101 proceeds with the process to step S1405. If it is determined that the microphone input has not been stopped, the CPU 301 of the information processing apparatus 101 ends the series of processing.

ステップS1405では、情報処理装置101のCPU301は、マイク入力を開始し、一連の処理を終了する。   In step S1405, the CPU 301 of the information processing apparatus 101 starts microphone input and ends a series of processing.

以上で、図14のPC再生音共有の停止処理を終了する。この処理により、情報処理装置101と他の情報処理装置102とのPC再生音の共有は終了し、通常のウェブ会議の音声データの送受信に処理を戻す。以上の本発明の実施形態の処理により、情報処理装置101は、動画や音楽など情報処理装置101で再生した音声を、物理的なマイク調整を等の手間を低減しつつ適切に他のウェブ会議参加者(情報処理装置102)に送信することが可能となる。さらに、音声を合成して他の情報処理装置102に送信することで、通信量やデータ容量を低減する効果も奏する。また、PC再生音の共有中に他のウェブ会議参加者の声がエコーとして戻らないように制御することも可能となる。   This is the end of the process for stopping PC playback sound sharing in FIG. By this processing, sharing of the PC reproduction sound between the information processing apparatus 101 and the other information processing apparatus 102 ends, and the processing returns to transmission / reception of voice data of a normal web conference. According to the processing of the embodiment of the present invention described above, the information processing apparatus 101 appropriately reduces the time, such as physical microphone adjustment, of the audio reproduced by the information processing apparatus 101, such as moving images and music, and other web conferences appropriately. It becomes possible to transmit to the participant (information processing apparatus 102). Furthermore, by synthesizing the voice and transmitting it to the other information processing apparatus 102, an effect of reducing the amount of communication and the data capacity can be achieved. In addition, it becomes possible to control so that the voices of other web conference participants do not return as echo during sharing of PC playback sound.

このように、本発明によれば、ウェブ会議システムにおいて、情報処理装置の再生デバイスで再生される音声データを、会議の参加者に適切に共有させることが可能な効果を奏する。   As described above, according to the present invention, in the web conference system, it is possible to appropriately share voice data played by the playback device of the information processing apparatus to the participants of the conference.

本発明の実施形態においては、情報処理装置101と他の情報処理装置102を一例に説明を行ったが、ウェブ会議に参加するホストコンピュータ(情報処理装置101)以外のゲストコンピュータは、複数存在してよい。   In the embodiment of the present invention, although the information processing apparatus 101 and the other information processing apparatus 102 have been described as an example, there are a plurality of guest computers other than the host computer (the information processing apparatus 101) participating in the web conference. You may

なお、上述した実施形態においてはウェブ会議を例にあげて本発明の説明をしたが、本発明は例えばテレビ会議、テレビ電話等にも適用可能である。ウェブ会議、テレビ会議、テレビ電話等の電子データを用いた会議を電子会議という。   Although the present invention has been described by taking the web conference as an example in the embodiment described above, the present invention is also applicable to, for example, a video conference, a video telephone, and the like. A conference using electronic data such as a web conference, a video conference, and a video telephone is called an electronic conference.

以上、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   As described above, the present invention can be embodied as, for example, a system, an apparatus, a method, a program, or a recording medium. Specifically, the present invention may be applied to a system constituted by a plurality of devices, or may be applied to an apparatus comprising a single device.

また、本発明におけるプログラムは、本実施形態に示すフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体はコンピュータが実行可能なプログラムが記憶されている。なお、本発明におけるプログラムは各装置の処理方法ごとのプログラムであってもよい。   Further, the program in the present invention is a program that can execute the processing method of the flowchart shown in the present embodiment by a computer, and the storage medium of the present invention stores a computer executable program. The program in the present invention may be a program for each processing method of each device.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。   As described above, the recording medium recording the program for realizing the functions of the above-described embodiments is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。   In this case, the program itself read out from the recording medium realizes the novel function of the present invention, and the recording medium recording the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。   As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, non-volatile memory card, ROM, EEPROM, silicon A disk etc. can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program read by the computer, not only the functions of the above-described embodiment are realized, but also an operating system (OS) or the like running on the computer is actually executed based on the instructions of the program. It goes without saying that the processing is partially or entirely performed, and the processing realizes the functions of the above-described embodiments.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program read from the recording medium is written to the memory provided to the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is read based on the instruction of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiment are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適用できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   Further, the present invention may be applied to a system constituted by a plurality of devices or to an apparatus comprising a single device. It goes without saying that the present invention can also be applied to the case where the invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can receive the effects of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。   Further, by downloading and reading out a program for achieving the present invention from a server on a network, a database or the like by a communication program, the system or apparatus can receive the effects of the present invention. In addition, the structure which combined each embodiment mentioned above and its modification is also contained in this invention altogether.

100 ウェブ会議サーバ
101 情報処理装置
102 情報処理装置
201 CPU
208 通信I/Fコントローラ
211 外部メモリ
301 CPU
308 通信I/Fコントローラ
311 外部メモリ
314 カメラ
315 マイク
316 スピーカー
500 LAN
100 Web conference server 101 information processing apparatus 102 information processing apparatus 201 CPU
208 Communication I / F Controller 211 External Memory 301 CPU
308 Communication I / F Controller 311 External Memory 314 Camera 315 Microphone 316 Speaker 500 LAN

Claims (8)

音声を入力する入力部と音データを出力する出力部とを備える情報処理装置と、前記情報処理装置と通信可能なサーバ装置と、を備えるウェブ会議システムであって、
前記出力部で出力される音データと、前記入力部で入力された音声の音声データとを取得する取得手段と、
前記取得手段で取得した音データと音声データとを合成する合成手段と、
前記合成手段で合成した前記音データと前記音声データとを送信する送信手段と、
を備えることを特徴とするウェブ会議システム。
A web conference system including an information processing apparatus including an input unit for inputting voice and an output unit for outputting sound data, and a server apparatus capable of communicating with the information processing apparatus.
Acquisition means for acquiring sound data output from the output unit and audio data of audio input from the input unit;
Synthesizing means for synthesizing sound data and speech data acquired by the acquisition means;
Transmission means for transmitting the sound data and the voice data synthesized by the synthesis means;
A web conferencing system comprising:
前記音データは、前記情報処理装置で動作するアプリケーションによって出力される第一の音データと、他の情報処理装置の入力部で入力され、前記情報処理装置が受信した第二の音データとの少なくともいずれかの音データを含むことを特徴とする請求項1に記載のウェブ会議システム。   The sound data is a first sound data output by an application operating on the information processing device, and a second sound data input at an input unit of another information processing device and received by the information processing device. The web conferencing system according to claim 1, comprising at least one of sound data. 前記ウェブ会議システムは、前記情報処理装置と他の情報処理装置とで前記音データを共有する指示を受け付ける、共有指示受付手段を更に備え、
前記ウェブ会議システムは、前記共有指示受付手段で前記音データの共有指示を受け付けた場合は、他の情報処理装置の入力部で入力された前記第二の音データを含まずに前記第一の音データを出力することを特徴とする請求項2に記載のウェブ会議システム。
The web conference system further includes sharing instruction receiving means for receiving an instruction to share the sound data between the information processing device and another information processing device,
When the sharing instruction accepting unit accepts the instruction to share the sound data, the web conference system does not include the second sound data input from the input unit of another information processing apparatus. The web conference system according to claim 2, characterized in that sound data is output.
前記合成手段は、前記共有指示受付手段で前記音データの共有指示を受け付けた場合は前記第一の音データと前記音声データとを合成することを特徴とする請求項3に記載のウェブ会議システム。   4. The web conference system according to claim 3, wherein the synthesizing unit synthesizes the first sound data and the voice data when the sharing instruction receiving unit receives an instruction to share the sound data. . 前記ウェブ会議システムは、前記共有指示受付手段で前記音データの共有指示を受け付けていない場合には、前記合成手段で前記音データと前記音声データとの合成を行わないことを特徴とする請求項3または4に記載のウェブ会議システム。   The web conferencing system does not combine the sound data and the voice data by the combining means when the sharing instruction receiving means does not receive the sharing instruction of the sound data. Web conferencing system according to 3 or 4. 前記ウェブ会議システムは、前記情報処理装置で表示している画像を送信する画像送信手段を更に備え、
前記画像送信手段は、前記送信手段で前記音データと前記音声データとを送信する際に、前記画像を送信することを特徴とする請求項1乃至5のいずれか1項に記載のウェブ会議システム。
The web conference system further includes an image transmission unit that transmits an image displayed by the information processing apparatus.
The web conference system according to any one of claims 1 to 5, wherein the image transmission means transmits the image when the sound data and the audio data are transmitted by the transmission means. .
音声を入力する入力部と音データを出力する出力部とを備える情報処理装置と、前記情報処理装置と通信可能なサーバ装置と、を備えるウェブ会議システムの制御方法であって、
前記出力部で出力される音データと、前記入力部で入力された音声の音声データとを取得する取得ステップと、
前記取得ステップで取得した音データと音声データとを合成する合成ステップと、
前記合成ステップで合成した前記音データと前記音声データとを送信する送信ステップと、
を備えることを特徴とするウェブ会議システム。
A control method of a web conference system including an information processing apparatus including an input unit for inputting a voice and an output unit for outputting sound data, and a server apparatus capable of communicating with the information processing apparatus,
An acquisition step of acquiring sound data output from the output unit and audio data of audio input from the input unit;
A synthesis step of synthesizing the sound data and the speech data acquired in the acquisition step;
A transmitting step of transmitting the sound data and the voice data synthesized in the synthesizing step;
A web conferencing system comprising:
音声を入力する入力部と音データを出力する出力部とを備える情報処理装置と、前記情報処理装置と通信可能なサーバ装置と、を備えるウェブ会議システムの制御方法として機能させるプログラムであって、
前記ウェブ会議システムを、
前記出力部で出力される音データと、前記入力部で入力された音声の音声データとを取得する取得手段と、
前記取得手段で取得した音データと音声データとを合成する合成手段と、
前記合成手段で合成した前記音データと前記音声データとを送信する送信手段、
として機能させることを特徴とするプログラム。
A program to function as a control method of a web conference system including an information processing apparatus including an input unit for inputting voice and an output unit for outputting sound data, and a server apparatus capable of communicating with the information processing apparatus,
The web conferencing system
Acquisition means for acquiring sound data output from the output unit and audio data of audio input from the input unit;
Synthesizing means for synthesizing sound data and speech data acquired by the acquisition means;
Transmitting means for transmitting the sound data and the voice data synthesized by the synthesizing means;
A program characterized by acting as
JP2017211284A 2017-10-31 2017-10-31 WEB CONFERENCE SYSTEM, CONTROL METHOD AND PROGRAM THEREOF Active JP7132478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017211284A JP7132478B2 (en) 2017-10-31 2017-10-31 WEB CONFERENCE SYSTEM, CONTROL METHOD AND PROGRAM THEREOF

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017211284A JP7132478B2 (en) 2017-10-31 2017-10-31 WEB CONFERENCE SYSTEM, CONTROL METHOD AND PROGRAM THEREOF

Publications (3)

Publication Number Publication Date
JP2019083494A true JP2019083494A (en) 2019-05-30
JP2019083494A5 JP2019083494A5 (en) 2020-12-17
JP7132478B2 JP7132478B2 (en) 2022-09-07

Family

ID=66671238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017211284A Active JP7132478B2 (en) 2017-10-31 2017-10-31 WEB CONFERENCE SYSTEM, CONTROL METHOD AND PROGRAM THEREOF

Country Status (1)

Country Link
JP (1) JP7132478B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343566A (en) * 2003-05-16 2004-12-02 Ntt Docomo Inc Mobile telephone terminal and program
JP2012075038A (en) * 2010-09-29 2012-04-12 Sony Corp Control apparatus and control method
US20140320589A1 (en) * 2013-04-30 2014-10-30 Hewlett-Packard Development Company, L.P. Audio processing of shared content
JP2015177476A (en) * 2014-03-17 2015-10-05 株式会社リコー Information processing apparatus, information processing system and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343566A (en) * 2003-05-16 2004-12-02 Ntt Docomo Inc Mobile telephone terminal and program
JP2012075038A (en) * 2010-09-29 2012-04-12 Sony Corp Control apparatus and control method
US20140320589A1 (en) * 2013-04-30 2014-10-30 Hewlett-Packard Development Company, L.P. Audio processing of shared content
JP2015177476A (en) * 2014-03-17 2015-10-05 株式会社リコー Information processing apparatus, information processing system and program

Also Published As

Publication number Publication date
JP7132478B2 (en) 2022-09-07

Similar Documents

Publication Publication Date Title
JP4572615B2 (en) Information processing apparatus and method, recording medium, and program
JP2015043149A (en) Operation terminal, program, and information processing system
JP2017111643A (en) Web conference system, information processing method, and program
WO2020170453A1 (en) Information processing device, information processing method, and program
JP6508009B2 (en) Terminal device, screen recording method, program, and information processing system
JP2016063477A (en) Conference system, information processing method and program
CN115086729B (en) Wheat connecting display method and device, electronic equipment and computer readable medium
JP6163475B2 (en) Screen sharing system, screen sharing server, screen sharing system control method, and program
JP5999126B2 (en) Information processing apparatus, information processing method, and program
US20230199259A1 (en) Computer-readable storage medium, terminal, and method
JP2017112601A (en) Information processing apparatus, information processing method, and program
JP7132478B2 (en) WEB CONFERENCE SYSTEM, CONTROL METHOD AND PROGRAM THEREOF
JP6051075B2 (en) A communication karaoke system that can continue duet singing in the event of a communication failure
JP7206481B2 (en) Information processing device, control method and program for information processing device
JP2020144725A (en) Information processing system and control method thereof
JP2018036688A (en) Information processing device, server device, information processing system, control method thereof, and program
JP6703259B2 (en) Information processing system, conference server, control method thereof, and program
JP2016163111A (en) Information processing device, information processing method, and program
JP7138217B2 (en) TERMINAL DEVICE, COMMUNICATION SYSTEM, CONTROL METHOD AND PROGRAM THEREOF
JP2020194343A (en) Information processing system, information processing device, control method of information processing system, and program
JP5994898B2 (en) Information processing apparatus, information processing apparatus control method, and program
KR102178924B1 (en) Method and apparatus for providing performance of contents using virtual reality
JP2019102953A (en) Web conference system, control method for the same, and program
JP2022164121A (en) Information processing apparatus, control method for the same, and program
JP2020005178A (en) Image distribution system, information processing apparatus, control method thereof, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R151 Written notification of patent or utility model registration

Ref document number: 7132478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151