JP2019176386A - Communication terminals and conference system - Google Patents

Communication terminals and conference system Download PDF

Info

Publication number
JP2019176386A
JP2019176386A JP2018064176A JP2018064176A JP2019176386A JP 2019176386 A JP2019176386 A JP 2019176386A JP 2018064176 A JP2018064176 A JP 2018064176A JP 2018064176 A JP2018064176 A JP 2018064176A JP 2019176386 A JP2019176386 A JP 2019176386A
Authority
JP
Japan
Prior art keywords
conference
server
minutes
communication terminal
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018064176A
Other languages
Japanese (ja)
Other versions
JP7095356B2 (en
Inventor
未来 袴谷
Miku Hakamatani
未来 袴谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018064176A priority Critical patent/JP7095356B2/en
Publication of JP2019176386A publication Critical patent/JP2019176386A/en
Application granted granted Critical
Publication of JP7095356B2 publication Critical patent/JP7095356B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

To provide communication terminals and a conference system, capable of achieving both of creation of a record of proceedings and output of voice to be easily understood by participants even when each communication terminal comprises only one sound processing unit.SOLUTION: A conference terminal 15, when detecting coupling with a conference terminal 141, changes over a connection destination to a record-of-proceedings server 13. The conference terminal 15 can connect with the record-of-proceedings server 13 for creating a record of proceedings using received voice. The conference terminal 15 includes a DSP 25B that executes sound processing for creating the record of proceedings on first voice, utterance input to a microphone 23 by a participant at a site thereof, and second voice, utterance output from a speaker 24 of the other conference terminal 141 and input to the microphone 23 by a participant at another site. The conference terminal 15 transmits to the record-of-proceedings server 13 the first voice and the second voice on which the sound processing has been executed by the DSP 25B.SELECTED DRAWING: Figure 1

Description

本発明は、通信端末及び会議システムに関する。   The present invention relates to a communication terminal and a conference system.

近年、インターネット等の通信ネットワークを介して遠隔地間で会議を行う会議システムが普及している。   In recent years, conference systems that conduct conferences between remote locations via a communication network such as the Internet have become widespread.

この会議システムでは、互いに遠隔地にある複数の会議室に通信端末を設置する。通信端末は各々、会議の当事者などの会議室の画像および発言などの音声を撮影および収集する。そして、通信端末は各々、撮影および収集した画像および音声をデジタルデータに変換して、他の会議室に設定された他の通信端末に送信する。また、通信端末は、他の通信端末から画像や音声を受信すると、ディスプレイに画像表示およびスピーカに音声出力する。これにより、実際の会議に近い状態で遠隔地間の会議を行う技術が既に知られている。   In this conference system, communication terminals are installed in a plurality of conference rooms that are remote from each other. Each of the communication terminals captures and collects an image of a conference room such as a party of the conference and a voice such as a speech. Then, each communication terminal converts captured and collected images and sound into digital data, and transmits the digital data to another communication terminal set in another conference room. In addition, when the communication terminal receives an image or sound from another communication terminal, the communication terminal displays an image on the display and outputs the sound on the speaker. Thus, a technique for performing a conference between remote locations in a state close to an actual conference is already known.

また、通信端末が、収集した音声を音声認識エンジンに送信し、音声認識エンジンが、当事者などの発言内容を自動でテキスト化し、議事録を自動生成する技術が既に知られている。   In addition, a technology is already known in which a communication terminal transmits collected speech to a speech recognition engine, and the speech recognition engine automatically transcribes the content of speech from parties and the like to automatically generate minutes.

上記技術の一例として特許文献1の会議システムが挙げられる。特許文献1の会議システムでは、複数の会議端末(通信端末)各々が、自身が設置されている会議室(自拠点)の音声を録画サーバ(音声認識エンジン)に送信し、録画サーバが各会議端末から受信した音声を時系列に合成して議事録を作成している。   An example of the above technique is a conference system disclosed in Patent Document 1. In the conference system of Patent Document 1, each of a plurality of conference terminals (communication terminals) transmits the audio of the conference room (local site) in which the conference terminals are installed to a recording server (voice recognition engine). Minutes are created by synthesizing the voice received from the terminal in time series.

しかしながら、音声認識エンジン(機械)が認識しやすいノイズ除去処理などの音響処理と、遠隔会議の対向拠点の人が聴き取りやすい(自然な)音響処理と、は異なる。このため、通信端末では、議事録作成用と、会議用と、で2種類の異なる音響処理を行う必要があるため、音声処理チップが2つ必要になってしまいコストアップとなってしまうという問題があった。   However, acoustic processing such as noise removal processing that is easily recognized by the speech recognition engine (machine) is different from (natural) acoustic processing that is easily heard by the person at the opposite site of the remote conference. For this reason, in the communication terminal, since it is necessary to perform two kinds of different acoustic processing for the minutes creation and for the conference, two speech processing chips are required, resulting in an increase in cost. was there.

本発明は、以上の背景に鑑みてなされたものであり、各通信端末が音響処理部を一つしか備えない場合であっても、議事録の作成と、参加者に聞き取りやすい音声出力と、を両立できるようにする通信端末及び会議システムを提供することを目的としている。   The present invention has been made in view of the above background, and even if each communication terminal has only one acoustic processing unit, the creation of minutes, audio output that is easy to hear for participants, An object of the present invention is to provide a communication terminal and a conference system that make it possible to satisfy both of these requirements.

上述した課題を解決するためになされた請求項1記載の発明は、複数の通信端末間の少なくとも音声を中継する会議サーバと、前記音声を用いて議事録を作成する議事録サーバと接続可能な通信端末において、他の通信端末との連結を検出する検出部と、前記検出部によって前記連結が検出されていない場合、接続先を前記会議サーバに設定し、前記検出部によって前記連結が検出された場合、接続先を前記議事録サーバに設定する接続先設定部と、マイクと、前記マイクに入力された自拠点の参加者の発話である第1の音声と、前記他の通信端末が備えるスピーカから出力されて前記マイクに入力された他拠点の参加者の発話である第2の音声と、に対して、前記接続先が前記議事録サーバに設定されている場合、議事録作成用の音響処理を実行し、前記接続先が前記会議サーバに設定されている場合、会議用の音響処理を実行する音響処理部と、前記音響処理部によって前記議事録作成用の音響処理もしくは前記会議用の音響処理が実行された後の前記第1の音声と前記第2の音声とを前記接続先が前記議事録サーバに設定されている場合、前記議事録サーバに送信し、前記接続先が前記会議サーバに設定されている場合、前記会議サーバに送信する送信部と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is connectable to a conference server that relays at least voice between a plurality of communication terminals and a minutes server that creates minutes using the voice. In the communication terminal, when the connection is not detected by the detection unit detecting the connection with another communication terminal and the detection unit, a connection destination is set in the conference server, and the connection is detected by the detection unit. The connection destination setting unit for setting the connection destination in the minutes server, the microphone, the first voice that is the speech of the participant at the local site input to the microphone, and the other communication terminal When the connection destination is set in the minutes server for the second voice that is the utterance of the participant at the other site that is output from the speaker and input to the microphone, Acoustic processing And when the connection destination is set in the conference server, an audio processing unit that executes audio processing for conference, and audio processing for creating the minutes or audio processing for the conference by the audio processing unit When the connection destination is set in the minutes server, the first sound and the second sound after the execution is executed are transmitted to the minutes server, and the connection destination is sent to the conference server. A transmission unit configured to transmit to the conference server when set.

以上説明したように請求項1記載の発明によれば、各拠点の通信端末が音響処理部を一つしか備えない場合であっても、議事録の作成と、参加者に聞き取りやすい音声出力と、を両立できる。   As described above, according to the first aspect of the present invention, even if the communication terminal at each site has only one acoustic processing unit, the minutes are created and the audio output is easy for the participants to hear. , Can be compatible.

本発明の通信端末としての会議端末を組み込んだ会議システムの一実施形態を示す図である。It is a figure which shows one Embodiment of the conference system incorporating the conference terminal as a communication terminal of this invention. 図1に示す会議端末の機能ブロック図である。It is a functional block diagram of the conference terminal shown in FIG. 図1に示す会議端末の外観図である。It is an external view of the conference terminal shown in FIG. 図1に示す会議端末の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the conference terminal shown in FIG. 図1に示す会議端末の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the conference terminal shown in FIG.

以下、本発明の一実施形態を、図面に基づいて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

まず、会議システムの構成について図1を参照して説明する。同図に示すように会議システム1は、会議予約サーバ11と、会議サーバ12と、議事録サーバ13と、これらサーバ11〜13とインターネットNを経由して通信する複数の会議端末141〜14n、15と、を備えている。   First, the configuration of the conference system will be described with reference to FIG. As shown in the figure, the conference system 1 includes a conference reservation server 11, a conference server 12, a minutes server 13, and a plurality of conference terminals 141 to 14n communicating with these servers 11 to 13 via the Internet N. 15.

会議予約サーバ11は、会議端末141〜14n、15と通信を行い、会議端末141〜14n、15から事前に会議情報(会議開催日時、会議参加者、役割、使用する会議端末等)が入力される。各会議端末141〜14n、15は、起動時に会議予約サーバ11に問い合わせを行い、該当する会議を見つけた場合、事前に設定した情報に基づいて会議の制御を行う。   The conference reservation server 11 communicates with the conference terminals 141 to 14n and 15, and conference information (conference date and time, conference participants, roles, conference terminals to be used, etc.) is input from the conference terminals 141 to 14n and 15 in advance. The Each of the conference terminals 141 to 14n and 15 makes an inquiry to the conference reservation server 11 at the time of activation, and when a corresponding conference is found, controls the conference based on information set in advance.

会議サーバ12は、複数の会議端末141〜14n間の音声、映像などを中継するサーバである。また、会議サーバ12は、各会議端末141〜14nが会議サーバ12と接続しているか否かの状態モニタ、会議開始時に会議サーバ12の呼び出し制御なども行う。   The conference server 12 is a server that relays audio, video, and the like between the plurality of conference terminals 141 to 14n. In addition, the conference server 12 also performs status monitoring as to whether or not each conference terminal 141 to 14n is connected to the conference server 12, and performs call control of the conference server 12 at the start of the conference.

議事録サーバ13は、音声認識エンジンなどから構成され、会議端末15から受信した音声を例えばテキスト化して議事録を作成する。   The minutes server 13 is composed of a voice recognition engine or the like, and creates minutes by, for example, converting the voice received from the conference terminal 15 into text.

複数の会議端末141〜14nは各々、各拠点の会議室に配置して、会議サーバ12と通信接続することにより、各会議室の映像や音声などを共有することができる。図1に示す例では、会議端末141〜14nを各拠点に配置して、会議サーバ12に接続させ、会議端末15を複数の会議端末141〜14nの1つである会議端末141に連結させて議事録サーバ13に接続させている。   Each of the plurality of conference terminals 141 to 14n is arranged in a conference room at each base, and can communicate with the conference server 12 to share video, audio, and the like of each conference room. In the example shown in FIG. 1, the conference terminals 141 to 14n are arranged at the respective bases, connected to the conference server 12, and the conference terminal 15 is connected to the conference terminal 141 which is one of the plurality of conference terminals 141 to 14n. The minutes server 13 is connected.

次に、会議端末141〜14n、15の構成について図2及び図3を参照して説明する。   Next, the configuration of the conference terminals 141 to 14n and 15 will be described with reference to FIGS.

本実施形態の会議端末141〜14n、15は各々、所謂インタラクティブ・ホワイトボードから構成されている。図2などに示すように会議端末141〜14n、15は、カメラ21と、タッチパネルディスプレイ22と、マイク23と、スピーカ24と、CPU25と、記憶装置26と、メモリ27と、送信部としてのLANI/F部28と、操作部29と、検出部としての連結部30と、を備えている。   Each of the conference terminals 141 to 14n and 15 of the present embodiment is configured by a so-called interactive whiteboard. As shown in FIG. 2 and the like, the conference terminals 141 to 14n and 15 include a camera 21, a touch panel display 22, a microphone 23, a speaker 24, a CPU 25, a storage device 26, a memory 27, and a LANI as a transmission unit. / F part 28, operation part 29, and connecting part 30 as a detection part are provided.

カメラ21は、周囲の映像を動画として取得し、CPU25に送信する機能を有する。カメラ21は、図3に示すように、会議端末141〜14n、15の特定の位置に固定して設置されている。このように会議端末141〜14n、15にカメラ21を設けることによって、カメラ21によって撮影した各拠点の会議参加者の映像を複数の会議端末141〜14n、15で共有することができる。なお、図3に示す例では、カメラ21は1つしか設けられていないが、2つ以上設けて、発話者位置に応じて使用するカメラ21を切り替えられるようにしてもよい。   The camera 21 has a function of acquiring surrounding video as a moving image and transmitting it to the CPU 25. As shown in FIG. 3, the camera 21 is fixedly installed at a specific position of the conference terminals 141 to 14 n and 15. By providing the cameras 21 in the conference terminals 141 to 14n and 15 as described above, the video of the conference participants at the respective locations taken by the camera 21 can be shared by the plurality of conference terminals 141 to 14n and 15. In the example shown in FIG. 3, only one camera 21 is provided, but two or more cameras 21 may be provided so that the camera 21 to be used can be switched according to the speaker position.

タッチパネルディスプレイ22は、CPU25から受信した映像を画面に表示する機能有する。タッチパネルディスプレイ22は、ユーザが指もしくはペンで触れた位置を画面に表示したり、触れた位置の座標をCPU25に送信する機能を有する。このように会議端末141〜14n、15にタッチパネルディスプレイ22を設けることにより、ユーザがペンもしくは指で筆記したデータを複数の会議端末141〜14n、15で共有することができる。なお、タッチパネルディスプレイ22としては、例えばディスプレイ一体型の静電容量方式タッチパネルが挙げられる。また、ディスプレイとしては、LCDや電子ペーパーディスプレイが挙げられる。   The touch panel display 22 has a function of displaying the video received from the CPU 25 on the screen. The touch panel display 22 has a function of displaying a position touched by a user with a finger or a pen on the screen and transmitting coordinates of the touched position to the CPU 25. By providing the touch panel display 22 on the conference terminals 141 to 14n and 15 as described above, the data written by the user with a pen or a finger can be shared by the plurality of conference terminals 141 to 14n and 15. As the touch panel display 22, for example, a display-integrated capacitive touch panel can be cited. Examples of the display include an LCD and an electronic paper display.

マイク23は、会議参加者の音声を取得し、CPU25に送信する機能を有する。マイク23は、会議端末141〜14n、15の特定の位置に固定して設置されている。本実施形態では、マイク23は、複数並べて配置されている。これにより、会議端末141〜14n、15は、複数のマイク23からの音声から発話者の方向を検出し、その方向以外からのノイズを除去する処理を行うことができる。このように会議端末141〜14n、15にマイク23を設けることにより、マイク23によって得た各拠点の会議参加者の音声を複数の会議端末141〜14nで、15共有することができる。なお、図3に示す例では、マイク23は複数設けられているが、1つだけ設けるようにしてもよい。   The microphone 23 has a function of acquiring the voice of the conference participant and transmitting it to the CPU 25. The microphone 23 is fixedly installed at a specific position of the conference terminals 141 to 14n and 15. In the present embodiment, a plurality of microphones 23 are arranged side by side. Thereby, the conference terminals 141 to 14n and 15 can detect the direction of the speaker from the voices from the plurality of microphones 23 and perform processing to remove noise from other directions. By providing the microphones 23 in the conference terminals 141 to 14n and 15 as described above, the voices of the conference participants at the respective locations obtained by the microphone 23 can be shared by the plurality of conference terminals 141 to 14n. In the example shown in FIG. 3, a plurality of microphones 23 are provided, but only one microphone 23 may be provided.

CPU25は、会議端末141〜14n、15全体の制御を司る。CPU25は、CODEC25Aと、DSP25Bと、を有している。CODEC25Aは、カメラ21、タッチパネルディスプレイ22、マイク23、から取得した映像、描画、音声をエンコードして、後述するLANI/F部28に出力する。また、CODEC25Aは、LANI/F部28から受信した映像、描画、音声をデコードして、タッチパネルディスプレイ22やスピーカ24に出力する。このCODEC25Aの一例として、VP8やVP9、H.264/AVC、H.264/SVC、H.265がある。   The CPU 25 controls the conference terminals 141 to 14n and 15 as a whole. The CPU 25 has a CODEC 25A and a DSP 25B. The CODEC 25A encodes video, drawing, and audio acquired from the camera 21, touch panel display 22, and microphone 23, and outputs them to the LAN I / F unit 28 described later. The CODEC 25A decodes the video, drawing, and audio received from the LAN I / F unit 28 and outputs them to the touch panel display 22 and the speaker 24. Examples of the CODEC 25A include VP8, VP9, H.264, and the like. H.264 / AVC, H.H. H.264 / SVC, H.H. 265.

音響処理部としてのDSP25Bは、カメラ21から取得した映像の映像処理や、マイク23から取得した音声の音響処理を実行する。   The DSP 25 </ b> B as an acoustic processing unit executes video processing of video acquired from the camera 21 and audio processing of audio acquired from the microphone 23.

スピーカ24は、CPU25から受信した音声を出力する機能を有する。   The speaker 24 has a function of outputting sound received from the CPU 25.

記憶装置26は、CPU25が行う機器制御、ビデオ会議制御等のプログラムの記憶を行う。例としてDDRメモリのような揮発性のメモリが挙げられる。   The storage device 26 stores programs such as device control and video conference control performed by the CPU 25. An example is a volatile memory such as a DDR memory.

LANI/F部28は、インターネットN等を経由して会議サーバ12と接続し、画像・音声の送受信を行う。LANI/F部28は、10Base-T、100Base-Tに対応しEthernetに接続する有線LAN、802.11a/b/g/n/acに対応した無線LANが例として挙げられる。   The LAN I / F unit 28 is connected to the conference server 12 via the Internet N or the like, and transmits and receives images and sounds. Examples of the LAN I / F unit 28 include a wired LAN connected to Ethernet corresponding to 10Base-T and 100Base-T, and a wireless LAN compatible with 802.11a / b / g / n / ac.

操作部29は、キーボードやボタン等を有し、ユーザが会議端末141〜14n、15の機器制御を行うことができる。   The operation unit 29 includes a keyboard, buttons, and the like, and the user can control the devices of the conference terminals 141 to 14n and 15.

連結部30は、コネクタなどから構成され、他の会議端末141〜14n、15と接続(連結)することができる。連結部30は、他の会議端末141〜14n、15の連結を検出し、検出結果をCPU25に出力する。   The connection part 30 is comprised from a connector etc., and can connect (connect) with the other conference terminals 141-14n, 15. The connection unit 30 detects the connection of the other conference terminals 141 to 14n and 15, and outputs the detection result to the CPU 25.

上記構成の会議端末141〜14n、15は、カメラ21、マイク23から取得した画像・音声を会議サーバ12に送信する。会議サーバ12は、受信した画像・音声を他の会議端末141〜14n、15に対して送信する。   The conference terminals 141 to 14n and 15 configured as described above transmit the images and sounds acquired from the camera 21 and the microphone 23 to the conference server 12. The conference server 12 transmits the received image / sound to the other conference terminals 141 to 14n and 15.

例えば会議端末141、142、143で会議を行った場合、会議端末141が送信したデータは会議サーバ12を介して他の会議端末142、143に送信され、参加していない会議端末144〜14n、15には送信されない。同様に会議端末142、143のデータは会議サーバ12を介して参加している会議端末141〜143にはデータが送信され、会議に参加していない会議端末144〜14n、15にはデータが送信されない。   For example, when a conference is performed at the conference terminals 141, 142, and 143, the data transmitted by the conference terminal 141 is transmitted to the other conference terminals 142 and 143 via the conference server 12, and the conference terminals 144 to 14 n that are not participating, 15 is not transmitted. Similarly, the data of the conference terminals 142 and 143 is transmitted to the conference terminals 141 to 143 participating through the conference server 12, and the data is transmitted to the conference terminals 144 to 14n and 15 not participating in the conference. Not.

上記のような制御を行うことで、複数の会議端末(多拠点)間で会議を行うことができる。   By performing the control as described above, a conference can be performed between a plurality of conference terminals (multiple locations).

次に、上述した構成の会議システムの動作について図4及び図5のフローチャートを参照して以下説明する。まず、会議端末141〜14nのCPU25(以下、単に会議端末141〜14nと略記する)は、電源がオンすると図4に示す処理を実行する。まず、会議端末141〜14nは、DSP25Bが実行する音響処理やマイク23、スピーカ24の初期化設定を行う(ステップS1)。   Next, the operation of the conference system configured as described above will be described below with reference to the flowcharts of FIGS. First, the CPU 25 of the conference terminals 141 to 14n (hereinafter simply referred to as conference terminals 141 to 14n) executes the process shown in FIG. 4 when the power is turned on. First, the conference terminals 141 to 14n perform acoustic processing executed by the DSP 25B and initialization settings of the microphone 23 and the speaker 24 (step S1).

その後、会議端末141〜14nは、連結部30が連結を検出したか否かを判定する(ステップS2)。会議端末141〜14nは、連結部30が連結を検出したと判定すると(ステップS2でY)、自身を端末1(メイン)として設定した後(ステップS3)、ステップS4に進む。一方、会議端末141〜14nは、連結部30が連結を検出していないと判定すると(ステップS2でN)、直ちにステップS4に進む。   Thereafter, the conference terminals 141 to 14n determine whether or not the connection unit 30 has detected connection (step S2). When the conference terminals 141 to 14n determine that the connection unit 30 has detected connection (Y in step S2), the conference terminals 141 to 14n set themselves as the terminal 1 (main) (step S3), and then proceed to step S4. On the other hand, when the conference terminals 141 to 14n determine that the connection unit 30 has not detected connection (N in step S2), the process immediately proceeds to step S4.

ステップS4において会議端末141〜14nは、スピーカ24を通常の音量で出力するように設定する。また、ステップS4において会議端末141〜14nは、スピーカ24から出力されてマイク23に入力された他拠点の参加者の発話である第2の音声を除去するエコーキャンセラをオンする。また、ステップS4において会議端末141〜14nは、マイク23に入力された音声から周辺ノイズを除去するノイズサプレッサーを会議用に設定する。   In step S4, the conference terminals 141 to 14n set the speaker 24 to output at a normal volume. In step S <b> 4, the conference terminals 141 to 14 n turn on the echo canceller that removes the second sound that is the speech of the participant at the other base that is output from the speaker 24 and input to the microphone 23. In step S4, the conference terminals 141 to 14n set a noise suppressor for removing ambient noise from the voice input to the microphone 23 for the conference.

その後、ユーザが操作部29を操作して会議を開始すると(ステップS5でY)、会議端末141〜14nは会議サーバ12に接続する(ステップS6)。これにより、会議端末141〜14nは、マイク23により入力された音声にステップS4で設定された音声処理を施した後、会議サーバ12に送信する。また、会議端末141〜14nは、会議サーバ12を介して他の会議端末141〜14nで取得した画像、音声を受信し、タッチパネルディスプレイ22やスピーカ24に出力する。   Thereafter, when the user operates the operation unit 29 to start the conference (Y in step S5), the conference terminals 141 to 14n connect to the conference server 12 (step S6). Accordingly, the conference terminals 141 to 14n perform the audio processing set in step S4 on the audio input by the microphone 23 and then transmit the audio to the conference server 12. In addition, the conference terminals 141 to 14 n receive the images and sounds acquired by the other conference terminals 141 to 14 n via the conference server 12 and output them to the touch panel display 22 and the speaker 24.

ステップS4ではエコーキャンセラをオンにしている。このため、ステップS6において会議端末141〜14nは、マイク23に入力された音声にエコーキャンセラを実行する。結果、会議端末141〜14nは、スピーカ24から出力されてマイク23に入力された他拠点の参加者の発話である第2の音声を除去し、自拠点の参加者からマイク23に直接入力された発話である第1の音声のみが会議サーバ12に送信される。   In step S4, the echo canceller is turned on. For this reason, in step S <b> 6, the conference terminals 141 to 14 n execute an echo canceller on the voice input to the microphone 23. As a result, the conference terminals 141 to 14n remove the second voice that is the speech of the participant at the other site that is output from the speaker 24 and input to the microphone 23, and is directly input to the microphone 23 from the participant at the local site. Only the first voice that is the utterance is transmitted to the conference server 12.

ステップS4ではノイズサプレッサーも会議用に強めに設定されている。このため、ステップS6において会議端末141〜14nは、スピーカ24から出力されてマイク23に入力された他拠点の参加者の発話をノイズとして除去するため、一層、第2の音声の除去効果を高めることができる。そして、他の会議端末141〜14nは、エコーキャンセラや高い効果のノイズサプレッサが実行された音声を受信してスピーカ24から出力するため、他拠点の参加者の発話が聴き取りやすくなる。   In step S4, the noise suppressor is also set stronger for the conference. For this reason, in step S6, the conference terminals 141 to 14n remove the utterances of the participants at the other bases that are output from the speaker 24 and input to the microphone 23 as noise, thereby further enhancing the second voice removal effect. be able to. And since the other conference terminals 141-14n receive the audio | voice with which the echo canceller and the highly effective noise suppressor were performed, and output from the speaker 24, it becomes easy to hear the speech of the participant of another base.

その後、会議が終了すると(ステップS7でY)、会議端末141〜14nは、連結部30が連結解除を検出したか否かを判定する(ステップS8)。   Thereafter, when the conference is ended (Y in step S7), the conference terminals 141 to 14n determine whether or not the connection unit 30 has detected disconnection (step S8).

連結部30が連結解除を検出したと判定すると(ステップS8でY)、会議端末141〜14nは、ステップS1に戻る。一方、連結部30が連結解除を検出していないと判定すると(ステップS8でN)、会議端末141〜14nは、ステップS4に戻る。   If it determines with the connection part 30 having detected the connection cancellation | release (it is Y at step S8), the conference terminals 141-14n will return to step S1. On the other hand, if it determines with the connection part 30 not detecting the connection cancellation | release (N by step S8), the conference terminals 141-14n will return to step S4.

一方、会議端末15のCPU25(以下、単に会議端末と略記する)は、電源がオンすると図5に示す処理を実行する。まず、会議端末15は、DSP25Bが実行する音響処理やマイク23、スピーカ24の初期化設定を行う(ステップS10)。   On the other hand, the CPU 25 of the conference terminal 15 (hereinafter simply referred to as a conference terminal) executes the process shown in FIG. 5 when the power is turned on. First, the conference terminal 15 performs acoustic processing executed by the DSP 25B and initialization settings for the microphone 23 and the speaker 24 (step S10).

その後、会議端末15は、連結部30が連結を検出したか否かを判定する(ステップS11)。会議端末15は、連結部30が連結を検出したと判定すると(ステップS11でY)、自身を端末2(サブ)として設定した後(ステップS12)、ステップS13に進む。   Thereafter, the conference terminal 15 determines whether or not the connection unit 30 has detected connection (step S11). When the conference terminal 15 determines that the connection unit 30 has detected connection (Y in step S11), the conference terminal 15 sets itself as the terminal 2 (sub) (step S12), and then proceeds to step S13.

ステップS13において会議端末15は、スピーカ24から音声が出力されないようにミュートに設定する。ステップS13において会議端末15は、上記エコーキャンセラをオフする。また、ステップS13において会議端末15は、マイク23に入力された音声から周辺ノイズを除去するノイズサプレッサーを議事録作成用に設定する。   In step S <b> 13, the conference terminal 15 sets mute so that no sound is output from the speaker 24. In step S13, the conference terminal 15 turns off the echo canceller. In step S <b> 13, the conference terminal 15 sets a noise suppressor for removing the ambient noise from the voice input to the microphone 23 for creating the minutes.

その後、ユーザが操作部29を操作して会議を開始すると(ステップS14でY)、会議端末15は、接続設定部として機能し、議事録サーバ13に接続する(ステップS15)。これにより、会議端末15は、マイク23により入力された音声にステップS13で設定された音声処理を施した後、議事録サーバ13に送信する。   Thereafter, when the user starts the conference by operating the operation unit 29 (Y in step S14), the conference terminal 15 functions as a connection setting unit and connects to the minutes server 13 (step S15). Thereby, the conference terminal 15 performs the audio processing set in step S <b> 13 on the audio input by the microphone 23, and then transmits it to the minutes server 13.

ステップ13ではエコーキャンセラをオフしている。このため、ステップS15において会議端末15は、マイク23に入力された音声にエコーキャンセラを実行しない。結果、会議端末15は、連結された会議端末141のスピーカ24から出力されてマイク23に入力された他拠点の参加者の発話である第2の音声が除去されず、自拠点の参加者からマイク23に直接入力された発話である第1の音声と第2の音声とが議事録サーバ13に送信される。   In step 13, the echo canceller is turned off. For this reason, the conference terminal 15 does not execute an echo canceller on the voice input to the microphone 23 in step S15. As a result, the conference terminal 15 does not remove the second voice, which is the utterance of the participant at the other site that is output from the speaker 24 of the connected conference terminal 141 and is input to the microphone 23, and the The first voice and the second voice, which are utterances directly input to the microphone 23, are transmitted to the minutes server 13.

ステップS13ではノイズサプレッサーも議事録作成用に弱めに設定されている。このため、ステップS15において会議端末15は、スピーカ24から出力されてマイク23に入力された他拠点の参加者の発話がノイズとして除去されることがない。これにより、一つの会議端末15から、複数の会議端末141〜14nにより取得した音声が議事録サーバ13に出力される。   In step S13, the noise suppressor is also set to be weak for creating minutes. For this reason, in step S15, the conference terminal 15 does not remove the utterances of the participants at the other bases output from the speaker 24 and input to the microphone 23 as noise. Thereby, the voice acquired by the plurality of conference terminals 141 to 14n is output to the minutes server 13 from one conference terminal 15.

その後、会議が終了すると(ステップS16でY)、会議端末15は、連結部30が連結解除を検出したか否かを判定する(ステップS17)。   Thereafter, when the conference ends (Y in step S16), the conference terminal 15 determines whether or not the connection unit 30 has detected release of the connection (step S17).

連結部30が連結解除を検出したと判定すると(ステップS17でY)、会議端末15は、ステップS1に戻る。一方、連結部30が連結解除を検出していないと判定すると(ステップS17でN)、会議端末15は、ステップS13に戻り、音響処理の設定を保持する。   If it determines with the connection part 30 having detected connection cancellation | release (it is Y at step S17), the conference terminal 15 will return to step S1. On the other hand, if it determines with the connection part 30 not detecting the connection cancellation | release (N in step S17), the conference terminal 15 will return to step S13 and hold | maintain the setting of an acoustic process.

これに対して、会議端末15は、連結部30が連結を検出していないと判定すると(ステップS11でN)、ステップS18に進む。ステップS18では、会議端末15は、図4に示すステップS4と同様に、スピーカ24を通常音量にし、エコーキャンセラをオンし、ノイズサプレッサーを会議用に設定する。   In contrast, if the conference terminal 15 determines that the connection unit 30 has not detected connection (N in step S11), the process proceeds to step S18. In step S18, as in step S4 shown in FIG. 4, the conference terminal 15 sets the speaker 24 to the normal volume, turns on the echo canceller, and sets the noise suppressor for the conference.

その後、会議が開始すると(ステップS19でY)、会議端末15は会議サーバ12に接続する(ステップS20)。これにより、会議端末15は、他の会議端末141〜14nと連結していないときは、他の会議端末141〜14nと同様に画像やマイク23により入力された自拠点の発話者の第1の音声のみを会議サーバ12に送信する。   Thereafter, when the conference starts (Y in step S19), the conference terminal 15 connects to the conference server 12 (step S20). As a result, when the conference terminal 15 is not connected to the other conference terminals 141 to 14n, the first of the speaker at the local site input by the image or the microphone 23 is input in the same manner as the other conference terminals 141 to 14n. Only audio is transmitted to the conference server 12.

その後、会議が終了すると(ステップS21でY)、会議端末15は、連結部30が連結解除を検出したか否かを判定する(ステップS22)。   Thereafter, when the conference ends (Y in step S21), the conference terminal 15 determines whether or not the connection unit 30 has detected the release of the connection (step S22).

連結部30が連結解除を検出したと判定すると(ステップS22でY)、会議端末15は、ステップS1に戻る。一方、連結部30が連結解除を検出していないと判定すると(ステップS22でN)、会議端末15はステップS18に戻り音響処理の設定を保持する。   If it determines with the connection part 30 having detected the connection cancellation | release (it is Y at step S22), the conference terminal 15 will return to step S1. On the other hand, if it determines with the connection part 30 not detecting the connection cancellation | release (N in step S22), the conference terminal 15 will return to step S18 and will hold | maintain the setting of an acoustic process.

上述した実施形態によれば、会議端末15は、マイク23に入力された自拠点の参加者の発話である第1の音声と、連結された他の会議端末141が備えたスピーカ24から出力されてマイク23に入力された他拠点の参加者の発話である第2の音声と、に対して議事録作成用の音響処理を実行する。そして、会議端末15は、議事録作成用の音響処理が実行された後の第1の音声と第2の音声とを議事録サーバ13に送信する。これにより、各拠点に配置された会議端末141〜14nは、その拠点にいる発話者の音声を議事録サーバ13に送信する必要がなく、議事録作成用の音響処理を実行する必要がない。よって、各拠点の会議端末141〜14nの一つに当該会議端末15を連結するだけで、各拠点の会議端末141〜14nがDSP25Bを一つしか備えない場合であっても、議事録の作成と、参加者に聞き取りやすい音声出力と、を両立できる。   According to the above-described embodiment, the conference terminal 15 is output from the first voice that is the speech of the participant at the local site input to the microphone 23 and the speaker 24 included in the other conference terminal 141 connected. The acoustic processing for creating the minutes is executed on the second voice that is the utterance of the participant at the other base input to the microphone 23. Then, the conference terminal 15 transmits the first voice and the second voice after the acoustic processing for creating the minutes is executed to the minutes server 13. Thereby, the conference terminals 141 to 14n arranged at each site do not need to transmit the voice of the speaker at the site to the minutes server 13, and do not need to execute the acoustic processing for creating the minutes. Therefore, even if the conference terminal 15 is connected to one of the conference terminals 141 to 14n at each site and the conference terminals 141 to 14n at each site have only one DSP 25B, the minutes are created. And audio output that is easy to hear for participants.

また、上述した実施形態によれば、会議端末15は、連結が検出されていない場合、接続先を会議サーバ12に設定し、連結が検出された場合、接続先を議事録サーバ13に設定している。また、会議端末15は、送信先が議事録サーバ13に設定されている場合、議事録作成用の音響処理を実行し、送信先が会議サーバ12に設定されている場合、会議用の音響処理を実行する。これにより、会議端末15は、他の会議端末141〜14nと連結していないときは、他の会議端末141〜14nと同様に画像やマイク23により入力された自拠点の発話者の第1の音声のみを会議サーバ12に送信する。   Further, according to the above-described embodiment, the conference terminal 15 sets the connection destination to the conference server 12 when the connection is not detected, and sets the connection destination to the minutes server 13 when the connection is detected. ing. Further, the conference terminal 15 executes acoustic processing for creating minutes when the transmission destination is set in the minutes server 13, and performs audio processing for conference when the transmission destination is set in the conference server 12. Execute. As a result, when the conference terminal 15 is not connected to the other conference terminals 141 to 14n, the first of the speaker at the local site input by the image or the microphone 23 is input in the same manner as the other conference terminals 141 to 14n. Only audio is transmitted to the conference server 12.

また、上述した実施形態によれば、会議用の音響処理は、マイク23に入力された音声から第2の音声を除去するエコーキャンセラを含み、議事録作成用の音響処理は、エコーキャンセラを含まない。これにより、より精度よく、議事録の作成と、参加者に聞き取りやすい音声出力と、を両立できる。   Further, according to the above-described embodiment, the conference acoustic processing includes the echo canceller that removes the second speech from the speech input to the microphone 23, and the minutes creation acoustic processing includes the echo canceller. Absent. Thereby, it is possible to achieve both the creation of the minutes and the sound output that is easy for the participant to hear, with higher accuracy.

また、上述した実施形態によれば、会議用の音響処理及び議事録作成用の音響処理は、周辺ノイズを除去するノイズサプレッサーを含み、議事録作成用のノイズサプレッサーと、会議用のノイズサプレッサーと、は除去効果が異なるように設定されている。これにより、より精度よく、議事録の作成と、参加者に聞き取りやすい音声出力と、を両立できる。   Further, according to the above-described embodiment, the audio processing for conference and the audio processing for creating minutes include a noise suppressor that removes ambient noise, and a noise suppressor for creating minutes, a noise suppressor for conference, and Are set to have different removal effects. Thereby, it is possible to achieve both the creation of the minutes and the sound output that is easy for the participant to hear, with higher accuracy.

なお、上述した実施形態によれば、会議端末15は、議事録作成用の音響処理と会議用の音響処理との間で切り替えることできるようにしていたが、これに限ったものではない。会議端末15としては、議事録作成用の音響処理のみが行えるようなものであってもよい。   According to the above-described embodiment, the conference terminal 15 can be switched between the acoustic processing for creating minutes and the acoustic processing for conference. However, the present invention is not limited to this. The conference terminal 15 may be one that can only perform acoustic processing for creating minutes.

また、上述した実施形態によれば、会議端末141〜14nは、会議用の音響処理のみ行っていたが、これに限ったものではない。会議端末141〜14nは、会議端末15と同様に、議事録作成用の音響処理と会議用の音響処理との間で切り替えることできるようにして、これら会議端末141〜14nがどれでも議事録サーバ13と接続する端末にできるようにしてもよい。   Moreover, according to embodiment mentioned above, although the conference terminals 141-14n performed only the acoustic process for meetings, it is not restricted to this. Similarly to the conference terminal 15, the conference terminals 141 to 14n can be switched between the acoustic processing for creating the minutes and the acoustic processing for the conference, and any of these conference terminals 141 to 14n can be switched to the minutes server. 13 may be a terminal that can be connected to the terminal 13.

なお、本発明は上記実施形態に限定されるものではない。即ち、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。   The present invention is not limited to the above embodiment. That is, various modifications can be made without departing from the scope of the present invention.

12 会議サーバ
13 議事録サーバ
15 会議端末(通信端末)
23 マイク
24 スピーカ
25 CPU(接続設定部)
25B DSP(音響処理部)
28 送信部
30 連結部(検出部)
141 会議端末(同じ拠点に配置された他の通信端末)
142〜14n 会議端末(他拠点に配置された通信端末)
12 Conference server 13 Minutes server 15 Conference terminal (communication terminal)
23 Microphone 24 Speaker 25 CPU (Connection Setting Unit)
25B DSP (Sound Processing Unit)
28 Transmitting section 30 Connecting section (detecting section)
141 Conference terminal (other communication terminals located at the same location)
142-14n Conference terminal (communication terminal located at another base)

特開2013−183182号公報JP2013-183182A

Claims (4)

複数の通信端末間の少なくとも音声を中継する会議サーバと、前記音声を用いて議事録を作成する議事録サーバと接続可能な通信端末において、
他の通信端末との連結を検出する検出部と、
前記検出部によって前記連結が検出されていない場合、接続先を前記会議サーバに設定し、前記検出部によって前記連結が検出された場合、接続先を前記議事録サーバに設定する接続先設定部と、
マイクと、
前記マイクに入力された自拠点の参加者の発話である第1の音声と、前記他の通信端末が備えるスピーカから出力されて前記マイクに入力された他拠点の参加者の発話である第2の音声と、に対して、前記接続先が前記議事録サーバに設定されている場合、議事録作成用の音響処理を実行し、前記接続先が前記会議サーバに設定されている場合、会議用の音響処理を実行する音響処理部と、
前記音響処理部によって前記議事録作成用の音響処理もしくは前記会議用の音響処理が実行された後の前記第1の音声と前記第2の音声とを前記接続先が前記議事録サーバに設定されている場合、前記議事録サーバに送信し、前記接続先が前記会議サーバに設定されている場合、前記会議サーバに送信する送信部と、を備えることを特徴とする通信端末。
In a communication terminal that can be connected to a conference server that relays at least audio between a plurality of communication terminals and a minutes server that creates the minutes using the audio,
A detection unit for detecting connection with another communication terminal;
A connection destination setting unit that sets a connection destination to the conference server when the connection is not detected by the detection unit, and sets a connection destination to the minutes server when the connection is detected by the detection unit; ,
With a microphone,
The first speech that is the speech of the participant at the local site input to the microphone and the second speech that is the speech of the participant at the other site that is output from the speaker included in the other communication terminal and input to the microphone. If the connection destination is set in the minutes server, the sound processing for creating the minutes is executed, and if the connection destination is set in the conference server, An acoustic processing unit for performing the acoustic processing of
The connection destination is set in the minutes server for the first sound and the second sound after the sound processing unit performs the sound processing for creating the minutes or the sound processing for the meeting. And a transmission unit that transmits to the meeting server, and transmits to the conference server when the connection destination is set to the conference server.
前記会議用の音響処理は、前記マイクに入力された音声から前記第2の音声を除去するエコーキャンセラを含み、
前記議事録作成用の音響処理は、前記エコーキャンセラを含まないことを特徴とする請求項1に記載の通信端末。
The audio processing for the conference includes an echo canceller that removes the second audio from the audio input to the microphone,
The communication terminal according to claim 1, wherein the acoustic processing for creating the minutes does not include the echo canceller.
前記会議用の音響処理及び前記議事録作成用の音響処理は、周辺ノイズを除去するイズサプレッサーを含み、
前記議事録作成用のノイズサプレッサーと、前記会議用のノイズサプレッサーと、は除去効果が異なるように設定されていることを特徴とする請求項1又は2に記載の通信端末。
The audio processing for the conference and the audio processing for creating the minutes include a noise suppressor that removes ambient noise,
The communication terminal according to claim 1, wherein the noise suppressor for creating the minutes and the noise suppressor for the conference are set so as to have different removal effects.
前記会議サーバと、
前記議事録サーバと、
前記議事録サーバに接続する請求項1に記載の通信端末と、
前記会議サーバに接続する前記通信端末と同じ拠点に配置された他の通信端末と、
前記会議サーバを介して前記他の通信端末と音声を送受信する他拠点に配置された通信端末と、を備えたことを特徴とする会議システム。
The conference server;
The minutes server;
The communication terminal according to claim 1, which is connected to the minutes server;
Other communication terminals arranged at the same base as the communication terminal connected to the conference server,
A conference system comprising: a communication terminal disposed at another site that transmits and receives audio to and from the other communication terminal via the conference server.
JP2018064176A 2018-03-29 2018-03-29 Communication terminal and conference system Active JP7095356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018064176A JP7095356B2 (en) 2018-03-29 2018-03-29 Communication terminal and conference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018064176A JP7095356B2 (en) 2018-03-29 2018-03-29 Communication terminal and conference system

Publications (2)

Publication Number Publication Date
JP2019176386A true JP2019176386A (en) 2019-10-10
JP7095356B2 JP7095356B2 (en) 2022-07-05

Family

ID=68167489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018064176A Active JP7095356B2 (en) 2018-03-29 2018-03-29 Communication terminal and conference system

Country Status (1)

Country Link
JP (1) JP7095356B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235172A1 (en) 2020-05-19 2021-11-25 oVice株式会社 Information processing system, information processing device, and program
JP7444384B1 (en) 2023-11-27 2024-03-06 株式会社ナレッジワーク Sales support system, sales support method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004173180A (en) * 2002-11-22 2004-06-17 Ricoh Co Ltd Electronic conference system, electronic data distribution server, and information reading and writing instrument
JP2007060460A (en) * 2005-08-26 2007-03-08 Yamaha Corp Teleconference system
JP2009171119A (en) * 2008-01-15 2009-07-30 Mizuho Information & Research Institute Inc Remote conference management system, remote conference management method, and remote conference management program
JP2011199327A (en) * 2010-03-17 2011-10-06 Brother Industries Ltd Communication equipment and method for selecting voice receiver for recording
JP2016029468A (en) * 2014-07-16 2016-03-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Speech information control method and terminal apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004173180A (en) * 2002-11-22 2004-06-17 Ricoh Co Ltd Electronic conference system, electronic data distribution server, and information reading and writing instrument
JP2007060460A (en) * 2005-08-26 2007-03-08 Yamaha Corp Teleconference system
JP2009171119A (en) * 2008-01-15 2009-07-30 Mizuho Information & Research Institute Inc Remote conference management system, remote conference management method, and remote conference management program
JP2011199327A (en) * 2010-03-17 2011-10-06 Brother Industries Ltd Communication equipment and method for selecting voice receiver for recording
JP2016029468A (en) * 2014-07-16 2016-03-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Speech information control method and terminal apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235172A1 (en) 2020-05-19 2021-11-25 oVice株式会社 Information processing system, information processing device, and program
KR20230015870A (en) 2020-05-19 2023-01-31 오비스 가부시키가이샤 Information processing systems, information processing devices and programs
US11871152B2 (en) 2020-05-19 2024-01-09 Ovice, Inc. Information processing system, information processing apparatus, and program
JP7444384B1 (en) 2023-11-27 2024-03-06 株式会社ナレッジワーク Sales support system, sales support method and program

Also Published As

Publication number Publication date
JP7095356B2 (en) 2022-07-05

Similar Documents

Publication Publication Date Title
JP6179834B1 (en) Video conferencing equipment
US11782674B2 (en) Centrally controlling communication at a venue
JP7095356B2 (en) Communication terminal and conference system
JP2006254064A (en) Remote conference system, sound image position allocating method, and sound quality setting method
JP6149433B2 (en) Video conference device, video conference device control method, and program
JP2017034312A (en) Communication device, communication system, and program
WO2015139610A1 (en) Video conferencing method, device and system
JP2009246528A (en) Voice communication system with image, voice communication method with image, and program
JP2009253625A (en) Apparatus, method and program for information collection-video conference implementation control and video conference system
JP2001268078A (en) Communication controller, its method, providing medium and communication equipment
JP7361460B2 (en) Communication devices, communication programs, and communication methods
US9503812B2 (en) Systems and methods for split echo cancellation
JP6668828B2 (en) Conference system
JP2006339869A (en) Apparatus for integrating video signal and voice signal
JP2006304151A (en) Electronic conference setting program, electronic conference terminal, and electronic conference setting method
JP6500366B2 (en) Management device, terminal device, transmission system, transmission method and program
JP2022016997A (en) Information processing method, information processing device, and information processing program
JP2017163466A (en) Information processor and conference system
JP2017168903A (en) Information processing apparatus, conference system, and method for controlling information processing apparatus
JP2016019165A (en) Conference system and information processing apparatus
JPH06175942A (en) Multimedia electronic conference device
WO2024004006A1 (en) Chat terminal, chat system, and method for controlling chat system
TWI419563B (en) Multimedia transferring system and method thereof
JP7035686B2 (en) Remote calling devices, remote calling programs, and remote calling methods
JP6473203B1 (en) Server apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R151 Written notification of patent or utility model registration

Ref document number: 7095356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151