JP7471979B2 - Meeting Support System - Google Patents
Meeting Support System Download PDFInfo
- Publication number
- JP7471979B2 JP7471979B2 JP2020164423A JP2020164423A JP7471979B2 JP 7471979 B2 JP7471979 B2 JP 7471979B2 JP 2020164423 A JP2020164423 A JP 2020164423A JP 2020164423 A JP2020164423 A JP 2020164423A JP 7471979 B2 JP7471979 B2 JP 7471979B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- text
- terminal
- display device
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 description 73
- 230000008859 change Effects 0.000 description 28
- 238000004891 communication Methods 0.000 description 26
- 238000000034 method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000004807 localization Effects 0.000 description 8
- 208000032041 Hearing impaired Diseases 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、会議支援システム、会議支援方法およびプログラムに関する。 The present invention relates to a conference support system, a conference support method, and a program.
健聴者と聴覚障がい者とが一緒に会議に参加する会議において、各発表者の発話内容と聴覚障がい者が端末を操作して入力したテキスト化して、テキストを表示装置と各利用者が所有する端末に表示することが提案されている(例えば特許文献1参照)。特許文献1に記載の技術では、聴覚障がい者がテキストによって会話に参加した場合に、他の会議参加者の発話を待機させるように親機を制御し、発言を待機させる情報を聴覚障がい者が使用する子機に送信するようにしている。
In a conference where hearing people and hearing-impaired people participate together, it has been proposed to convert the speech of each presenter and the speech input by the hearing-impaired person into text by operating a terminal, and to display the text on a display device and on the terminal owned by each user (see, for example, Patent Document 1). In the technology described in
しかしながら、従来技術では、健聴者が発表者として聴衆の方を向いて発言しているときには、表示装置の画面を確認することなく話してしまうことがあった。 However, with conventional technology, when a hearing person is presenting and facing the audience, they may speak without checking the display screen.
本発明は、上記の問題点に鑑みてなされたものであって、発表者および聴衆に対して分かりやすくテキスト入力が行われていることを気づかせることができる会議支援システム、会議支援方法およびプログラムを提供することを目的とする。 The present invention has been made in consideration of the above problems, and aims to provide a meeting support system, meeting support method, and program that can clearly make the presenter and the audience aware that text input is taking place.
(1)上記目的を達成するため、本発明の一態様に係る会議支援システムは、テキスト入力部を備えた端末と、画像を表示する表示装置と、前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声信号をテキスト化した情報を前記表示装置に表示させる会議支援装置と、を備え、前記会議支援装置は、前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を所定時間変更する。 (1) In order to achieve the above object, a conference support system according to one aspect of the present invention includes a terminal having a text input unit, a display device that displays images, and a conference support device that is connected to the terminal and causes the display device to display text information input from the terminal and information that is a text version of an audio signal input from an audio pickup unit, and when text input is started by the terminal, the conference support device changes the overall display of the display device for a predetermined period of time.
(2)また、本発明の一態様に係る会議支援システムにおいて、前記会議支援装置は、前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示の輝度を変更する、表示色を変更する、彩度を変更する、およびコントラストを変更するうちのすくなくとも1つによって、前記表示装置の全体の表示を所定時間変更する、ようにしてもよい。 (2) In addition, in a conference support system according to one aspect of the present invention, when text input is started by the terminal, the conference support device may change the overall display of the display device for a predetermined period of time by at least one of changing the brightness of the overall display of the display device, changing the display color, changing the saturation, and changing the contrast.
(3)また、本発明の一態様に係る会議支援システムにおいて、前記会議支援装置は、前記音声信号に対して発話区間を検出し、前記表示装置の全体の表示を所定時間変更した後も発話が継続している場合、再度、前記表示装置の全体の表示を、所定時間変更する、ようにしてもよい。 (3) In addition, in a conference support system according to one aspect of the present invention, the conference support device may detect a speech section in the audio signal, and if speech continues after changing the overall display of the display device for a predetermined period of time, change the overall display of the display device again for a predetermined period of time.
(4)上記目的を達成するため、本発明の一態様に係る会議支援方法は、テキスト入力部を備えた端末と、画像を表示する表示装置と、前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声をテキスト化した情報を前記表示装置に表示させる会議支援装置と、を有する会議支援システムにおける会議支援方法であって、前記会議支援装置が、前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を所定時間変更する。 (4) In order to achieve the above object, a conference support method according to one aspect of the present invention is a conference support method in a conference support system having a terminal equipped with a text input unit, a display device that displays images, and a conference support device that is connected to the terminal and causes the display device to display text information input from the terminal and information that has been converted from audio input from an audio pickup unit into text, and when text input is started by the terminal, the conference support device changes the overall display of the display device for a predetermined period of time.
(5)上記目的を達成するため、本発明の一態様に係るプログラムは、テキスト入力部を備えた端末と、画像を表示する表示装置と、前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声をテキスト化した情報を前記表示装置に表示させる会議支援装置と、を有する会議支援システムにおける会議支援装置のコンピュータに、前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を所定時間変更させる。 (5) In order to achieve the above object, a program according to one aspect of the present invention is a conference support system having a terminal equipped with a text input unit, a display device that displays images, and a conference support device that is connected to the terminal and causes the display device to display text information input from the terminal and information that has been converted from audio input from an audio pickup unit into text. The program causes a computer of the conference support device in the conference support system to change the overall display of the display device for a predetermined period of time when text input is started by the terminal.
(1)~(5)によれば、発表者および聴衆に対して分かりやすくテキスト入力が行われていることを気づかせることができる。 By using (1) to (5), the presenter and the audience can be made aware that text is being entered in an easy-to-understand manner.
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。 The following describes an embodiment of the present invention with reference to the drawings. Note that in the drawings used in the following description, the scale of each component has been appropriately altered so that each component is of a recognizable size.
[会議支援システムの概要、本実施形態の概要]
まず、会議支援システムの概要、本実施形態の概要を説明する。
図1は、本実施形態に係る発話が不自由な人が端末に入力を行っていない場合を示す図である。
本実施形態の会議支援システムは、例えば2人以上が参加して行われる会議で用いられる。参加者US1~US3のうち、発話が不自由な人(例えば聴覚障がい者)US2が会議に参加していてもよい。なお、参加者は、全員が同じ会議室にいなくてもよく、例えばネットワークNWを介して、別の会議室や自宅等から参加してもよい。
[Overview of the conference support system, overview of this embodiment]
First, an overview of the conference support system and the present embodiment will be described.
FIG. 1 is a diagram showing a case in which a person with a speech disability according to the present embodiment is not making any input to a terminal.
The conference support system of this embodiment is used in a conference with, for example, two or more participants. Among the participants US1 to US3, a person with a speech impediment (e.g., a person with a hearing impairment) US2 may also participate in the conference. Note that the participants do not all need to be in the same conference room, and may participate from another conference room or from home, for example, via a network NW.
発話可能な参加者US1、US3は、参加者毎に収音部11を装着する。また、発話が不自由な人US2は、端末(スマートフォン、タブレット端末、パーソナルコンピュータ等)20を所持している。会議支援装置30は、参加者の発話した音声信号に対して音声認識を行いテキスト化して、第1表示装置60(表示装置)と端末20にテキストを表示させる。また、第2表示装置70には、説明用の資料を表示させるPC(パーソナルコンピュータ等)80が接続されている。参加者US2は、例えばテーブルTbに置いて端末2を利用する。
Each of the participants US1 and US3 who are able to speak wears a
図2は、本実施形態に係る発話が不自由な人が端末に入力を行った場合を示す図である。
図2のように、発話が不自由な人US2が、端末20を使ってテキスト入力を開始すると、第1表示装置60の画面の輝度または色が第1所定時間(所定時間)変化する。
これにより、本実施形態よれば、発話している参加者US1に、端末20によって入力が行われていることを気づかせることができる。参加者US1は、例えば、現在発話しているフレーズの発話が完了した時点で、端末20によって入力が終了するまで発話を中断する。これにより、本実施形態によれば、端末20による入力を待機することができる。
FIG. 2 is a diagram showing a case in which a person with a speech disability inputs information into a terminal according to this embodiment.
As shown in FIG. 2, when the speech-impaired person US2 starts inputting text using the
As a result, according to this embodiment, it is possible to make the participant US1 who is speaking aware that input is being made by the
[会議支援システムの構成例]
次に、会議支援システムの構成例を説明する。
図3は、本実施形態に係る会議支援システム1の構成例を示すブロック図である。図3に示すように、会議支援システム1は、収音装置10、端末20、会議支援装置30、音響モデル・辞書DB40、議事録・音声ログ記憶部50、第1表示装置60、第2表示装置70、およびPC80を備える。また、端末20は、端末20-1、端末20-2、・・・を備える。以下、端末20-1、端末20-2のうち1つを特定しない場合は、「端末20」という。
[Example of a conference support system configuration]
Next, an example of the configuration of a conference support system will be described.
Fig. 3 is a block diagram showing an example of the configuration of a
収音装置10は、収音部11-1、収音部11-2、収音部11-3、・・・を備える。以下、収音部11-1、収音部11-2、収音部11-3、・・・のうち1つを特定しない場合は、「収音部11」という。
The
端末20は、入力部201、処理部202、表示部203、および通信部204を備える。
The
会議支援装置30は、取得部301、音声認識部302、テキスト変換部303(音声認識部)、係り受け解析部304、議事録作成部306、通信部307、認証部308、操作部309、および処理部310を備える。
The
収音装置10と会議支援装置30とは、有線または無線によって接続されている。端末20と会議支援装置30とは、有線または無線のネットワークNWによって接続されている。
The
[収音装置]
収音装置10は、利用者が発話した音声信号を収音し、収音した音声信号を会議支援装置30に出力する。なお、収音装置10は、1つのマイクロフォンアレイであってもよい。この場合、収音装置10は、それぞれ異なる位置に配置されたP個のマイクロフォンを有する。そして、収音装置10は、収音した音からPチャネル(Pは、2以上の整数)の音声信号を生成し、生成したPチャネルの音声信号を会議支援装置30に出力する。
[Sound recording device]
The
収音部11は、マイクロフォンである。収音部11は、利用者の音声信号を収音し、収音した音声信号をアナログ信号からデジタル信号に変換して、デジタル信号に変換した音声信号を会議支援装置30に出力する。なお、収音部11は、アナログ信号の音声信号を会議支援装置30に出力するようにしてもよい。
The
[端末]
端末20は、例えばスマートフォン、タブレット端末、パーソナルコンピュータ等である。端末20は、音声出力部、モーションセンサー、GPS(Global Positioning System;全地球測位システム)等を備えていてもよい。
[Device]
The
入力部201は、例えば表示部203上に設けられたタッチパネル式のセンサー(含むタッチパネル用のペンシル)、またはキーボードである。入力部201は、利用者が入力した入力を検出し、検出した結果を処理部202に出力する。なお、端末20の利用者は、テキストを、例えばタッチパネル用のペンシル等で手書きで入力するか、表示部203に表示されるソフトウェアキーボードを操作して入力するか、機械式のキーボードを操作して入力する。
The
処理部202は、入力部201が出力した結果に基づいて、テキスト入力が開始されたことを検出し、テキストが入力開始されたことを示すテキスト入力開始情報を生成し、生成したテキスト入力開始情報を通信部204に出力する。処理部202は、テキストが入力開始されたことを、例えば、文字が例えば1文字手書きされたことを検出したとき、またはキーボードで文字が一文字入力されたときに検出するようにしてもよい。なお、処理部202は、手書きでテキスト入力された場合、手書き文字を周知の手法で認識してテキスト化する。
処理部202は、入力部201が出力した出力した結果に応じて送信情報を生成し、生成した送信情報を通信部204に出力する。送信情報には、入力されたテキスト情報と端末20を識別するための識別情報が含まれている。
処理部202は、通信部204が出力するテキスト情報を取得し、取得したテキスト情報を画像データに変換し、変換した画像データを表示部203に出力する。なお、表示部203上に表示される画像については、図4を用いて後述する。
The
The
表示部203は、処理部202が出力した画像データを表示する。表示部203は、例えば、液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等である。
The
通信部204は、テキスト情報または議事録の情報を会議支援装置30から受信し、受信した受信情報を処理部202に出力する。通信部204は、処理部202が出力したテキスト入力開始情報、送信情報を会議支援装置30に送信する。
The
[音響モデル・辞書DB、議事録・音声ログ記憶部]
音響モデル・辞書DB40には、例えば音響モデル、言語モデル、単語辞書等が格納されている。音響モデルとは、音の特徴量に基づくモデルであり、言語モデルとは、単語とその並び方の情報のモデルである。また、単語辞書とは、多数の語彙による辞書であり、例えば大語彙単語辞書である。なお、会議支援装置30は、音声認識辞書13に格納されていない単語等を、音響モデル・辞書DB40に格納して更新するようにしてもよい。
[Acoustic model/dictionary DB, minutes/speech log storage unit]
The acoustic model/
議事録・音声ログ記憶部50は、議事録(含む音声信号)を記憶する。
The minutes/audio
第1表示装置60は、会議支援装置30が出力した画像データを表示する。第1表示装置60は、例えば液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等である。なお、第1表示装置60は、会議支援装置30が備えていてもよい。
The
第2表示装置70は、PC80が出力する画像データを表示する。第2表示装置70は、例えば液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等である。なお、第2表示装置70は、PC80が備えていてもよい。
The
PC80は、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末等のうちのいずれか1つである。
The
[会議支援装置]
会議支援装置30は、例えばパーソナルコンピュータ、サーバ、スマートフォン、タブレット端末等のうちのいずれかである。なお、会議支援装置30は、収音装置10がマイクロフォンアレイの場合、音源定位部、音源分離部、および音源同定部をさらに備える。会議支援装置30は、参加者によって発話された音声信号を、例えば所定の期間毎に音声認識してテキスト化する。そして、会議支援装置30は、テキスト化した発話内容のテキスト情報を、参加者の端末20それぞれに送信する。
[Conference Support Device]
The
取得部301は、収音部11が出力する音声信号を取得し、取得した音声信号を音声認識部302に出力する。なお、取得した音声信号がアナログ信号の場合、取得部301は、アナログ信号をデジタル信号に変換し、デジタル信号に変換した音声信号を音声認識部302に出力する。
The
音声認識部302は、収音部11が複数の場合、収音部11を使用する話者毎に音声認識を行う。
音声認識部302は、取得部301が出力する音声信号を取得する。音声認識部302は、取得部301が出力した音声信号から発話区間の音声信号を検出する。発話区間の検出は、例えば所定のしきい値以上の音声信号を発話区間として検出してもよく、収音部11のオン状態とオフ状態を検出してもよい。なお、音声認識部302は、発話区間の検出を周知の他の手法を用いて行ってもよい。音声認識部302は、検出した発話区間の音声信号に対して、音響モデル・辞書DB40を参照して、周知の手法を用いて音声認識を行う。なお、音声認識部302は、例えば特開2015-64554号公報に開示されている手法等を用いて音声認識を行う。音声認識部302は、認識した認識結果と音声信号をテキスト変換部303に出力する。なお、音声認識部302は、認識結果と音声信号とを、例えば1文毎、または発話句間毎、または話者毎に対応つけて出力する。
When there are multiple
The
テキスト変換部303は、音声認識部302が出力した認識結果に基づいて、テキストに変換する。テキスト変換部303は、変換したテキスト情報と音声信号を係り受け解析部304に出力する。なお、テキスト変換部303は、「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除してテキストに変換するようにしてもよい。
The
係り受け解析部304は、テキスト変換部303が出力したテキスト情報に対して形態素解析と係り受け解析を行う。係り受け解析には、例えば、Shift-reduce法や全域木の手法やチャンク同定の段階適用手法においてSVM(Support Vector Machines)を用いる。係り受け解析部304は、解析した結果に基づいて、修正が必要な場合は、音声認識したテキスト情報を音響モデル・辞書DB40を参照して修正して議事録・音声ログ記憶部50に記憶させる。係り受け解析部304は、係り受け解析した結果のテキスト情報と音声信号を議事録作成部306に出力する。
The
議事録作成部306は、係り受け解析部304が出力したテキスト情報と音声信号に基づいて、発表者等である発話者毎に分けて、議事録を作成する。議事録作成部306は、作成した議事録と対応する音声信号を議事録・音声ログ記憶部50に記憶させる。なお、議事録作成部306は、「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除して議事録を作成するようにしてもよい。
The
通信部307は、端末20と情報の送受信を行う。端末20から受信する情報には、例えば、会議への参加要請、テキスト入力開始情報、テキスト送信情報、過去の議事録の送信を要請する指示情報等が含まれている。通信部307は、端末20から受信した参加要請から、例えば、端末20を識別するための識別情報を抽出し、抽出した識別情報を認証部308に出力する。識別情報は、例えば、端末20のシリアル番号、MACアドレス(Media Access Control address)、IP(Internet Protocol)アドレス等である。通信部307は、認証部308が通信参加を許可する指示を出力した場合、会議に参加要請した端末20との通信を行う。通信部307は、認証部308が通信参加を許可しない指示を出力した場合、会議に参加要請した端末20との通信を行わない。通信部307は、受信した情報を処理部310に出力する。通信部307は、処理部310が出力したテキスト情報または過去の議事録情報等を、参加要請のあった端末20に送信する。
The
認証部308は、通信部307が出力した識別情報を受け取り、通信を許可するか否か判別する。なお、会議支援装置30は、例えば、会議への参加者が使用する端末20の登録を受け付け、認証部308に登録しておく。認証部308は、判別結果に応じて、通信参加を許可する指示か、通信参加を許可しない指示を通信部307に出力する。
The
操作部309は、例えばキーボード、マウス、第1表示装置60上に設けられているタッチパネルセンサー等である。操作部309は、利用者の操作結果を検出して、検出した操作結果を処理部310に出力する。
The
処理部310は、端末20からテキスト入力開始情報を受信したとき、第1表示装置60に表示させる画像を変更する。処理部310は、表示の変更を、例えばバックライトを暗くする(輝度を落とす)か、背景を黒等に変更して画面を暗くするか明るくするか、彩度を高くするか低くするか、コントラストを変更して暗くするか明るくする等によって行う。処理部310は、第1表示装置60に表示させる画像を変更した後、例えば第1所定時間の経過後に、第1表示装置60の画像変更を終了する。
処理部310は、過去の議事録の送信を要請する指示情報に応じて議事録・音声ログ記憶部50から議事録を読み出し、読み出した議事録の情報を通信部307に出力する。なお、議事録の情報には、話者を示す情報、係り受け解析した結果を示す情報等が含まれていてもよい。
When the
The
なお、収音装置10がマイクロフォンアレイの場合、会議支援装置30は、音源定位部、音源分離部、および音源同定部をさらに備える。この場合、会議支援装置30は、取得部301が取得した音声信号に対して予め生成した伝達関数を用いて音源定位部が音源定位を行う。そして、会議支援装置30は、音源定位部が定位して結果を用いて話者同定を行う。会議支援装置30は、音源定位部が定位して結果を用いて、取得部301が取得した音声信号に対して音源分離を行う。そして、会議支援装置30の音声認識部302は、分離された音声信号に対して発話区間の検出と音声認識を行う(例えば特開2017-9657号公報参照)。また、会議支援装置30は、残響音抑圧処理を行うようにしてもよい。
When the
[端末に表示される画像例]
図4は、本実施形態に係る端末20に表示させる画像例を示す図である。
テキスト表示欄g11~g13は、既に発話された発話を音声認識したテキスト、または入力されたテキストの画像である。
テキスト入力欄g14は、端末20の利用者がテキスト入力を行う領域である。
送信ボタン画像g15は、端末20の利用者が、テキスト入力を終了し、入力したテキストを送信する際に選択するボタン画像である。
[Example of image displayed on device]
FIG. 4 is a diagram showing an example of an image displayed on the terminal 20 according to the present embodiment.
The text display fields g11 to g13 are images of text obtained by voice recognition of speech that has already been spoken, or input text.
The text input field g14 is an area where the user of the terminal 20 inputs text.
The send button image g15 is a button image that is selected by the user of the terminal 20 when completing text input and sending the inputted text.
なお、図4のように、表示画像には、発話者に対応するアイコンg16、発話者の名前画像g17、発話時刻画像g18、テキスト入力を開始する際に利用者が選択するテキスト入力開始ボタン画像g19等が含まれていてもよい。なお、テキスト入力開始ボタン画像g19と送信ボタン画像g15とは、切り替えて表示するようにしてもよい。 As shown in FIG. 4, the display image may include an icon g16 corresponding to the speaker, a speaker name image g17, a speaking time image g18, and a text input start button image g19 selected by the user when starting text input. The text input start button image g19 and the send button image g15 may be displayed in a switched manner.
[第1表示装置に表示される画像例]
図5は、本実施形態に係る第1表示装置60に表示される画像例を示す図である。
[Example of image displayed on first display device]
FIG. 5 is a diagram showing an example of an image displayed on the
領域g100の画像は、参加者情報編集を行う領域である。
領域g101は、参加者情報の領域である。アイコン画像g102は、参加者に対応した画像である。名前画像g103は、参加者の名前の画像である。マイクロフォン番号画像g105は、参加者が使用する収音部11の番号(または識別情報)の画像である。端末番号画像g106は、参加者が使用する端末20の番号(または識別情報)の画像である。
The image in area g100 is an area where participant information is edited.
The area g101 is an area for participant information. The icon image g102 is an image corresponding to a participant. The name image g103 is an image of the name of the participant. The microphone number image g105 is an image of the number (or identification information) of the
領域g200の画像は、発話されたたテキストまたは入力されたテキストを表示、または議事録を表示する領域である。なお、図5では、ログイン中の状態を示している。
ボタン画像g201は、ログイン/ログアウトの画像である。
ボタン画像g202は、会議支援システム1の開始/終了のボタンである。表示画像g203は、会議支援システム1の使用中に点灯する画像である。
ボタン画像g204は、議事録・音声ログ記憶部50が記憶する議事録の表示や音声信号の再生を行う画像である。
The image in the area g200 is an area for displaying spoken text, input text, or minutes of a meeting. Note that Fig. 5 shows a state during login.
The button image g201 is a login/logout image.
The button image g202 is a button for starting/ending the
The button image g204 is an image for displaying the minutes stored in the minutes/audio
アイコン画像g211は、参加者のうち、発話した人に対応する画像である。
符号g212、g221、g231は、参加者が発話した内容を音声認識したテキスト情報である。
発話時刻画像g214は、参加者が発話またはテキスト入力した時刻を示す情報である。
名前画像g215は、第1の参加者の名前の画像である。
Icon image g211 is an image corresponding to the participant who has spoken.
Reference characters g212, g221, and g231 denote text information obtained by voice recognition of the contents of speech by the participants.
The speech time image g214 is information indicating the time when the participant spoke or input text.
Name image g215 is an image of the name of the first participant.
なお、図5に示した画像は一例であり、第1表示装置60上に表示される画像は、これに限らない。例えば、会議中には、領域g200の画像のみを表示するようにしてもよい。
Note that the image shown in FIG. 5 is an example, and the image displayed on the
[第1表示装置の画像例]
次に、テキスト入力が開始された際の第1表示装置60に表示される画像の変更例を説明する。
図6は、本実施形態に係るテキスト入力が開始された際の第1表示装置60に表示される画像の変更例を示す図である。なお、図6では、表示されている画像のうち、1つのテキスト画像を示し、アイコン画像やボタン画像等を省略している。
[Example of image on first display device]
Next, an example of changing the image displayed on the
Fig. 6 is a diagram showing an example of a change in the image displayed on the
テキスト入力が開始される前の画像g501では、例えば白地に黒色でテキスト画像が表示される。
これに対して、テキスト入力が開始されたときの第1の画像g502では、第1表示装置60の画面全体が変更されて表示される。
または、テキスト入力が開始されたときの第2の画像g503では、第1表示装置60の画面全体を暗くされ、さらにテキスト画像を黒から白に変更されて表示される。
In an image g501 before text input starts, for example, a text image is displayed in black on a white background.
In contrast, in the first image g502 when text input is started, the entire screen of the
Alternatively, in the second image g503 when text input is started, the entire screen of the
なお、図6に示した変更例は一例であり、これに限らない。例えば、画面の2/3に対して、画面を暗くするなど、画面の一部を変更するようにしてもよい。
このように、画面を変更することで、発話している司会者等に、テキスト入力が開始されたことを気づかせることができる。
The modification example shown in Fig. 6 is merely an example, and is not limited thereto. For example, a part of the screen may be modified, such as by darkening 2/3 of the screen.
By changing the screen in this way, it is possible to make the presenter or other person who is speaking aware that text input has started.
[第1表示装置の表示変更期間]
次に、第1表示装置の表示変更期間の例を説明する。
図7は、本実施形態に係る第1表示装置60の表示変更期間の例を示す図である。
図7において横軸は時刻(秒)である。
第1の表示変更期間は、テキスト入力開始が検出された時刻t1から、第1所定時間経過の時刻t2までの期間である。第1所定時間は、例えば数秒である。
また、第2の表示変更期間は、テキスト入力開始が検出された時刻t1から、送信ボタンのアイコン画像が端末20によって送信され、すなわちテキスト入力が終了した時刻t3までの期間(第2所定時間)である。
[Display change period of the first display device]
Next, an example of the display change period of the first display device will be described.
FIG. 7 is a diagram showing an example of a display change period of the
In FIG. 7, the horizontal axis represents time (seconds).
The first display change period is a period from time t1 when the start of text input is detected to time t2 when a first predetermined time has elapsed. The first predetermined time is, for example, several seconds.
The second display change period is the period (second specified time) from time t1 when the start of text input is detected to time t3 when the icon image of the send button is transmitted by
なお、図7に示した表示変更期間は一例であり、これに限らない。例えば、第1の表示変更期間が経過して、表示変更を例えば図6の画像g502からg501に戻した後も発話が終了しない場合、発話者が表示変更に気づかなかった可能性がある。このような場合は、再度、第1の表示変更期間の表示変更を行うようにしてもよく、この場合、第1所定時より長い時間、表示変更を行うようにしてもよい。なお処理部310は、発話終了の確認を、変更を終了した後、第2所定時間経過後に行うようにしてもよい。
または、第1の表示変更期間が経過して、表示変更を戻した後も発話が終了しない場合は、第2の表示変更期間を行うようにしてもよい。
The display change period shown in FIG. 7 is an example, and is not limited thereto. For example, if the speech does not end even after the first display change period has elapsed and the display change is returned, for example, from image g502 to image g501 in FIG. 6, the speaker may not have noticed the display change. In such a case, the display change may be performed again for the first display change period, and in this case, the display change may be performed for a time longer than the first predetermined time. The
Alternatively, if the speech does not end even after the first display change period has elapsed and the display change has been returned, a second display change period may be performed.
[処理手順例]
次に、会議支援装置30の処理手順例を説明する。図8は、本実施形態に係る会議支援装置30の処理手順のフローチャートである。なお、以下の処理例は、テキスト入力開始の際、所定時間、第1表示装置60の画面表示を変更する例である。
[Example of processing procedure]
Next, a description will be given of an example of a processing procedure of the
(ステップS1)会議支援装置30の処理部310は、利用者が操作部309を操作した操作結果等に基づいて、会議で使用する収音部11や端末20を登録する。
(Step S1) The
(ステップS2)処理部310は、利用者が操作部309を操作した操作結果等に基づいて、会議開始を検出する。
(Step S2) The
(ステップS3)処理部310は、発話を検出する。
(ステップS4)会議支援装置30の音声認識部302、テキスト変換部303等は、収音部11によって収音された音声信号に対して、音声認識処理、テキスト変換等の処理を行う。
(Step S3) The
(Step S4) The
(ステップS5)処理部310は、発話区間検出等の結果に基づいて、発話が終了したか否かを判別する。処理部310は、発話が終了したと判別した場合(ステップS5;YES)。ステップS3の処理に戻す。処理部310は、発話が終了していないと判別した場合(ステップS5;NO)。ステップS6の処理に進める。
(Step S5) The
(ステップS6)処理部310は、端末20によってテキスト入力が開始されたか否かを判別する。処理部310は、テキスト入力が開始されたと判別した場合(ステップS6;YES)、ステップS7の処理に進める。処理部310は、テキスト入力が開始されていないと判別した場合(ステップS6;NO)、ステップS5の処理に戻す。
(Step S6) The
(ステップS7)処理部310は、例えば、画面全体を暗くするように第1表示装置60に表示させる画像変更を開始する。
(Step S7) The
(ステップS8)処理部310は、画像変更を開始した後、所定時間が経過したか否かを判別する。処理部310は、所定時間が経過したと判別した場合(ステップS8;YES)、ステップS9の処理に進める。処理部310は、所定時間が経過していないと判別した場合(ステップS8;NO)、ステップS8の処理を繰り返す。
(Step S8) The
(ステップS9)処理部310は、第1表示装置60の画面変更を終了し、元の表示に戻す。
(Step S9) The
(ステップS10)処理部310は、端末20によるテキスト入力が終了したか否かを判別する。処理部310は、テキスト入力が終了したと判別した場合(ステップS10;YES)、ステップS3の処理に戻す。処理部310は、テキスト入力が終了していないと判別した場合(ステップS10;NO)、ステップS11の処理に進める。
(Step S10) The
(ステップS11)処理部310は、発話が終了したか否かを判別する。処理部310は、発話が終了したと判別した場合(ステップS11;YES)、ステップS3の処理に戻す。処理部310は、発話が終了していないと判別した場合(ステップS11;NO)。ステップS7の処理に戻す。
(Step S11) The
ステップS10とS11の処理によって、テキスト入力をしていることを第1表示装置60の表示を変更して提示しても、話者が気づいていなかった場合であっても、本実施形態によれば、再度、第1表示装置60の表示を変更して提示することができる。
Even if the display on the
なお、上述した処理手順は一例であり、これに限らない。例えば、テキスト入力開始の検出は、割り込み処理によって行うようにしてもよい。
また、上述した例では、発話されている際にテキスト入力が開始された場合に画面表示を変更する例を説明したが、これに限らない。処理部310は、発話が行われていない場合にも、第1表示装置60の画面全体の表示を変更して、テキスト入力が開始されたことを報知するようにしてもよい。さらに、処理部310は、発話開始前に画面変更を行わずに、発話開始された後に、画面の変更を開始するようにしてもよい。
The above-described processing procedure is merely an example, and is not limiting. For example, the start of text input may be detected by an interrupt process.
In the above example, the screen display is changed when text input is started while speaking, but the present invention is not limited to this. Even when no speech is being made, the
以上のように、本実施形態では、端末20によってテキスト入力が開始されたとき、第1表示装置60の画面の変更するようにした。
また、本実施形態では、1回目の画面変更を見逃しても、発話が継続されかつテキスト入力が継続されている場合に、さらに第1表示装置60の画面の変更を行うようにした。
As described above, in this embodiment, when text input via the terminal 20 is started, the screen of the
Furthermore, in this embodiment, even if the first screen change is missed, if speech and text input continue, the screen of the
これにより、本実施形態によれば、発表者および聴衆に対して分かりやすくテキスト入力が行われていることを気づかせることができる。また、本実施形態によれば、テキスト入力が行われていることに気づき、発表者が発話を区切って、テキスト入力の終了を待つことができる。この結果、本実施形態によれば、聴覚障がい者等は、端末20を使用して、発話を気にせずに、落ち着いてテキスト入力を行うことができる。
さらに、本実施形態によれば、1回目の画面変更を見逃しても、再度、第1表示装置60の画面の変更が行われるので、テキスト入力が開始されたことを気づくことができる。
As a result, according to this embodiment, it is possible to make the presenter and the audience aware that text input is being performed in an easily understandable manner. Also, according to this embodiment, the presenter is aware that text input is being performed, and can pause his/her speech and wait for the end of text input. As a result, according to this embodiment, the hearing impaired person or the like can calmly perform text input using the terminal 20 without worrying about the speech.
Furthermore, according to this embodiment, even if the first screen change is missed, the screen of the
[変形例]
次に、変形例を説明する。
図9は、会議支援システムの変形例の構成例を示すブロック図である。図9に示すように、会議支援システム1Aは、収音装置10A、端末20、会議支援装置30A、音響モデル・辞書DB40、議事録・音声ログ記憶部50、第1表示装置60、第2表示装置70、およびPC80を備える。
[Modification]
Next, a modified example will be described.
9 is a block diagram showing a configuration example of a modified example of the conference support system. As shown in Fig. 9, the
収音装置10Aは、収音部11A-1、収音部11A-2、収音部11A-3、・・・を備える。以下、収音部11A-1、収音部11A-2、収音部11A-3、・・・のうち1つを特定しない場合は、「収音部11A」という。
The
会議支援装置30Aは、取得部301、音声認識部302、テキスト変換部303(音声認識部)、係り受け解析部304、議事録作成部306、通信部307、認証部308、操作部309、および処理部310Aを備える。
The
収音部11Aは、報知部111A(111A-1、、・・・)を備える。報知部111Aは、例えば、振動装置または発光装置のうちの少なくとも1つである。報知部111Aは、会議支援装置30Aの処理部310Aの制御に応じて、例えば所定の時間、報知する。この報知は、端末20によって、テキスト入力が開始されていることを表している。
The
処理部310Aは、端末20からテキスト入力開始情報を受信したとき、収音部11Aの報知部111Aに報知する。処理部310Aは、報知後、例えば第1所定時間の経過後に、報知部111Aへの報知を終了する。
When the
なお、処理部310Aは、報知後、第1所定時間経過しても発話が終了せず、かつテキスト入力が継続されている場合、再度、報知させるようにしてもよい。
また、処理部310Aは、全ての参加者が所持する収音部11Aに報知してもよく、発話されている参加者の収音部11Aのみに報知してもよい。
なお、本実施形態においても、第1表示装置60の画面を変更する。
Note that, if the speech does not end even after the first predetermined time has elapsed after the notification and text input is still being continued, processing
Furthermore, the
In this embodiment, the screen of the
以上のように、変形例では、少なくとも発話している参加者が使用している収音部11Aに、振動等によって報知するようにした。
As described above, in this modified example, the
これにより、変形例によれば、第1表示装置60による報知に気づかなくても、収音部11Aへの報知によって、テキスト入力が開始されたことを気づくことができる。
As a result, according to the modified example, even if the user does not notice the notification from the
なお、本発明における会議支援装置30(30A)の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより会議支援装置30(30A)が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 In addition, a program for realizing all or part of the functions of the conference support device 30 (30A) in the present invention may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed to perform all or part of the processing performed by the conference support device 30 (30A). Note that the term "computer system" here includes hardware such as an OS and peripheral devices. The term "computer system" also includes a WWW system equipped with a home page providing environment (or display environment). The term "computer-readable recording medium" refers to portable media such as flexible disks, optical magnetic disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems. The term "computer-readable recording medium" also includes those that hold a program for a certain period of time, such as volatile memory (RAM) inside a computer system that becomes a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The above program may also be transmitted from a computer system in which the program is stored in a storage device or the like to another computer system via a transmission medium, or by transmission waves in the transmission medium. Here, the "transmission medium" that transmits the program refers to a medium that has the function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The above program may also be one that realizes part of the above-mentioned functions. Furthermore, it may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system, a so-called difference file (difference program).
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。 The above describes the form for carrying out the present invention using an embodiment, but the present invention is not limited to such an embodiment, and various modifications and substitutions can be made without departing from the spirit of the present invention.
1,1A…会議支援システム、10,10A…収音装置、11…収音部、20…端末、30,30A…会議支援装置、40…音響モデル・辞書DB40、50…議事録・音声ログ記憶部、60…第1表示装置、70…第2表示装置、80…PC、111A…報知部
1, 1A...conference support system, 10, 10A...sound collection device, 11...sound collection section, 20...terminal, 30, 30A...conference support device, 40...acoustic model/
Claims (2)
画像を表示する表示装置と、
前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声信号をテキスト化した情報を前記表示装置に表示させる会議支援装置と、
を備え、
前記会議支援装置は、
前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を第1の所定時間変更し、
前記第1の所定時間は、前記テキスト入力の開始時から所定時間、および前記テキスト入力の開始時から前記テキスト入力の終了時までのうちのいずれかであり、
前記テキストを入力している第1の人とは別の第2の人の前記音声信号に対して発話区間を検出し、前記所定時間変更後も前記第2の人の発話が継続している場合、前記表示装置の全体の表示を、前記第1の所定時間より長い第2の所定時間変更する、
会議支援システム。 A terminal equipped with a text input unit;
A display device for displaying an image;
a conference support device that is connected to the terminal and displays, on the display device, text information input from the terminal and information obtained by converting an audio signal input from a sound pickup unit into text;
Equipped with
The conference support device includes:
when text input is started by the terminal, changing the entire display of the display device for a first predetermined time;
the first predetermined time is either a predetermined time from a start of the text input or a time from a start of the text input to an end of the text input,
detecting a speech section in the voice signal of a second person different from the first person who is inputting the text, and if the speech of the second person is continuing even after the predetermined time period is changed, changing the entire display on the display device for a second predetermined time period that is longer than the first predetermined time period;
Meeting support system.
画像を表示する表示装置と、
前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声信号をテキスト化した情報を前記表示装置に表示させる会議支援装置と、
を備え、
前記会議支援装置は、
前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を第1の所定時間変更し、
前記テキストを入力している第1の人とは別の第2の人の前記音声信号に対して発話区間を検出し、前記第1の所定時間経過後も前記第2の人の発話が継続している場合、前記表示装置の全体の表示を、前記第1の所定時間より長い第2の所定時間変更する、
会議支援システム。 A terminal equipped with a text input unit;
A display device for displaying an image;
a conference support device that is connected to the terminal and displays, on the display device, text information input from the terminal and information obtained by converting an audio signal input from a sound pickup unit into text;
Equipped with
The conference support device includes:
when text input is started by the terminal, changing the entire display of the display device for a first predetermined time;
detecting a speech segment in the voice signal of a second person different from the first person who is inputting the text, and if the speech of the second person continues after the first predetermined time has elapsed, changing the entire display on the display device for a second predetermined time that is longer than the first predetermined time;
Meeting support system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020164423A JP7471979B2 (en) | 2020-09-30 | 2020-09-30 | Meeting Support System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020164423A JP7471979B2 (en) | 2020-09-30 | 2020-09-30 | Meeting Support System |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022056593A JP2022056593A (en) | 2022-04-11 |
JP7471979B2 true JP7471979B2 (en) | 2024-04-22 |
Family
ID=81111233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020164423A Active JP7471979B2 (en) | 2020-09-30 | 2020-09-30 | Meeting Support System |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7471979B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020103649A1 (en) | 2001-01-31 | 2002-08-01 | International Business Machines Corporation | Wearable display system with indicators of speakers |
JP2018174442A (en) | 2017-03-31 | 2018-11-08 | 本田技研工業株式会社 | Conference support system, conference support method, program of conference support apparatus, and program of terminal |
JP2019179480A (en) | 2018-03-30 | 2019-10-17 | 本田技研工業株式会社 | Conference system, control method therefor, and program |
JP2019179314A (en) | 2018-03-30 | 2019-10-17 | 本田技研工業株式会社 | Conference system, control method therefor, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3567596B2 (en) * | 1996-04-09 | 2004-09-22 | 株式会社日立製作所 | Sign language animation generator |
-
2020
- 2020-09-30 JP JP2020164423A patent/JP7471979B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020103649A1 (en) | 2001-01-31 | 2002-08-01 | International Business Machines Corporation | Wearable display system with indicators of speakers |
JP2018174442A (en) | 2017-03-31 | 2018-11-08 | 本田技研工業株式会社 | Conference support system, conference support method, program of conference support apparatus, and program of terminal |
JP2019179480A (en) | 2018-03-30 | 2019-10-17 | 本田技研工業株式会社 | Conference system, control method therefor, and program |
JP2019179314A (en) | 2018-03-30 | 2019-10-17 | 本田技研工業株式会社 | Conference system, control method therefor, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022056593A (en) | 2022-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6635049B2 (en) | Information processing apparatus, information processing method and program | |
JP6548045B2 (en) | Conference system, conference system control method, and program | |
JP2018106148A (en) | Multiplex speaker-speech-recognition correction system | |
JP6725006B2 (en) | Control device and equipment control system | |
JP7194507B2 (en) | CONFERENCE SYSTEM, CONFERENCE SYSTEM CONTROL METHOD AND PROGRAM | |
JP2018174439A (en) | Conference support system, conference support method, program of conference support apparatus, and program of terminal | |
JP2018174442A (en) | Conference support system, conference support method, program of conference support apparatus, and program of terminal | |
JP7042141B2 (en) | Conference system, conference system control method and program | |
WO2021153101A1 (en) | Information processing device, information processing method, and information processing program | |
JP7119615B2 (en) | Server, sound data evaluation method, program, communication system | |
JPWO2017175442A1 (en) | Information processing apparatus and information processing method | |
WO2019142418A1 (en) | Information processing device and information processing method | |
WO2016157993A1 (en) | Information processing device, information processing method, and program | |
JP7471979B2 (en) | Meeting Support System | |
JP6172770B2 (en) | Abstract writing support system, information distribution apparatus, abstract writing support method, and program | |
JP6950708B2 (en) | Information processing equipment, information processing methods, and information processing systems | |
JP6962849B2 (en) | Conference support device, conference support control method and program | |
JP7316971B2 (en) | CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT METHOD, AND PROGRAM | |
JP7384730B2 (en) | Conference support system, conference support method, and program | |
JP2023148706A (en) | Speech recognition result display system, speech recognition result display device, and speech recognition result display method and non-transitory storage medium storing program | |
JP7152454B2 (en) | Information processing device, information processing method, information processing program, and information processing system | |
Hughes et al. | Voice Interaction for Accessible Immersive Video Players. | |
JP7070402B2 (en) | Information processing equipment | |
JP2000184077A (en) | Intercom system | |
JP2023133782A (en) | Speech recognition text display system, speech recognition text display device, speech recognition text display method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20220601 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230623 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240105 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471979 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |