JP2022068904A - 会議支援装置、会議支援方法および会議支援プログラム - Google Patents

会議支援装置、会議支援方法および会議支援プログラム Download PDF

Info

Publication number
JP2022068904A
JP2022068904A JP2020177721A JP2020177721A JP2022068904A JP 2022068904 A JP2022068904 A JP 2022068904A JP 2020177721 A JP2020177721 A JP 2020177721A JP 2020177721 A JP2020177721 A JP 2020177721A JP 2022068904 A JP2022068904 A JP 2022068904A
Authority
JP
Japan
Prior art keywords
activity
intervention
conference
information
facilitator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020177721A
Other languages
English (en)
Other versions
JP7430618B2 (ja
Inventor
央男 佐藤
Hisao Sato
修司 仲山
Shuji Nakayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020177721A priority Critical patent/JP7430618B2/ja
Publication of JP2022068904A publication Critical patent/JP2022068904A/ja
Application granted granted Critical
Publication of JP7430618B2 publication Critical patent/JP7430618B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Figure 2022068904000001
【課題】会議の円滑な進行を支援する。
【解決手段】サーバ20は、会議の進行を管理するファシリテータを支援する。サーバ20は、会議の参加者の生体情報を取得する情報取得部23と、情報取得部23により取得された生体情報に基づいて、会議における議論の活性化の程度を表す活性度を算出する活性度算出部27と、ファシリテータが参加者に発言を促す介入のタイミングを認識する介入認識部28と、介入認識部28により介入のタイミングが認識されると、その後の所定期間内に活性度算出部27により算出された活性度に基づいて、活性度の変化を表す活性度情報を出力する出力部29と、を備える。
【選択図】図3

Description

本発明は、会議の進行を支援する会議支援装置、会議支援方法および会議支援プログラムに関する。
この種の装置として、従来、会議の参加者の発言や表情を検出し、検出結果に基づいて会議の進行を支援する情報を提示するようにした装置が知られている(例えば特許文献1,2参照)。特許文献1記載の装置では、画像や音声に基づいて参加者の心理状態が推定されるとともに、推定された心理状態の情報が表示される。特許文献2記載の装置では、参加者の発言の内容が解析され、解析結果が表示されることで、会議の論点や方向性が視覚化される。
特開2004-112518号公報 特開2020-106687号公報
ところで、会議を円滑に進行するには、必要に応じて参加者に発言を促すことが望ましい。しかしながら、上記特許文献1,2記載の装置は、単に参加者の感情や議論の内容を表示するだけであり、特許文献1,2記載の装置では、参加者に発言をいかに促すかについては何ら提案されていない。
本発明の一態様である会議支援装置は、会議の進行を管理するファシリテータを支援する。会議支援装置は、会議の参加者の生体情報を取得する情報取得部と、情報取得部により取得された生体情報に基づいて、会議における議論の活性化の程度を表す活性度を算出する活性度算出部と、ファシリテータが参加者に発言を促す介入のタイミングを認識する介入認識部と、介入認識部により介入のタイミングが認識されると、その後の所定期間内に活性度算出部により算出された活性度に基づいて、活性度の変化を表す活性度情報を出力する出力部と、を備える。
本発明の他の態様は、会議の進行を管理するファシリテータを支援する会議支援方法であって、会議の参加者の生体情報を取得する情報取得ステップと、情報取得ステップで取得された生体情報に基づいて、会議における議論の活性化の程度を表す活性度を算出する活性度算出ステップと、ファシリテータが参加者に発言を促す介入のタイミングを認識する介入認識ステップと、介入認識ステップで介入のタイミングが認識されると、その後の所定期間内に活性度算出ステップで算出された活性度に基づいて、活性度の変化を表す活性度情報を出力する出力ステップと、をコンピュータにより実行することを含む。
本発明のさらなる他の態様は、会議の進行を管理するファシリテータを支援する会議支援プログラムであって、会議の参加者の生体情報を取得する情報取得ステップと、情報取得ステップで取得された生体情報に基づいて、会議における議論の活性化の程度を表す活性度を算出する活性度算出ステップと、ファシリテータが参加者に発言を促す介入のタイミングを認識する介入認識ステップと、介入認識ステップで介入のタイミングが認識されると、その後の所定期間内に活性度算出ステップで算出された活性度に基づいて、活性度の変化を表す活性度情報を出力する出力ステップと、をコンピュータに実行させる。
本発明によれば、会議の円滑な進行を支援することができる。
本発明の実施形態に係る会議支援装置を有する会議支援システムの全体構成の一例を概略的に示すブロック図。 図1の各端末装置の要部構成の一例を概略的に示すブロック図。 本発明の実施形態に係る会議支援装置の要部構成の一例を概略的に示すブロック図。 図3の発言判定部の判定結果と個人感情推定部の推定結果の一例を示す図。 介入指令を受信したときの、図1の端末装置の表示画面の一例を示す図。 図5Aの変形例を示す図。 本発明の実施形態に係る会議支援装置により実行される介入指令出力処理の一例を示すフローチャート。 図3の活性度算出部の算出結果の一例を示す図。 図7Aの変形例を示す図。 活性度情報を受信したときの、図1のファシリテータが使用する端末装置の表示画面の一例を示す図。 図8Aの変形例を示す図。 本発明の実施形態に係る会議支援装置により実行される活性度情報出力処理の一例を示すフローチャート。 図3の個人感情推定部および全体感情推定部の推定結果の一例を示す図。 全体感情の情報を受信したときの、図1のファシリテータが使用する端末装置の表示画面の一例を示す図。 図11Aの変形例を示す図。 本発明の実施形態に係る会議支援装置により実行される全体感情出力処理の一例を示すフローチャート。
以下、図1~図12を参照して本発明の一実施形態について説明する。本発明の実施形態に係る会議支援装置は、新たなアイデアを生み出すための社内会議などの会議の進行を支援する。より具体的には、会議の進行を管理するファシリテータを支援することで間接的に会議の進行を支援し、あるいは、ファシリテータの役割を担うことで直接的に会議の進行を支援する。
会議は、例えば新たな商品やサービスのアイデアを生み出すために開催され、開発部門の各分野のエキスパートなど、多様な知見を有する複数の参加者により構成される。このような会議は、複数の参加者が互いの意見を交換し、議論することで進行するが、会議の進行が参加者の自治に委ねられると、特定の参加者が発言し続けたり、発言しなかったり、率直に発言できなかったりする不適切な状況が発生することがある。このような不適切な状況が発生すると、多様な知見が反映された良質なアイデアを生み出すことが難しくなる。
ファシリテータは、例えば開発部門の会議に立ち会う心理学の専門性を有するカウンセラなどの担当者であり、会議の議論そのものには関与せず、専ら会議の進行のみを管理する。より具体的には、会議の進行状況を観察し、不適切な状況が発生しないよう、必要に応じて参加者に発言を促す「介入」を行うことで、会議の進行を促進する。
ファシリテータが各参加者の発言量や表情、動作などを観察し、適切な介入対象者および介入タイミングを見極めて適切な態様で介入すると会議の進行が促進されるが、不適切な態様で介入すると、かえって会議の進行が妨げられる可能性がある。そこで、本実施形態では、介入が適切な態様で行われるように支援することで、会議の円滑な進行を支援できるよう、以下のように会議支援装置を構成する。
図1は、本発明の実施形態に係る会議支援装置を有する会議支援システム100の全体構成の一例を概略的に示すブロック図である。図1に示すように、会議支援システム100は、会議の複数の参加者Pa~Pdのそれぞれが使用する端末装置10a~10dと、ファシリテータPfが使用する端末装置10fと、本発明の実施形態に係る会議支援装置を構成するサーバ20とを有する。各端末装置10(10a~10d,10f)は、パーソナルコンピュータやスマートフォンなどの一般的なユーザ端末により構成される。
各端末装置10とサーバ20とは、インターネット網や携帯電話網等に代表される公衆無線通信網を含む通信ネットワーク30に接続され、通信ネットワーク30を介して互いに通信可能に構成される。通信ネットワーク30には、公衆無線通信網だけでなく、所定の管理地域ごとに設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。
なお、図1には、各参加者Pa~PdおよびファシリテータPfが個人で参加するWeb会議の構成を示すが、会議は、複数の参加者Pa~PdおよびファシリテータPfの一部がグループで参加するテレビ会議や、オンライン会議以外の会議であってもよい。この場合、複数の参加者Pa~PdおよびファシリテータPfまたはその一部が単一の端末装置10を共用してもよい。
図2は、各端末装置10の要部構成の一例を概略的に示すブロック図である。図2に示すように、端末装置10は、CPUなどの演算部11と、ROM,RAMなどの記憶部12と、I/Oインターフェースなどの周辺回路とを有するコンピュータを含んで構成される。端末装置10は、さらに、コンピュータに接続されたマイク13と、カメラ14と、入力部15と、スピーカ16と、表示部17と、を有する。記憶部12には、演算部11が実行するプログラム、端末装置10を使用するユーザ(参加者Pa~Pd、ファシリテータPf)の識別情報などが記憶される。
マイク13は、端末装置10のユーザが発した音声を取得する。マイク13からの音声信号は、演算部11での処理により、通信ネットワーク30を介して、他の参加者Pa~PdおよびファシリテータPfが使用する端末装置10に送信される。また、マイク13からの音声信号は、記憶部12に一時的に記憶され、識別情報とともにユーザ(参加者Pa~Pd、ファシリテータPf)ごとの音声情報として、演算部11での処理により通信ネットワーク30を介して所定周期でサーバ20に送信される。マイク13は、ファシリテータPfによる各種の指令の音声操作入力を受け付けることもできる。マイク13を介して入力されたファシリテータPfからの指令の情報は、演算部11での処理により通信ネットワーク30を介してサーバ20に送信される。
カメラ14は、CCDセンサやCMOSセンサ等の撮像素子を有し、端末装置10のユーザの顔を撮像する。カメラ14からの画像信号は、演算部11での処理により、通信ネットワーク30を介して、他の参加者Pa~PdおよびファシリテータPfが使用する端末装置10に送信される。また、カメラ14からの画像信号は、記憶部12に一時的に記憶され、識別情報とともにユーザ(参加者Pa~Pd、ファシリテータPf)ごとの画像情報として、演算部11での処理により通信ネットワーク30を介して所定周期でサーバ20に送信される。カメラ14は、ファシリテータPfのジェスチャによる各種の指令の操作入力を受け付けることもできる。カメラ14を介して入力されたファシリテータPfからの指令の情報は、演算部11での処理により通信ネットワーク30を介してサーバ20に送信される。
入力部15は、キーボードやマウス、タッチパネルなどにより構成され、ユーザによる操作入力を受け付ける。例えば、マイク13やカメラ14をオンまたはオフする操作入力を受け付ける。また、ファシリテータPfによる各種の指令の操作入力を受け付ける。入力部15を介して入力されたファシリテータPfからの各種の指令の情報は、演算部11での処理により通信ネットワーク30を介してサーバ20に送信される。
スピーカ16は、演算部11からの制御信号に応じて音声を出力する。例えば、通信ネットワーク30を介して取得された音声情報に基づいて、他の参加者Pa~PdまたはファシリテータPfが発した音声を出力する。各端末装置10のユーザは、マイク13とスピーカ16とを介して、他の参加者Pa~PdまたはファシリテータPfと対話することができる。
表示部17は、演算部11からの制御信号に応じて画像を表示する。例えば、通信ネットワーク30を介して取得された画像情報に基づいて、他の参加者Pa~PdまたはファシリテータPfの画像を表示する。各端末装置10のユーザは、表示部17を介して、他の参加者Pa~PdまたはファシリテータPfの表情や動作を認識することができる。
図3は、本発明の実施形態に係る会議支援装置を構成するサーバ20の要部構成の一例を概略的に示すブロック図である。図3に示すように、サーバ20は、CPUなどの演算部21と、ROM,RAMなどの記憶部22と、I/Oインターフェースなどの周辺回路とを有するコンピュータを含んで構成される。なお、図1には単一のサーバ20を示すが、図3に示す機能を分散させた複数のサーバによりサーバ20を構成してもよい。
記憶部22には、演算部21が実行する会議支援プログラムやプログラムで使用される閾値、各端末装置10から取得された参加者Pa~Pd、ファシリテータPfごとの音声情報や画像情報、演算部21による演算結果などが記憶される。演算部21は、CPUが担う機能的構成として、情報取得部23と、発言判定部24と、個人感情推定部25と、全体感情推定部26と、活性度算出部27と、介入認識部28と、出力部29と、を有する。
情報取得部23は、通信ネットワーク30を介して各端末装置10から参加者Pa~Pd、ファシリテータPfごとの音声情報および画像情報、すなわち生体情報取得するとともに、ファシリテータPfの端末装置10fから各種の指令の情報を取得する。情報取得部23により取得された各参加者Pa~Pdの生体情報は、各参加者Pa~Pdの識別情報に関連付けられて記憶部22に記憶される。
発言判定部24は、情報取得部23により取得された音声情報に基づいて、各参加者Pa~Pdが発言しているか否かを判定する。より具体的には、参加者Pa~Pdごとの音声情報に基づいて、各端末装置10のマイク13を介して音声信号が入力されたか否かを判定することで、複数の参加者Pa~Pdのそれぞれについて発言の有無を判定する。発言判定部24による判定結果は、各参加者Pa~Pdの識別情報に関連付けられ、時系列の情報として記憶部22に記憶される。
個人感情推定部25は、情報取得部23により取得された画像情報に基づいて、各参加者Pa~Pdの表情(口角等)から、各参加者Pa~Pdの感情(個人感情)ea~edが予め設定された複数の種類の感情のいずれに属するかを推定する。例えば、Plutchikの感情の輪を用いて、8つの基本感情(喜び、信頼、恐れ、驚き、悲しみ、嫌悪、怒り、期待)と、隣り合う2つの感情の組み合わせによる応用感情とに分類し、感情の輪のいずれかのパターンに当てはめる。
個人感情推定部25は、感情の輪への当てはめに応じて個人感情ea~edを数値化する。例えば、喜びなどの好ましい感情(正の感情)をプラスの値で、悲しみなどの好ましからぬ感情(負の感情)をマイナスの値で表す。この場合、例えば感情が強いほど(感情の輪の内側に行くほど)、感情を表す値(絶対値)を大きくする。個人感情推定部25による推定結果は、各参加者Pa~Pdの識別情報に関連付けられ、時系列の情報として記憶部22に記憶される。
[介入の対象者と介入のタイミング]
図4は、発言判定部24の判定結果と個人感情推定部25の推定結果の一例を示す図であり、会議中における参加者Pa~Pdの発言の有無と個人感情ea~edの変化の一例を示す。図4の例では、参加者Pa,Pb,Pdのみが発言し、参加者Pcが発言していない。このような状況が継続すると、参加者Pcの意見が反映されないまま議論が進んでしまうため、参加者Pcに発言を促す介入を行う必要がある。一方、参加者Pcが発言する意見の内容について考えている場合や発言する意見がない場合など、まだ発言できない段階で介入が行われると、単に議論の流れを妨げることになる。また、介入された参加者Pcが委縮し、かえって発言しにくくなる。
図4に示すように、時刻t1~t2において参加者Pcが一度も発言せず、継続して所定時間T1(例えば、5分間)以上、発言していない場合は、参加者Pcを介入すべき対象者(介入対象者)の候補者(介入候補者)とみなす。さらに、時刻t3において、他の参加者Paの発言中に参加者Pcの個人感情ecが変化すると(図では正の感情が“+1”から“+3”に強まる)、参加者Pcに何らかの意見が生じたものとみなし、参加者Pcを介入対象者とする。すなわち、他の参加者の発言を受けて個人感情が変化した場合は、何らかの意見が生じた蓋然性が高いため、このようなタイミング、例えば、他の参加者の発言の直後に介入すれば、介入対象者にとって発言しやすく、議論の流れを妨げることがない。なお、誰も発言していないときの個人感情の変化は、発言内容に関係ない個人的な事柄に起因する可能性が高い。
出力部29は、発言判定部24により他の参加者Paが発言していると判定されるとき、個人感情推定部25により推定された参加者Pc(介入候補者)の個人感情ecが変化すると、参加者Pcを介入対象者として発言を促すための指令(介入指令)を出力する。例えば、通信ネットワーク30を介してファシリテータPfの端末装置10fに、介入対象者を特定するための識別情報と個人感情の変化の情報を送信する。なお、継続して所定時間T1以上、発言していない複数の介入候補者の個人感情が同時に変化した場合は、発言していない時間がより長い介入候補者、あるいは、個人感情の変化がより大きい介入候補者を介入対象者として介入指令を出力する。
図5Aは、介入指令を受信したときの端末装置10fの表示画面の一例を示す図であり、サーバ20からの介入指令に応じてファシリテータPfが使用する端末装置10fの表示部17に表示される表示画面の一例を示す。図5Aに示すように、サーバ20から端末装置10fに介入指令が送信されると、表示部17に表示される複数(図では4人)の参加者Pa~Pdのうち、介入指令により特定された参加者Pcが他の参加者Pa,Pb,Pdよりも強調して表示される。
このように、参加者Paの発言中、長時間発言していない参加者Pcの個人感情ecが変化すると直ちに、ファシリテータPfに対し、参加者Pcに介入すべきタイミングであることが通知される。これにより、例えば参加者Paが発言し終わり、他の参加者Pb,Pdが発言する前に、ファシリテータPfが参加者Pcに発言を促すことができるため、参加者Pcがスムーズに議論に加わることができる。このような通知は、ファシリテータPfが不慣れで介入のタイミングを判断しかねる場合だけでなく、資料などが全画面表示されることでファシリテータPfが参加者Pcの表情や動作を観察できない場合にも、ファシリテータPfを支援することができる。
さらに、端末装置10fの表示部17には、介入指令により特定された参加者Pcについての、個人感情ecの変化の情報が表示される。個人感情ecの変化の情報は、例えば感情の種類や強さを示す表情アイコンを用いて示される。図5Aの例では、参加者Pcの個人感情ecが弱い正の感情“+1”から、やや強い正の感情“+3”に変化したことが、変化の前後の感情にそれぞれ対応する2つの表情アイコンを用いて示される。
このように個人感情ecの変化の情報を表示することで、ファシリテータPfが参加者Pcの個人感情ecの変化の内容を把握した上で介入できるため、参加者Pcの心理状態に応じた適切な声の掛け方などで発言を促すことができる。また、表示部17に表示される情報が表情アイコンなど最小限に止められるため、ファシリテータPfによる参加者Pa~Pdの表情や動作などの観察を妨げることがない。
図5Bは、介入指令を受信したときの端末装置10の表示画面の変形例を示す図であり、サーバ20からの介入指令に応じて参加者Pa~PdおよびファシリテータPfが使用する端末装置10a~10d,10fの表示部17に表示される表示画面の一例を示す。図5Bに示すように、サーバ20から各端末装置10に介入指令が送信されると、表示部17に表示される複数(図では4人)の参加者Pa~Pdのうち、介入指令により特定された参加者Pcが他の参加者Pa,Pb,Pdよりも強調して表示される。例えば、参加者Pcの画像が他の参加者Pa,Pb,Pdの画像よりも大きく表示される。
このように、ファシリテータPfや介入対象者だけでなく、参加者Pa~Pd全体に対し、次の発言者が明示されるため、より自然な態様で介入対象者に発言を促すことができる。このように参加者Pa~Pd全体に対して通知を行う場合は、ファシリテータPfによる介入を支援するだけでなく、会議支援装置がファシリテータの役割を担うことで直接的に会議の進行を支援することができる。
図6は、サーバ20の記憶部22に予め記憶された会議支援プログラムに従い、サーバ20の演算部21で実行される介入指令出力処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばファシリテータPfからの開始指令が入力されると開始され、終了指令が入力されるまで所定周期で繰り返し実行される。
先ずステップS1で、参加者Pa~Pdごとの生体情報を取得する。次いでステップS2で、ステップS1で取得された音声情報に基づいて参加者Pa~Pdごとの発言の有無を判定する。次いでステップS3で、ステップS1で取得された画像情報に基づいて参加者Pa~Pdごとの個人感情ea~edを推定する。次いでステップS4で、ステップS2の判定結果に基づいて、継続して所定時間T1以上、発言していない介入候補者がいるか否かを判定する。ステップS4で肯定されるとステップS5に進み、否定されると処理を終了する。ステップS5では、ステップS2の判定結果とステップS3の推定結果とに基づいて、他の参加者の発言中に介入候補者の感情に変化があったか否かを判定する。ステップS5で肯定されるとステップS6に進み、否定されると処理を終了する。ステップS6では、介入候補者を介入対象者として発言を促すための介入指令を端末装置10に送信する。
このように、長時間発言していない参加者を特定し(ステップS1,S2,S4)、他の参加者の発言を受けて個人感情が変化したタイミングで介入指令を出力するため(ステップS1~S3,S5,S6)、発言しやすいタイミングで介入を行うことができる。これにより、議論の流れを妨げることなく効果的に介入を行うことができるため、会議の円滑な進行を支援することができる。
[議論の活性度と介入の効果]
ファシリテータPfは、自身が行った介入が効果的であったか否かを知ることで、必要に応じて次回以降の介入の態様を見直すことができる。ファシリテータPfによる介入の効果をファシリテータPfにフィードバックすることで、ファシリテータPfによる効果的な介入を支援し、会議の円滑な進行を支援することができる。
活性度算出部27は、情報取得部23により取得された生体情報に基づいて、会議における議論の活性化の程度を表す活性度aを算出する。例えば、情報取得部23により取得された音声情報に基づいて参加者Pa~Pdによる発言の頻度fを算出し、算出された発言の頻度fに基づいて活性度aを算出する。
図7Aは、活性度算出部27の算出結果の一例を示す図であり、発言の頻度fに基づく活性度aの一例を示す。図7Aに示すように、時刻t6にファシリテータPfによる介入が行われると、介入前の時刻t5~t6における発言の頻度fと、介入後の所定期間T2(例えば、5分程度)、時刻t6~t7における発言の頻度fが算出される。図7Aの例では、時刻t5~t6の3分間に2回の発言があり、介入前の発言の頻度fが0.7回/分として算出され、時刻t6~t7の5分間に7回の発言があり、介入後の発言の頻度fが1.4回/分として算出される。この場合、介入前の活性度aが“0.7”、介入後の活性度aが“1.4”として算出される。
活性度算出部27は、個人感情推定部25により推定された参加者Pa~Pdの個人感情ea~edに基づいて活性度aを算出することもできる。例えば、参加者Pa~Pdの個人感情ea~edの平均値を活性度aとして算出する。
図7Bは、活性度算出部27の算出結果の一例を示す図であり、個人感情ea~edに基づく活性度aの一例を示す。図7Bの例では、時刻t6に介入が行われると、時刻t8に参加者Pdの個人感情edが負の感情“-3”から正の感情“+3”に変化し、時刻t9に参加者Pcの個人感情ecが弱い正の感情“+1”から、強い正の感情“+5”に変化する。この場合、参加者Pa~Pdの個人感情ea~edの平均値、すなわち活性度aが、時刻t5~t8に“+1.5”、時刻t8~t9に“+3”、時刻t9~t7に“+4”として算出される。
活性度算出部27は、参加者Pa~Pdの発言の頻度fおよび個人感情ea~edの両方に基づいて活性度aを算出してもよい。この場合、例えば、発言の頻度fに基づく活性度aおよび個人感情ea~edに基づく活性度aを、最小値および最大値を統一した数値af,aeに換算するとともに、換算された数値af,aeの平均値を活性度aとして算出する。
介入認識部28は、ファシリテータPfによる介入のタイミング(図7A、図7Bの時刻t6)を認識する。より具体的には、情報取得部23により取得されたファシリテータPfの音声情報に基づいて、端末装置10fのマイク13を介して音声信号が入力されたか否かを判定することで、ファシリテータPfが介入を行うタイミングを認識する。この場合、ファシリテータPfが介入を行うと自動的に介入のタイミングが認識される。
介入認識部28は、ファシリテータPfによる意識的な操作入力、すなわち、介入の開始および介入の効果のフィードバックを要求するために予め定められた操作入力に基づいて、介入のタイミングを認識してもよい。より具体的には、情報取得部23により取得されたファシリテータPfからの各種の指令の情報に基づいて、端末装置10fの入力部15を介した操作、マイク13を介した音声操作、カメラ14を介したジェスチャによる操作が入力されたか否かを判定する。このような意識的な操作入力を契機として介入のタイミングを認識する場合、例えば介入以外の発言を契機として誤って介入の効果が算出されることがなく、ファシリテータPfの意図に沿って正確な介入の効果をフィードバックすることができる。
出力部29は、介入認識部28により介入のタイミングが認識されると、その後の所定期間T2内に活性度算出部27により算出された活性度aに基づいて、活性度aの変化を表す活性度情報を生成し、通信ネットワーク30を介して端末装置10fに送信する。例えば、図7Aに示すように、活性度算出部27により介入前の活性度aが“0.7”、介入後の所定期間T2における活性度aが“1.4”として算出されると、介入の効果として活性度aが向上したことを示す活性度情報を生成し、出力する。あるいは、図7Bに示すように、活性度算出部27により介入後の所定期間T2における活性度aが“+1.5”、“+3”、“+4”として算出されると、介入の効果として活性度aの推移を示す活性度情報を生成し、出力する。
図8Aおよび図8Bは、活性度情報を受信したときの、ファシリテータPfが使用する端末装置10fの表示画面の一例を示す図である。図8Aの例では、介入の効果として、介入の前後で活性度aが向上したことを示す矢印が画面中央に表示される。図8Bの例では、介入の効果として、介入後の所定期間T2に活性度aが弱い正の感情に対応する“+1.5”から、やや強い正の感情に対応する“+3”、強い正の感情に対応する“+4”に推移したことを示す表情アイコンが画面中央に表示される。このような介入の効果は、介入認識部28により介入のタイミングが認識された後、所定期間T2が経過してから表示されるが、図8Bのように活性度aの推移を表示する場合には、介入のタイミングが認識された後の所定期間T2、継続的に表示してもよい。
図9は、サーバ20の記憶部22に予め記憶された会議支援プログラムに従い、サーバ20の演算部21で実行される活性度情報出力処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばファシリテータPfからの開始指令が入力されると開始され、終了指令が入力されるまで所定周期で繰り返し実行される。
先ずステップS1で、参加者Pa~Pdごとの生体情報を取得する。次いでステップS7で、ステップS1で取得された生体情報に基づいて活性度aを算出する。次いでステップS8で、ファシリテータPfによる介入のタイミングが認識されたか否かを判定する。ステップS8で肯定されるとステップS9に進み、否定されると処理を終了する。ステップS9では、ステップS7で算出された活性度aの変化を表す活性度情報を生成し、ファシリテータPfの端末装置10fに出力する。次いでステップS10で、ステップS8で認識された介入タイミングから所定期間T2が経過したか否かを判定する。ステップS10で肯定されると処理を終了し、否定されるとステップS9に戻る。
このように、ファシリテータPfによる介入のタイミングを認識し(ステップS8)、介入前後の活性度aの変化や介入後の活性度aの推移をフィードバックするため(ステップS9,S10)、ファシリテータPfが自身の介入による効果を把握することができる。これにより、ファシリテータPfによる効果的な介入を支援し、会議の円滑な進行を支援することができる。
[会議の全体的な雰囲気の形成]
会議を円滑に進行し、参加者全体の意見が反映された結論に至るには、会議の全体的な雰囲気を的確に把握することが必要となる。会議の全体的な雰囲気は、参加者全体の個人感情が概ね一致することで形成される。各参加者が率直に発言を尽くし、互いの意見が十分に交換されると、参加者全体の個人感情が一致し、このような満場一致の雰囲気で結論に至ることで、多様な知見が反映された良質なアイデアを生み出すことができる。
全体感情推定部26は、個人感情推定部25で推定された各参加者Pa~Pdの個人感情ea~edに基づいて、複数の参加者Pa~Pd全体の感情(全体感情)e、すなわち会議全体の雰囲気を推定する。より具体的には、個人感情推定部25により同一の種類の感情に属すると推定された参加者Pa~Pdの割合が所定割合(例えば、70%)以上であるか否かを判定し、所定割合以上であると判定されると、その感情を全体感情eとして推定する。
図10は、個人感情推定部25および全体感情推定部26の推定結果の一例を示す図である。図10に示すように、例えば会議の開始直後は各参加者Pa~Pdの個人感情ea~edが殆ど一致せず、会議の全体的な雰囲気が形成されていない。このような段階で、例えば個人感情ea~edの平均値として全体感情eを推定したとしても、会議の全体的な雰囲気を的確に表すことはできない。
会議が円滑に進行し、すべての参加者Pa~Pdが率直に発言し、互いの意見が十分に交換されると、すべての参加者Pa~Pdの個人感情ea~edが正の感情として満場一致し、全体感情推定部26により全体感情eが正の感情として推定される。また、個人感情ea~edの平均値が全体感情eの絶対値として算出される。
一方、会議が進行して殆どの参加者Pa~Pcが率直に発言し、意見を交換したものの、一部の参加者Pdが十分に発言できていなかったり、率直に発言できていなかったりする場合は、一部の参加者Pdの個人感情edが全体感情eと不一致となる。この場合、所定割合以上の参加者Pa~Pcの個人感情ea~ecが属する正の感情が全体感情eとして推定され、参加者Pa~Pcの個人感情ea~ecの平均値が全体感情eの絶対値として算出される。
出力部29は、全体感情推定部26により全体感情eが推定されると、推定された全体感情eおよび個人感情edが全体感情eと不一致の参加者Pdの情報を、通信ネットワーク30を介して端末装置10fに送信する。
図11Aおよび図11Bは、全体感情eの情報を受信したときの、ファシリテータPfが使用する端末装置10fの表示画面の一例を示す図である。図11Aの例では、図10において満場一致の全体感情eとして推定された、やや強い正の感情“+4”に対応する表情アイコンが画面中央に表示される。
図11Bの例では、図10において個人感情edが全体感情eと不一致の参加者Pdがいる場合の全体感情eとして推定された、やや強い正の感情“+3”に対応する表情アイコンが画面中央に表示される。また、個人感情edが全体感情eと不一致の参加者Pdが他の参加者Pa~Pcよりも強調して表示されるとともに、その参加者Pdの個人感情edとして推定された、やや強い負の感情“-3”に対応する表情アイコンが表示される。
図12は、サーバ20の記憶部22に予め記憶された会議支援プログラムに従い、サーバ20の演算部21で実行される全体感情出力処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばファシリテータPfからの開始指令が入力されると開始され、終了指令が入力されるまで所定周期で繰り返し実行される。
先ずステップS1で、参加者Pa~Pdごとの生体情報を取得する。次いでステップS3で、ステップS1で取得された画像情報に基づいて参加者Pa~Pdごとの個人感情ea~edを推定する。次いでステップS11で、ステップS3で推定された参加者Pa~Pdごとの個人感情ea~edが概ね一致しているか否かを判定する。ステップS11で肯定されるとステップS12に進み、否定されると処理を終了する。ステップS12では、ステップS11で概ね一致すると判定された感情を参加者Pa~Pd全体の全体感情eとして推定するとともに、一致した個人感情ea~ecの平均値を全体感情eの絶対値として算出する。
次いでステップS13で、ステップS3で推定された個人感情ea~edがステップS12で推定された全体感情eと一致しない参加者Pa~Pdがいるか否かを判定する。ステップS13で肯定されるとステップS14に進み、ステップS12で推定された全体感情eと、ステップS13で個人感情が全体感情eと一致しないと判定された参加者の識別情報および不一致の個人感情とを、ファシリテータPfの端末装置10fに出力する。ステップS13で否定されるとステップS15に進み、ステップS12で推定された満場一致の全体感情eのみをファシリテータPfの端末装置10fに出力する。
このように、参加者Pa~Pd全体の個人感情ea~edが概ね一致すると全体感情eを推定し、提示するため(ステップS11,S12,S14、S15)、ファシリテータPfによる会議の全体的な雰囲気の把握を支援することができる。これにより、ファシリテータPfが会議の全体的な雰囲気が形成されつつあることや、その雰囲気の性質を的確に把握することができ、例えば介入の必要性を適切に判断することが可能になり、会議を円滑に進行することができる。また、全体感情eと異なる個人感情edを有する参加者Pdの情報を提示することで(ステップS14)、ファシリテータPfによる適切な介入を支援することができる。
本実施形態によれば以下のような作用効果を奏することができる。
(1)サーバ20は、会議の進行を管理するファシリテータPfを支援する。サーバ20は、会議の参加者Pa~Pdの生体情報を取得する情報取得部23と、情報取得部23により取得された生体情報に基づいて、会議における議論の活性化の程度を表す活性度aを算出する活性度算出部27と、ファシリテータPfが参加者Pa~Pdに発言を促す介入のタイミング(図7A、図7Bの時刻t6)を認識する介入認識部28と、介入認識部28により介入のタイミングが認識されると、その後の所定期間T2内に活性度算出部27により算出された活性度aに基づいて、活性度aの変化を表す活性度情報を出力する出力部29と、を備える(図3)。
例えば、ファシリテータPfに対し、介入前後における活性度aの変化や介入後の所定期間T2における活性度aの推移がフィードバックされるため、ファシリテータPfが自身の介入による効果を把握することができる。これにより、ファシリテータPfによる効果的な介入を支援し、会議の円滑な進行を支援することができる。
(2)介入認識部28は、ファシリテータPfが介入するときの音声入力に基づいて介入のタイミングを認識する。これにより、ファシリテータPfが参加者Pa~Pdに発言を促す介入を行うと自動的に介入の効果がフィードバックされる。
(3)介入認識部28は、ファシリテータPfからの操作入力に基づいて介入のタイミングを認識する。例えば、端末装置10fのキーボードやマウス、タッチパネルなどの入力部15を介した操作入力、マイク13を介した音声操作入力、カメラ14を介したジェスチャによる操作入力などの意識的な操作を契機として介入の効果がフィードバックされる。このため、介入以外の発言を契機として誤って介入の効果が算出されることがなく、ファシリテータPfの意図に沿って正確な介入の効果をフィードバックすることができる。
(4)情報取得部23は、参加者Pa~Pdの生体情報として音声情報を取得する。活性度算出部27は、情報取得部23により取得された音声情報に基づいて参加者Pa~Pdによる発言の頻度fを算出し、算出された発言の頻度fに基づいて活性度aを算出する。これにより、ファシリテータPfによる介入の効果を具体的な数値として算出することができる。
(5)情報取得部23は、参加者Pa~Pdの生体情報として画像情報を取得する。活性度算出部27は、情報取得部23により取得された画像情報に基づいて個人感情推定部25により推定された参加者Pa~Pdの個人感情ea~edに基づいて活性度aを算出する。例えば、参加者Pa~Pdの個人感情ea~edの平均値として活性度aを算出する。これにより、例えば表情アイコンの変化などのファシリテータPfが認識しやすい態様で介入の効果をフィードバックすることができる。
上記実施形態では、各参加者Pa~Pdの生体情報を各端末装置10a~10dのマイク13およびカメラ14を介して取得する例を説明したが、複数の参加者のそれぞれの生体情報を取得する情報取得部は、このようなものに限らない。端末装置に付属するものに限らず、独立したマイクやカメラでもよい。参加者ごとに設けられるものに限らず、複数の参加者が共用するものでもよい。この場合は、例えば指向性を有し、方向によって音声を取得する感度が異なるマイクを用いて参加者ごとの音声情報を取得するとともに、音声情報に基づいて個人を認識してもよい。また、広角カメラにより複数の参加者を撮影し、画像情報に基づいて個人を認識してもよい。
上記実施形態では、音声情報に基づいて参加者Pa~Pdの発言の有無を判定する例を説明したが、生体情報に基づいて参加者の発言の有無を判定する発言判定部は、このようなものに限らない。例えば、画像情報に基づいて手話による発言の有無を判定してもよい。
上記実施形態では、画像情報に基づいて参加者Pa~Pdの表情から個人感情ea~edを推定する例を説明したが、生体情報に基づいて参加者の感情を推定する感情推定部は、このようなものに限らない。例えば、表情に加えて動作に基づいて個人感情を推定してもよい。画像情報に代えて、あるいは画像情報に加えて、参加者ごとの心拍数や顔面温度、音声情報などの生体情報を利用して個人感情を推定してもよい。また、個人感情を感情の輪によって分類されたパターンに当てはめて数値化するようにしたが、他の分類された感情のパターンに当てはめて数値化するようにしてもよい。
上記実施形態では、参加者Pa~Pdの発言の頻度fまたは個人感情ea~edに基づいて活性度aを算出する例を説明したが、会議における議論の活性化の程度を表す活性度を算出する活性度算出部は、このようなものに限らない。例えば、会議の音声情報に基づいて特定のキーワードを検出し、議論の進行の度合いや雰囲気などを推定することで活性度を算出してもよい。
上記実施形態では、図10などで参加者Pa~Pdの個人感情ea~edが正の感情であるか負の感情であるかを判定する例を説明したが、個人感情が予め設定された複数の種類の感情のいずれに属するかを推定する個人感情推定部は、このようなものに限らない。例えば、8つの基本感情など、3つ以上の感情に分類してもよい。この場合は、個人感情が概ね一致しているか否かを判定するための所定割合は、70%より低い割合(例えば、60%)とする。
会議の進行を管理するファシリテータを支援する会議支援方法に関し、会議の参加者の生体情報を取得し、取得された生体情報に基づいて、会議における議論の活性化の程度を表す活性度を算出し、ファシリテータからの活性度の参照要求を受け付け、参照要求が受け付けられると、その後の所定期間内に算出された活性度に基づいて、活性度の変化を表す活性度情報を出力するのであれば、他の構成はいかなるものでもよい。
会議の進行を管理するファシリテータを支援する会議支援プログラムに関し、会議の参加者の生体情報を取得する情報取得ステップS1と、情報取得ステップS1で取得された生体情報に基づいて、会議における議論の活性化の程度を表す活性度を算出する活性度算出ステップS7と、ファシリテータが参加者に発言を促す介入のタイミングを認識する介入認識ステップS8と、介入認識ステップS8で介入のタイミングが認識されると、その後の所定期間内に活性度算出ステップS7で算出された活性度に基づいて、活性度の変化を表す活性度情報を出力する活性度情報出力ステップS9~S10と、を含むのであれば、サーバ20の演算部21で実行される処理は図9に示したものに限らない。したがって、これらの手順をコンピュータに実行させる会議支援プログラムの構成も上述したものに限らない。上記実施形態では、会議支援プログラムをサーバ20の記憶部22内に格納したが、フラッシュメモリ等の外部記憶媒体に格納してもよい。通信ネットワーク30を介して会議支援プログラムを取得することもできる。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
10(10a~10d,10f) 端末装置、11 演算部、12 記憶部、13 マイク、14 カメラ、15 入力部、16 スピーカ、17 表示部、20 サーバ、21 演算部、22 記憶部、23 情報取得部、24 発言判定部、25 個人感情推定部、26 全体感情推定部、27 活性度算出部、28 介入認識部、29 出力部、30 通信ネットワーク、100 会議支援システム

Claims (7)

  1. 会議の進行を管理するファシリテータを支援する会議支援装置であって、
    前記会議の参加者の生体情報を取得する情報取得部と、
    前記情報取得部により取得された生体情報に基づいて、前記会議における議論の活性化の程度を表す活性度を算出する活性度算出部と、
    前記ファシリテータが前記参加者に発言を促す介入のタイミングを認識する介入認識部と、
    前記介入認識部により前記介入のタイミングが認識されると、その後の所定期間内に前記活性度算出部により算出された前記活性度に基づいて、前記活性度の変化を表す活性度情報を出力する出力部と、を備えることを特徴とする会議支援装置。
  2. 請求項1に記載の会議支援装置において、
    前記介入認識部は、前記ファシリテータが介入するときの音声入力に基づいて前記介入のタイミングを認識することを特徴とする会議支援装置。
  3. 請求項1に記載の会議支援装置において、
    前記介入認識部は、前記ファシリテータからの操作入力に基づいて前記介入のタイミングを認識することを特徴とする会議支援装置。
  4. 請求項1~3のいずれか1項に記載の会議支援装置において、
    前記情報取得部は、前記参加者の生体情報として音声情報を取得し、
    前記活性度算出部は、前記情報取得部により取得された音声情報に基づいて前記参加者による発言の頻度を算出し、算出された前記発言の頻度に基づいて前記活性度を算出することを特徴とする会議支援装置。
  5. 請求項1~4のいずれか1項に記載の会議支援装置において、
    前記情報取得部は、前記参加者の生体情報として画像情報を取得し、
    前記活性度算出部は、前記情報取得部により取得された画像情報に基づいて前記参加者の感情を推定し、推定された前記参加者の感情に基づいて前記活性度を算出することを特徴とする会議支援装置。
  6. 会議の進行を管理するファシリテータを支援する会議支援方法であって、
    前記会議の参加者の生体情報を取得する情報取得ステップと、
    前記情報取得ステップで取得された生体情報に基づいて、前記会議における議論の活性化の程度を表す活性度を算出する活性度算出ステップと、
    前記ファシリテータが前記参加者に発言を促す介入のタイミングを認識する介入認識ステップと、
    前記介入認識ステップで前記介入のタイミングが認識されると、その後の所定期間内に前記活性度算出ステップで算出された前記活性度に基づいて、前記活性度の変化を表す活性度情報を出力する出力ステップと、をコンピュータにより実行することを含むことを特徴とする会議支援方法。
  7. 会議の進行を管理するファシリテータを支援する会議支援プログラムであって、
    前記会議の参加者の生体情報を取得する情報取得ステップと、
    前記情報取得ステップで取得された生体情報に基づいて、前記会議における議論の活性化の程度を表す活性度を算出する活性度算出ステップと、
    前記ファシリテータが前記参加者に発言を促す介入のタイミングを認識する介入認識ステップと、
    前記介入認識ステップで前記介入のタイミングが認識されると、その後の所定期間内に前記活性度算出ステップで算出された前記活性度に基づいて、前記活性度の変化を表す活性度情報を出力する出力ステップと、をコンピュータに実行させるための会議支援プログラム。
JP2020177721A 2020-10-23 2020-10-23 会議支援装置、会議支援方法および会議支援プログラム Active JP7430618B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020177721A JP7430618B2 (ja) 2020-10-23 2020-10-23 会議支援装置、会議支援方法および会議支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020177721A JP7430618B2 (ja) 2020-10-23 2020-10-23 会議支援装置、会議支援方法および会議支援プログラム

Publications (2)

Publication Number Publication Date
JP2022068904A true JP2022068904A (ja) 2022-05-11
JP7430618B2 JP7430618B2 (ja) 2024-02-13

Family

ID=81521847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020177721A Active JP7430618B2 (ja) 2020-10-23 2020-10-23 会議支援装置、会議支援方法および会議支援プログラム

Country Status (1)

Country Link
JP (1) JP7430618B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110295392A1 (en) * 2010-05-27 2011-12-01 Microsoft Corporation Detecting reactions and providing feedback to an interaction
JP2015207806A (ja) * 2014-04-17 2015-11-19 コニカミノルタ株式会社 遠隔会議支援システム及び遠隔会議支援プログラム
JP2017112545A (ja) * 2015-12-17 2017-06-22 株式会社イトーキ 会議支援システム
JP2017201479A (ja) * 2016-05-06 2017-11-09 日本ユニシス株式会社 コミュニケーション支援システム
US20180033332A1 (en) * 2016-07-27 2018-02-01 David Nelson System and Method for Recording, Documenting and Visualizing Group Conversations
JP2019103036A (ja) * 2017-12-05 2019-06-24 富士ゼロックス株式会社 情報処理装置、情報処理システム、及びプログラム
JP2019101928A (ja) * 2017-12-06 2019-06-24 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2020042720A (ja) * 2018-09-13 2020-03-19 京セラドキュメントソリューションズ株式会社 ファシリテーション支援システムおよびファシリテーション支援プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110295392A1 (en) * 2010-05-27 2011-12-01 Microsoft Corporation Detecting reactions and providing feedback to an interaction
JP2015207806A (ja) * 2014-04-17 2015-11-19 コニカミノルタ株式会社 遠隔会議支援システム及び遠隔会議支援プログラム
JP2017112545A (ja) * 2015-12-17 2017-06-22 株式会社イトーキ 会議支援システム
JP2017201479A (ja) * 2016-05-06 2017-11-09 日本ユニシス株式会社 コミュニケーション支援システム
US20180033332A1 (en) * 2016-07-27 2018-02-01 David Nelson System and Method for Recording, Documenting and Visualizing Group Conversations
JP2019103036A (ja) * 2017-12-05 2019-06-24 富士ゼロックス株式会社 情報処理装置、情報処理システム、及びプログラム
JP2019101928A (ja) * 2017-12-06 2019-06-24 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2020042720A (ja) * 2018-09-13 2020-03-19 京セラドキュメントソリューションズ株式会社 ファシリテーション支援システムおよびファシリテーション支援プログラム

Also Published As

Publication number Publication date
JP7430618B2 (ja) 2024-02-13

Similar Documents

Publication Publication Date Title
JP6866860B2 (ja) 電子会議システム
JP2021044814A (ja) 電子会議システム
JP5201050B2 (ja) 会議支援装置、会議支援方法、会議システム、会議支援プログラム
US20190147367A1 (en) Detecting interaction during meetings
US10403272B1 (en) Facilitating participation in a virtual meeting using an intelligent assistant
CN108781273B (zh) 基于自动参与者标识的动作
JP2022068903A (ja) 会議支援装置、会議支援方法および会議支援プログラム
CN109460752A (zh) 一种情绪分析方法、装置、电子设备及存储介质
JPWO2016178329A1 (ja) 情報処理システム、制御方法、および記憶媒体
JP2016500983A (ja) 仮想会議を管理するための方法およびシステム(仮想会議)
JP7323098B2 (ja) 対話支援装置、対話支援システム、及び対話支援プログラム
US20160231890A1 (en) Information processing apparatus and phase output method for determining phrases based on an image
US20160294892A1 (en) Storage Medium Storing Program, Server Apparatus, and Method of Controlling Server Apparatus
WO2014013886A1 (ja) 情報処理装置、サーバ、情報処理方法、および情報処理システム
US10902301B2 (en) Information processing device and non-transitory computer readable medium storing information processing program
JP5309070B2 (ja) マルチモーダル対話装置
US11443738B2 (en) Electronic device processing user utterance and control method thereof
JP6973380B2 (ja) 情報処理装置、および情報処理方法
JP7430618B2 (ja) 会議支援装置、会議支援方法および会議支援プログラム
JP7430132B2 (ja) 会議支援装置、会議支援方法および会議支援プログラム
JP7452299B2 (ja) 会話支援システム、会話支援方法及びプログラム
JP7468690B2 (ja) 分析装置、分析方法、および分析プログラム
JP2023000288A (ja) 情報処理システム、その制御方法、および、プログラム
JP2008306586A (ja) 情況推定方法、情況推定プログラム及びネットワークシステム
JP2022104190A (ja) 双方向通信支援システム、及び、コンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20231215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240131

R150 Certificate of patent or registration of utility model

Ref document number: 7430618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150