JP7231301B2 - オンライン会議サポートシステムおよびオンライン会議サポートプログラム - Google Patents
オンライン会議サポートシステムおよびオンライン会議サポートプログラム Download PDFInfo
- Publication number
- JP7231301B2 JP7231301B2 JP2022519156A JP2022519156A JP7231301B2 JP 7231301 B2 JP7231301 B2 JP 7231301B2 JP 2022519156 A JP2022519156 A JP 2022519156A JP 2022519156 A JP2022519156 A JP 2022519156A JP 7231301 B2 JP7231301 B2 JP 7231301B2
- Authority
- JP
- Japan
- Prior art keywords
- advice
- user
- online conference
- voice
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Description
図1Aおよび図1Bは、第1実施形態に係るオンライン会議サポートシステムの構成を例示する図である。図1Aにはオンライン会議サポートシステム1が適用される情報処理装置100の例が示され、図1Bにはオンライン会議サポートシステム1のブロック図が示される。
図2は、第1実施形態に係るオンライン会議サポートシステムの動作(情報処理方法)を例示するフローチャートである。以下、ステップごとに説明する。
<ステップS101>
カメラ101による撮像処理を行う。すなわち、自分(使用者)の情報処理装置(コンピュータ等)に付属、または、USB(Universal Serial Bus)等の端子、もしくは無線によって接続されたカメラ101によって使用者の画像を取り込む。
画像解析部10による目線または顔の向きの検出処理を行う。画像解析部10は、カメラ101で取り込んだ使用者の画像から、使用者の目線または顔の向きを検出し、その後、検出した目線や顔の向きから視線の向きを検出する。視線の向きを検出する方法は、例えば下記のような流れで行われる。
(1)対象者の顔を検出する。
(2)目、鼻、口、顔の輪郭などの顔の部位を検出する。
(3)顔の中心点を検出する。
(4)顔の中心方向の向きを検出する。
(5)目と瞳、まぶた、目尻を検出する。
(6)これらの情報を用いて、顔と目の向きのベクトルを検出する。
(7)視線のプロット先を検出する。
この(7)による視線のプロット先が視線情報(目線と顔の向き)となる。なお、目線の向きと顔の向きとは別々の情報として検出されてもよいし、同一に検出されてもよい。
これらの処理は、AI(人工知能)、マシンラーニング、ディープラーニングなどの処理を用いてもよい。
(1)対象者の顔を検出する。
(2)目、鼻、口、顔の輪郭などの顔の部位を検出する。
(3)顔の中心点を検出する。
(4)顔の中心方向の向きを検出する。
(5)目と瞳、まぶた、目尻を検出する。
(6)これらの情報を用いて、視線の角度を検出する。角度は正面を向いている時を中心として、上下左右方向の角度θ1(ディスプレイ104の画面平面内での角度)と、その上下左右に対して奥行き方向の角度θ2(ディスプレイ104の画面平面の法線に対する角度)とを持つ。角度θ1、θ2の表し方を図4に示す。また、角度は立体角の考え方を用いることもできる。
この(6)による視線の角度が視線情報(目線と顔の向き)となる。なお、目線の向きと顔の向きとは別々の情報として検出されてもよいし、同一に検出されてもよい。
これらの処理は、AI(人工知能)、マシンラーニング、ディープラーニングなどの処理を用いてもよい。
・予めディスプレイ104の中央に表示されたガイドラインGL(図11参照)に顔や目の位置をあわせ、このときにカメラ101で得られた画像の情報を、ディスプレイ104の中央を見ている場合の基準とする。
・カメラ101のほうを向いてもらい、このときにカメラ101で得られた画像の情報の情報を基準とする。
・ディスプレイ104の画面の四隅を順番に見てもらい、それぞれの隅を見た際にカメラ101で得られた画像の情報をディスプレイ104の端を見ている場合の基準とする。
・顔や視線を意図的に上下左右にむけさせ、その際にカメラ101で取り込まれた画像の情報から、顔の向きの基準や顔の可動範囲の基準の情報を得る。
などである。
これらは、1つで行ってもよいし、複数を組み合わせてもよい。
また、ディスプレイ104の端を見るなどの情報はアドバイスウインドウ104Wを生成する場所の情報に用いてもよい。
距離を測定するセンサがなくとも、映し出される顔の大きさからディスプレイ104と使用者の顔との距離を割り出してもよい。
ディスプレイ104と使用者の顔との距離が分かると、視線のプロット先や角度からディスプレイ104上のどの位置を見ているかを正確に求めることができる。
・カメラ101から出力された信号が、オンライン会議システムに入力される前の画像を用いる方法。
・カメラ101から出力された信号がオンライン会議システムに入力され、オンライン会議システム上で扱われる画像を使用する方法。例えば、ディスプレイ104に表示するための画像を使用する方法が挙げられる。
・画像処理ソフトウエア(例:Snap Camera)の画像を使用する方法。
これらはどれか1つを用いてもよいし、複数を用いてもよい。
アドバイス生成部30は、アドバイスを生成するか否かの判断を行う。アドバイス生成部30は、画像解析部10で解析した使用者の視線情報に基づき、使用者がカメラ101の方を向いているかどうかや、正面を向いているかを判断し、もし使用者がカメラ101の方や正面を向いていない場合にはアドバイスを生成する。例えば、上記(7)で検出した視線のプロット先が、予め設定された基準となる視線のプロット先から閾値を超えてずれている場合、アドバイス生成部30によってアドバイスを自動的に生成する。アドバイス生成部30は、アドバイスとしてテキストやイラスト、写真などで使用者にカメラ101の方や正面を向くようなメッセージを生成する。
(1)視線のプロット先を検出する。
(2)検出した視線のプロット先と、自分が映っているカメラ映像(自分が映っているディスプレイ104の画面)とを比較する。
(3)プロット先を自分が映っているディスプレイ104の画面の中で画面中央からどの程度離れているかを計測する。この計測は、先に示した基準とする画像の情報を利用すればよい。例えば、ディスプレイ104の中央を向いている場合の基準の画像と、ディスプレイ104の隅を見ている場合の基準の画像とから、視線のプロット先に対応したディスプレイ104上の視線の位置を計測する。
(4)ディスプレイ104の画面中央からの距離の計測は、画面の画角全体の何%と計算してもよいし、解像度に応じて何画素(何ピクセル)分と定義してもよい。また、想定された視線範囲に対して中央から何%と計算してもよい。
(5)仮に視線のプロット先が画面中央にあった場合はアドバイスを出さない。
(6)同じように画角中央から画面全体の例えば20%以下ならアドバイスを出さないなどを取り決める。逆に、例えば20%以上の距離が離れていた場合は、カメラの方に視線を向けるようアドバイスを生成する。この20%という割合は予め任意に決めることができる。また、ディスプレイ104の画面の外に視線がある場合は100%以上の数字をだすこともある。
(7)アドバイスを出す際、視線のプロット先が画角の一定距離から離れている時間を計測し、ある一定時間以上の場合のみアドバイスを表示する。例えば5秒以上、画角中央から20%以上離れている場合はアドバイスを生成する判断をし、画角中央から20%以上離れていても5秒未満であればアドバイスを出さないようにする。この時間の設定は予め任意に決めることができる。
アドバイス出力部40は、アドバイスを使用者のディスプレイ104に出力する。すなわち、アドバイス出力部40は、アドバイス生成部30で生成したアドバイス(テキストやイラストなどのメッセージ)を使用者のディスプレイ104に出力する。
また、音声のやりとりが続いている間は、アドバイスの生成や表示をせず、音声のやりとりが途切れたタイミングでアドバイスの生成や表示を行うようにしてもよい。
図4は、使用者が下を向いているときの状態を示す模式図である。
図3に示す状態では、視線のベクトルは正面を向いている。一方、図4に示す状態では、視線のベクトルは下を向いている。
また、使用者がカメラ101の方や正面を向いている場合、向いていない場合のそれぞれに対応したアドバイスを出力するようにしてもよい。
第2実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、画像解析部10がカメラ101で取得した使用者の画像情報を用いて、使用者の表情を解析する。表情の解析には、例えば、Microsoft社から提供されるFace APIなどを用いてもよい。その情報を元に、画像解析部10で使用者の表情の判断を行い、必要な時には表情の修正を促すようなアドバイスをアドバイス生成部30で生成し、アドバイス出力部40によってアドバイスを出力する。
図5は、第2実施形態に係るオンライン会議サポートシステムの動作(情報処理方法)を例示するフローチャートである。以下、ステップごとに説明する。
<ステップS201>
カメラ101による撮像処理を行う。すなわち、自分(使用者)の情報処理装置(コンピュータ等)に付属、または、USB等の端子、もしくは無線によって接続されたカメラ101によって使用者の画像を取り込む。
画像解析部10による表情の検出処理を行う。画像解析部10は、カメラ101で取り込んだ使用者の画像から、使用者の表情を検出する。
アドバイス生成部30は、アドバイスを生成するか否かの判断を行う。アドバイス生成部30は、画像解析部10で解析した使用者の表情の情報に基づき、表情に関するアドバイスを与えたほうがよと判断した場合にはアドバイスを生成する。アドバイス生成部30は、画像解析部10の解析結果に基づき、テキストやイラスト、写真などで使用者に表情に関するメッセージを生成する。
ここでは、例えば、Amazon Rekognitionのサービスを利用した流れを示す。
(Amazon Rekognitionに関しては以下のURLを参照)
https://aws.amazon.com/jp/about-aws/whats-new/2019/08/amazon-rekognition-improves-face-analysis/
https://ledge.ai/2019-05-30-12904310615cefa2e89a156/
この情報を元に、例えば、SMILING:笑顔の数字が予め設定された一定割合以下であって、予め設定された時間以上続いた場合には、アドバイスを生成する。数字の一例をあげると50%以下である時間が5分続いた場合には、笑顔になるようなアドバイスを生成する、などである。
他にも、ANGRY:怒りの数値が予め設定された一定数値を超えた場合は、平常心を取り戻すようなアドバイスを生成する。
アドバイス出力部40は、アドバイスを使用者のディスプレイ104に出力する。すなわち、アドバイス出力部40は、アドバイス生成部30で生成したアドバイス(テキストやイラストなどのメッセージ)を使用者のディスプレイ104に出力する。例えば、使用者の表情が硬いと判断した場合には表情を和らげるようなアドバイスを使用者のディスプレイ104に表示する。
また、音声のやりとりが続いている間は、アドバイスの生成や表示をせず、音声のやりとりが途切れたタイミングでアドバイスの生成や表示を行うようにしてもよい。
また、使用者の表情が好ましい場合、好ましくない場合のそれぞれに対応したアドバイスを出力するようにしてもよい。
第3実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、画像解析部10がカメラ101で取得した使用者の画像情報を用いて、使用者の表情を解析するとともに、相手方の情報処理装置100のカメラ101で取得した相手方の画像情報を用いて、使用者の情報処理装置100の画像解析部10が相手方の表情を解析する。表情の解析には、例えば、Microsoft社から提供されるFace APIなどを用いてもよい。第3実施形態では、使用者の表情の解析結果と、相手方の表情の解析結果とに基づき、使用者の情報処理装置100のディスプレイ104にアドバイスを出力する。
図6は、第3実施形態に係るオンライン会議サポートシステムの動作(情報処理方法)を例示するフローチャートである。以下、ステップごとに説明する。
<ステップS301>
カメラ101による撮像処理を行う。すなわち、自分(使用者)の情報処理装置(コンピュータ等)に付属、または、USB等の端子、もしくは無線によって接続されたカメラ101によって使用者の画像を取り込む。
画像解析部10による使用者の表情の検出処理を行う。画像解析部10は、カメラ101で取り込んだ使用者の画像から、使用者の表情を検出する。表情の検出処理は第2実施形態と同様である。
相手方の情報処理装置100のカメラ101による撮像処理を行う。相手方のカメラ101で撮像した相手方の画像はネットワークを介して使用者の情報処理装置100に送られる。
画像解析部10による相手方の表情の検出処理を行う。画像解析部10は、相手方の情報処理装置100からネットワークNを介して送られた相手方の画像から、相手方の表情を検出する。表情の検出処理は第2実施形態と同様である。
アドバイス生成部30は、アドバイスを生成するか否かの判断を行う。アドバイス生成部30は、画像解析部10で解析した使用者の表情の情報および相手方の表情の情報に基づき、表情に関するアドバイスを与えたほうがよいと判断した場合にはアドバイスを生成する。アドバイス生成部30は、画像解析部10の解析結果に基づき、テキストやイラスト、写真などで使用者に表情に関するメッセージを生成する。
第2実施形態と同様の方法で、SMILING:笑顔、HAPPY:幸せ、ANGRY:怒り、SURPRISED:驚き、SAD:悲しい、CALM:穏やか、CONFUSED:混乱といった情報が識別される。
この表情の認識を双方の画像で行い、表情の組み合わせが行われる。この組み合わせの中には、表情のどの数字も低い、いわゆる「無表情」の状態も含まれる。
例えば、一方が笑顔であり、他方が無表情の時間が一定時間続いた場合には無表情の側に笑顔になることを促すアドバイスを生成する。この場合、一例を挙げると、一方の側はSMILING:笑顔の割合が60%以上であり、他方の側の無表情はどの数値も30%以下である状態が30秒続いた場合にアドバイスを生成する。
アドバイス出力部40は、アドバイスを使用者のディスプレイ104に出力する。すなわち、アドバイス出力部40は、アドバイス生成部30で生成したアドバイス(テキストやイラストなどのメッセージ)を使用者のディスプレイ104に出力する。
また、音声のやりとりが続いている間は、アドバイスの生成や表示をせず、音声のやりとりが途切れたタイミングでアドバイスの生成や表示を行うようにしてもよい。
また、笑顔だけではなく、怒りや嫌悪、恐怖、悲しみ、驚きなどの表情や、声のトーン、くびをかしげる、頷く、眉をつり上げるなどの動作から、相互の理解度や感情のずれを把握し、コミュニケーションが円滑になるようなアドバイスを生成してもよい。
第4実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、画像解析部10が相手方の情報処理装置100のカメラ101で取得した相手方の画像情報を用いて、相手方の表情を解析する。表情の解析は第2実施形態と同様である。その情報を元に、画像解析部10で相手方の表情の判断を行い、その判断結果に応じて使用者の情報処理装置100のディスプレイ104にアドバイスを出力する。
図7は、第4実施形態に係るオンライン会議サポートシステムの動作(情報処理方法)を例示するフローチャートである。以下、ステップごとに説明する。
<ステップS401>
相手方の情報処理装置100のカメラ101による撮像処理を行う。相手方のカメラ101で撮像した相手方の画像はネットワークを介して使用者の情報処理装置100に送られる。
画像解析部10による相手方の表情の検出処理を行う。画像解析部10は、相手方の情報処理装置100からネットワークを介して送られた相手方の画像から、相手方の表情を検出する。表情の検出処理は第2実施形態と同様である。
アドバイス生成部30は、アドバイスを生成するか否かの判断を行う。アドバイス生成部30は、画像解析部10で解析した相手方の表情の情報に基づき、表情に関するアドバイスを与えたほうがよと判断した場合にはアドバイスを生成する。アドバイス生成部30は、画像解析部10の解析結果に基づき、テキストやイラスト、写真などで使用者に表情に関するメッセージを生成する。
第2実施形態と同様の方法で、SMILING:笑顔、HAPPY:幸せ、ANGRY:怒り、SURPRISED:驚き、SAD:悲しい、CALM:穏やか、CONFUSED:混乱といった情報が識別される。
例えば、相手方が無表情の時間が一定時間続いた場合には、話の話題を変えることを促すようなアドバイスを生成する。この場合、一例を挙げると、相手方の表情はどの数値が30%以下である状態が30秒続いた場合にアドバイスを生成する。
第5実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、音声解析部20がマイク102で取得した使用者の音声情報を用いて、話すスピードを解析する。そして、使用者の音声の解析結果に基づき、使用者の情報処理装置100のディスプレイ104にアドバイスを出力する。
図8は、第5実施形態に係るオンライン会議サポートシステムの動作(情報処理方法)を例示するフローチャートである。以下、ステップごとに説明する。
<ステップS501>
マイク102による集音処理を行う。すなわち、自分(使用者)の情報処理装置(コンピュータ等)に付属、またはUSB等の端子、もしくは無線によって接続されたマイク102により音声(使用者の声やノイズ成分を含む使用者側の音声情報)を入手する。
音声解析部20による使用者の音声の解析処理を行う。音声解析部20は、マイク102で取り込んだ使用者の音声から、話し方のスピード、抑揚、滑舌などの使用者音声情報を検出する。そして、音声解析部20は、使用者の音声を解析した使用者音声情報と、予め設定された基準音声情報とを比較して音声比較情報を求める。
アドバイス生成部30は、アドバイスを生成するか否かの判断を行う。アドバイス生成部30は、音声解析部20で解析した使用者音声情報に基づき、話し方に関するアドバイスを与えたほうがよいと判断した場合にはアドバイスを生成する。アドバイス生成部30は、画像解析部10の解析結果に基づき、テキストやイラスト、写真などで使用者に話し方に関するメッセージを生成する。
滑舌を例にした場合には、
(1)5母音間の距離を判定する。
(2)予め決められた5母音間の距離と、得られた5母音間の距離を比較する。
例えば、予め1秒と決められていれば、1秒未満か、1秒以上を判定する。
(3)予め決められた5母音間の距離以下であれば、アドバイスを生成する。
このとき、今回の例では距離を時間として表したが、周波数などを使用してもよい。
また、得られた5母音間の距離を予め決められた距離と比較する場合、一定時間の平均を利用したり、連続して複数回距離が短い場合のみアドバイスを生成したりするなどを行ってもよい。
アドバイス出力部40は、アドバイスを使用者のディスプレイ104に出力する。すなわち、アドバイス出力部40は、アドバイス生成部30で生成したアドバイス(テキストやイラストなどのメッセージ)を使用者のディスプレイ104に出力する。
また、音声のやりとりが続いている間は、アドバイスの生成や表示をせず、音声のやりとりが途切れたタイミングでアドバイスの生成や表示を行うようにしてもよい。
また、使用者の話し方が好ましい場合、好ましくない場合のそれぞれに対応したアドバイスを出力するようにしてもよい。
第6実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、音声解析部20が相手方の情報処理装置100のマイク102で取得した相手方の音声情報を用いて、その音声情報をテキストに変換し、アドバイス生成部30がそのテキストをアドバイスとして生成する。アドバイス出力部40は、テキストを使用者の情報処理装置100のディスプレイ104に出力する。これにより、オンライン会議において相手方との会話や質問の聞き逃しを抑制することができる。
図9は、第6実施形態に係るオンライン会議サポートシステムの動作(情報処理方法)を例示するフローチャートである。以下、ステップごとに説明する。
<ステップS601>
相手方の情報処理装置100のマイク102による音声の取得処理を行う。すなわち、相手方のパーソナルコンピュータ等に付属、またはUSB等の端子、もしくは無線を用いて接続されたマイク102により相手方の音声を入手する。
音声解析部20による相手方の音声情報の検出処理を行う。音声解析部20は、相手方の情報処理装置100からネットワークを介して送られた相手方の音声情報をテキスト化する。この際、音声情報の全てをテキスト化してもよいし、音声情報からキーワードとなる言葉を抽出してテキスト化してもよい。
アドバイス生成部30は、アドバイスを生成するか否かの判断を行う。アドバイス生成部30は、音声解析部20でテキスト化した音声情報に基づき、そのテキストをアドバイスとして生成する判断を行う。
(1)専門用語辞典や専門用語集などを事前に収集、もしくはインターネット上のサービスを指定することにより得ることができる状態にしていく。
(2)それらの情報と比較し、当てはまる場合には、テキスト表示をする。
その際に、その前後の言葉を記憶しておき、その前後の言葉と一緒に、もしくは、その文節や文章単位で表示してもよい。
(1)予め、一般的に使われる「私」や「御社」などの専門用語に当たらないであろう情報を抽出しておく。
(2)この情報と比較し、上記専門用語に当てはまらないであろう単語を除去し、残った部分を専門用語として、アドバイス生成すると判断する。
その際に、その専門用語にあたる前後の言葉を記憶しておき、その前後の言葉と一緒に、もしくは、その文節や文章単位で表示してもよい。
相手方からの疑問形は、自分が答える必要があると考えられるため、その前後の言葉を記憶しておき、アドバイスの生成が必要であると判断してもよい。
(1)音声を常にテキスト変換しておき、常に例えば直近5分間分を記憶しておく。
(2)音声の抑揚(音声信号の周波数や大きさ)を読み取る。
(3)音声の抑揚や、音声の語尾の言葉の状態から疑問文かどうかを判断する。
(4)疑問文であった場合は、その疑問文の前にさかのぼり、文章の切れ目を探す。
(5)その切れ目から、疑問文の語尾までの情報をテキストにアドバイス生成として表示する。
このとき、その疑問文に対する答えが検索可能なのであれば、検索して表示してもよいし、模範解答を集めておき、それを同時に表示してもよい。
アドバイス出力部40は、アドバイスを使用者のディスプレイ104に出力する。すなわち、アドバイス出力部40は、アドバイス生成部30で生成したアドバイス(テキスト化された情報)を使用者のディスプレイ104に出力する。
また、専門用語などは、アドバイス生成部30がその言葉をインターネットで自動的に検索し、アドバイス出力部40がその検索結果をディスプレイ104に表示するようにしてもよい。
第7実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、音声解析部20が相手方の情報処理装置100のマイク102で取得した相手方の音声情報を用いて、質問にあたる部分を抽出する。アドバイス生成部30は、音声解析部20で抽出された質問に対する応答をアドバイスとして生成する。相手方の質問に対する応答は、事前に登録されたものであってもよいし、ネットワーク上にある答えの例(模範解答、一般解答など)であってもよい。アドバイス出力部40は、アドバイス生成部30によって生成されたアドバイス(質問に対する応答)を使用者のディスプレイ104に出力する。これにより、オンライン会議の進行中に相手方から出された質問に対して、使用者はディスプレイ104に表示されたアドバイスを参照して応答することができる。
(1)前記の方法で、質問に当たる部分を抽出する。(例えば「志望動機は何ですか?」など)
(2)その質問に対する単語や文脈から質問内容を把握する。(志望動機を聞かれていると把握する)
(3)予め志望動機と紐付けて入力された言葉をアドバイスとして表示する。
(1)前記の方法で、質問に当たる部分を抽出する。(例えば「量子コンピュータの仕組みはどんなものですか?」など)
(2)それに対して、インターネット上で、全文もしくは、単語を検索する。(例えば、「量子コンピュータ」と「仕組み」を検索する)
(3)その結果をテキスト、またはWebサイトのリンクで表示する。
第8実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、音声解析部20が相手方の情報処理装置100のマイク102で取得した相手方の音声情報を用いて時間に関する情報を検出する。アドバイス生成部30は、音声解析部20で検出した時間に関する情報に基づくアドバイスを生成する。アドバイス出力部40は、アドバイス生成部30によって生成されたアドバイスを使用者のディスプレイ104に出力する。
(1)相手側の音声からを分析して、時間の情報を抽出する。(例えば、「5分で話してください」から、「5分」という情報を抽出する。)
(2)その時間を、ディスプレイ104の画面上に表示する。
(3)その時間から、例えば、1秒ごとにカウントダウンしてディスプレイ104に表示していく。(4分59秒、4分58秒、…など)
(4)0秒になった時点でディスプレイ104に表示されるカウントダウンの表示の色を変えるなどによって知らせる。
これにより、指定された時間内に話を終えることを意識させることができる。
第9実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムを用いたオンライン会議の事前準備として、カメラ101によって取得した画像を用いて最適なセッティングの指導を行う。
(1)図10に示すように、ディスプレイ上にパソコンの高さなどの配置例が表示される。
配置例はカメラの高さや向き、座る位置、カメラやパソコンからの距離などである。最適なカメラ101の高さや向きなどは、カメラ101で取り込んだ画像を解析して顔の映る範囲、視線から導き出したカメラ101の高さや向きの方向性(例えば、「もう少しカメラの位置を高くして」や「もう少しカメラを離して」など)を示すことができる。
(2)図11に示すように、ディスプレイ104にガイドラインGLと、カメラに映った自分の画像を重ね合わせる。そのガイドラインGLにあった配置が推奨される配置となる。顔や体の輪郭のガイドだけではなく、目や鼻、口の位置が示されてもよい。
(3)周囲の明るさや、顔の明るさなど、全体の明るさやコントラストを最適にするようなメッセージやイラスト、写真などが表示される。
(4)周囲の明るさや、顔の明るさなど、全体の明るさやコントラストを最適にするよう画像を調整する。
第10実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムを用いたオンライン会議の事前準備として、面接や相手の情報を入力する。例えば、企業名や、相手の好きなもの、好きなこと、嫌いなこと、嫌いなもの、氏名、出身値、今の住まい、興味のあることなどである。その情報を元に事前もしくは、会議や面接、お見合いなどの実行中に情報がディスプレイ104に表示される。
第11実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムを用いたオンライン会議の事前準備として、オンラインでの会話中に行う予定の質問をあらかじめ入力しておき、実際の会話中にその情報が表示される。
表示されるタイミングは、はじめから表示されていてもよいし、本人がディスプレイ104の画面上をクリックしたタイミングで表示させてもよい。また、予め時間を入力しておき、その時間になったタイミングで表示させてもよい。また、別の方法としては相手の質問を促す音声を認識して、認識した結果に応じて表示させてもよい。
第12実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムを用いたオンライン会議の事前準備として、予め進行に関する情報を入力しておく。進行に関する情報としては、例えば、何分の予定で会議を行うという時間情報や、どの順番で何分頃に行うという手順に関する情報である。
実際のオンラインでの会話中に、情報処理装置100の時間情報、またはインターネットを介した時間情報を照らし合わせて、残り時間や次に行うことの情報がディスプレイ104のアドバイスウインドウ104Wに表示される。例えば、アドバイスウインドウ104Wには、時間情報(例えば、会議の残り時間や会議の手順およびその残り時間など)が表示される。
第13実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、使用者の情報処理装置100のディスプレイ104にアドバイスを表示するタイミングを調整する。
第14実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、ディスプレイ104に表示されるテキストを、予め設定された言語で表示する。すなわち、ディスプレイ104には、表示すべきテキストとその翻訳文との少なくともいずれかが表示される。
第15実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、複数のディスプレイ104を接続して使う場合、使用者の視線の位置に合わせて、その視線の先のディスプレイ104にテキストなどのアドバイスを出力する。
使用者は、複数のディスプレイ104を並列に配置したり、ノート型コンピュータ(情報処理装置100)にディスプレイ104を接続したりして、マルチディスプレイを構築することがある。この場合、第15実施形態に係るオンライン会議サポートシステム1では、図1Bに示す画像解析部10において、カメラ101で取り込んだ使用者の画像から、使用者の視線の向きを検出する。
第16実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、複数のカメラ101を接続して使う場合、使用者の視線の位置に合わせて、その視線の先のカメラ101での撮像に自動的に切り換える処理を行う。
第17実施形態に係るオンライン会議サポートシステム1では、図1Aに示すオンライン会議システムおよび図1Bに示すブロック構成において、使用者がその方向に指さす、顔を向ける、といった特定の動作(ジェスチャーなど)をすることで、その特定の動作に応じてカメラ101の撮像領域をズームしたり、パンしたり、フォーカスを合わせたりする動作を行う。
前述の各実施形態に係るオンライン会議サポートシステム1においては、下記のような機能の少なくともいずれかを付加してもよい。
(1)テキストやイラストなどの表示、音声や振動による通知は、オンラインでの会議/面接/面談/お見合いの途中で、かつ、表情や音声が認識された直後(例えば、30秒以内)に行われる。
(2)テキストやイラストなどの表示、音声や振動による通知は、オンラインでの会議/面接/面談/お見合いの途中で、かつ、会話や会議の妨げにならない、会話がなされていない、または、画像が動いていない期間に行われる(例えば、0.1秒から10分)。
(3)会議の事前準備として、会議開催前(オンラインで相手と繋がる前)に、音声や顔の位置、表情を認識してアドバイスを与える。
(4)会議の振り返りや反省として、会議開催後(オンラインで相手との通信が途切れた後)にアドバイスを与える。
(5)カメラ101で取り込んだ画像から背景に映っている物を抽出し、会議に適さないと思われる物が映っている場合にアドバイスを与える。例えば、背景の画像から文字を抽出した場合、「背景に○○の文字が映っています。」などのメッセージを出力する。また、背景の画像から動きのある物を抽出した場合、「背景に動いているものが映っています。」などのメッセージを出力する。例えば、会議中に部屋にペットが入り込んで背景に映り込んだ場合、このようなメッセージを出力して使用者に認識させることができる。
(6)マイク102で取り込んだ音声情報からノイズ成分を抽出し、ある一定レベル以上のノイズ成分が一定時間以上続く場合、「ノイズ音が含まれています。」などのメッセージを出力する。
上記説明したオンライン会議サポートシステム1は、オンライン会議サポートプログラムとして適用可能である。オンライン会議サポートプログラムは、コンピュータに以下のステップを実行させる。
(1)カメラ101で取り込んだ使用者の画像を解析する画像解析ステップ
(2)マイク102で取り込んだ使用者の音声を解析する音声解析ステップ
(3)画像解析ステップおよび音声解析ステップで解析した結果に基づき使用者に対するアドバイスを生成するアドバイス生成ステップ
(4)アドバイス生成ステップで生成したアドバイスを使用者のディスプレイ104に出力するアドバイス出力ステップ
10…画像解析部
20…音声解析部
30…アドバイス生成部
40…アドバイス出力部
100…情報処理装置
101…カメラ
102…マイク
103…スピーカ
104…ディスプレイ
104W…アドバイスウインドウ
GL…ガイドライン
N…ネットワーク
Claims (22)
- カメラ、マイク、スピーカおよびディスプレイを有する情報処理装置を使用するオンライン会議システムにおいて使用者のサポートを行うオンライン会議サポートシステムであって、
前記カメラで取り込んだ前記使用者の画像を解析する画像解析部と、
前記マイクで取り込んだ前記使用者の音声を解析する音声解析部と、
前記画像解析部および前記音声解析部の少なくともいずれかで解析した結果に基づき前記使用者に対するアドバイスを生成するアドバイス生成部と、
前記アドバイス生成部で生成された前記アドバイスを前記使用者の前記ディスプレイに出力するアドバイス出力部と、
を備え、
前記画像解析部は、前記使用者の前記画像から前記カメラの画角中心に対する前記使用者の顔の向きまたは前記使用者の視線の方向を解析し、
前記アドバイス生成部は、前記画像解析部で解析した前記使用者の顔の向きまたは前記使用者の視線の方向が一定時間を超えて前記カメラの画角中心に対して予め設定した範囲を外れている場合、前記カメラの方向を向くようアドバイスを生成することを特徴とするオンライン会議サポートシステム。 - 前記アドバイス生成部は、前記画像解析部で解析した前記使用者の顔の向きまたは前記使用者の視線の方向に基づきオンライン会議の相手方に与える印象に応じたアドバイスを生成する、請求項1記載のオンライン会議サポートシステム。
- 前記画像解析部は、前記使用者の前記画像から前記カメラの画角中心に対する前記使用者の視線の方向を解析し、
前記アドバイス出力部は、前記画像解析部で解析した前記視線の延長上付近となる前記ディスプレイの位置に前記アドバイスを出力する、請求項1記載のオンライン会議サポートシステム。 - カメラ、マイク、スピーカおよびディスプレイを有する情報処理装置を使用するオンライン会議システムにおいて使用者のサポートを行うオンライン会議サポートシステムであって、
前記カメラで取り込んだ前記使用者の画像を解析する画像解析部と、
前記マイクで取り込んだ前記使用者の音声を解析する音声解析部と、
前記画像解析部および前記音声解析部の少なくともいずれかで解析した結果に基づき前記使用者に対するアドバイスを生成するアドバイス生成部と、
前記アドバイス生成部で生成された前記アドバイスを前記使用者の前記ディスプレイに出力するアドバイス出力部と、
を備え、
前記画像解析部は、前記使用者の前記画像から前記使用者の表情を解析し、
前記アドバイス生成部は、前記画像解析部で解析した前記使用者の表情から笑顔ではないと判定された時間が予め設定された時間以上続いた場合、笑顔を促すアドバイスを生成することを特徴とするオンライン会議サポートシステム。 - カメラ、マイク、スピーカおよびディスプレイを有する情報処理装置を使用するオンライン会議システムにおいて使用者のサポートを行うオンライン会議サポートシステムであって、
前記カメラで取り込んだ前記使用者の画像を解析する画像解析部と、
前記マイクで取り込んだ前記使用者の音声を解析する音声解析部と、
前記画像解析部および前記音声解析部の少なくともいずれかで解析した結果に基づき前記使用者に対するアドバイスを生成するアドバイス生成部と、
前記アドバイス生成部で生成された前記アドバイスを前記使用者の前記ディスプレイに出力するアドバイス出力部と、
を備え、
前記画像解析部は、前記使用者の前記画像から前記使用者の表情を解析し、
前記アドバイス生成部は、前記画像解析部で解析した前記使用者の表情から怒りの表情であると判定された場合、平常な顔に戻るようアドバイスを生成することを特徴とするオンライン会議サポートシステム。 - 前記アドバイス生成部は、前記画像解析部で解析した前記使用者の表情が笑顔や穏やかな場合に、良い表情であることを示すアドバイスを生成する、請求項4または請求項5に記載のオンライン会議サポートシステム。
- 前記画像解析部は、オンラインで送信される相手方の画像から前記相手方の表情を解析し、
前記アドバイス生成部は、前記画像解析部で解析した前記使用者の表情と、前記相手方の表情との相違に基づくアドバイスを生成する、請求項4または請求項5に記載のオンライン会議サポートシステム。 - 前記音声解析部は、前記使用者の音声を解析した使用者音声情報と、予め設定された基準音声情報とを比較して音声比較情報を求め、
前記アドバイス生成部は、前記音声解析部で求めた前記音声比較情報に基づくアドバイスを生成する、請求項1記載のオンライン会議サポートシステム。 - 前記音声解析部は、オンラインで送信される相手方の音声から前記音声に対応したテキストデータを解析し、
前記アドバイス生成部は、前記音声解析部で解析した前記テキストデータを前記アドバイスとして生成する、請求項1記載のオンライン会議サポートシステム。 - 前記アドバイス生成部は、前記音声解析部で解析した前記テキストデータから予め設定されたデータベースに基づき抽出された用語を強調表示するアドバイスを生成する、請求項9記載のオンライン会議サポートシステム。
- 前記情報処理装置は、前記使用者からの入力を受け付ける入力手段を有し、
前記アドバイス生成部は、前記入力手段で入力された前記用語の意味をインターネットで検索して、検索結果をアドバイスとして生成する、請求項10記載のオンライン会議サポートシステム。 - 前記音声解析部は、前記使用者の音声から話している内容が質問であるか否かを解析し、
前記アドバイス生成部は、前記音声解析部で解析した音声の内容が質問であった場合、前記質問に対する回答をインターネット検索して、検索結果をアドバイスとして生成する、請求項1記載のオンライン会議サポートシステム。 - 前記音声解析部は、前記使用者の音声から前記使用者の会話時間を解析し、
前記アドバイス生成部は、前記会話時間に基づくカウントアップ時間またはカウントダウン時間をアドバイスとして生成する、請求項1記載のオンライン会議サポートシステム。 - 前記アドバイス出力部は、前記音声解析部によって解析した前記使用者と相手方との音声のやりとりが少ない期間または音声のやりとりが途絶えた期間に、アドバイス出力をする、請求項1記載のオンライン会議サポートシステム。
- 前記画像解析部は、オンライン会議における前記カメラの最適な撮影領域と撮影位置とを示すガイドを前記ディスプレイに表示し、
前記アドバイス生成部は、前記カメラで取得した前記使用者の画像の領域および位置と前記ガイドとの比較結果に基づき前記使用者に対するアドバイスを生成する、請求項1記載のオンライン会議サポートシステム。 - 前記画像解析部は、前記カメラで取得した前記使用者の画像に基づき画質を解析する、請求項1記載のオンライン会議サポートシステム。
- 前記情報処理装置は、前記使用者からの入力を受け付ける入力手段を有し、
前記アドバイス生成部は、前記入力手段で受け付けた前記使用者の会議に使用する事前の情報を、会議における所定のタイミングでアドバイスとして生成する、請求項1記載のオンライン会議サポートシステム。 - オンライン会議中に前記使用者の前記ディスプレイに表示される内容を相手方と共有した際、前記アドバイス出力部は前記アドバイスを前記相手方のディスプレイに表示させない処理を行う、請求項1記載のオンライン会議サポートシステム。
- 前記アドバイス出力部は、出力した前記アドバイスをネットワークを介して記憶装置に送信する処理を行う、請求項1記載のオンライン会議サポートシステム。
- カメラ、マイク、スピーカおよびディスプレイを有する情報処理装置を使用するオンライン会議システムにおいて使用者のサポートを行うオンライン会議サポートプログラムであって、
コンピュータに、
前記カメラで取り込んだ前記使用者の画像から前記カメラの画角中心に対する前記使用者の顔の向きまたは前記使用者の視線の方向を解析する画像解析ステップと、
前記マイクで取り込んだ前記使用者の音声を解析する音声解析ステップと、
前記画像解析ステップおよび前記音声解析ステップの少なくともいずれかで解析した結果に基づき前記使用者に対するアドバイスを生成する処理において、前記画像解析ステップで解析した前記使用者の顔の向きまたは前記使用者の視線の方向が一定時間を超えて前記カメラの画角中心に対して予め設定した範囲を外れている場合、前記カメラの方向を向くようアドバイスを生成するアドバイス生成ステップと、
を実行させることを特徴とするオンライン会議サポートプログラム。 - カメラ、マイク、スピーカおよびディスプレイを有する情報処理装置を使用するオンライン会議システムにおいて使用者のサポートを行うオンライン会議サポートプログラムであって、
コンピュータに、
前記カメラで取り込んだ前記使用者の画像から前記使用者の表情を解析する画像解析ステップと、
前記マイクで取り込んだ前記使用者の音声を解析する音声解析ステップと、
前記画像解析ステップおよび前記音声解析ステップの少なくともいずれかで解析した結果に基づき前記使用者に対するアドバイスを生成する処理において、前記画像解析ステップで解析した前記使用者の表情から笑顔ではないと判定された時間が予め設定された時間以上続いた場合、笑顔を促すアドバイスを生成するアドバイス生成ステップと、
前記アドバイス生成ステップで生成した前記アドバイスを前記使用者の前記ディスプレイに出力するアドバイス出力ステップと、
を実行させることを特徴とするオンライン会議サポートプログラム。 - カメラ、マイク、スピーカおよびディスプレイを有する情報処理装置を使用するオンライン会議システムにおいて使用者のサポートを行うオンライン会議サポートプログラムであって、
コンピュータに、
前記カメラで取り込んだ前記使用者の画像ら前記カメラの画角中心に対する前記使用者の視線の方向を解析する画像解析ステップと、
前記マイクで取り込んだ前記使用者の音声を解析する音声解析ステップと、
前記画像解析ステップおよび前記音声解析ステップの少なくともいずれかで解析した結果に基づき前記使用者に対するアドバイスを生成する処理において、前記画像解析ステップで解析した前記使用者の表情から怒りの表情であると判定された場合、平常な顔に戻るようアドバイスを生成するアドバイス生成ステップと、
前記アドバイス生成ステップで生成した前記アドバイスを前記使用者の前記ディスプレイに出力するアドバイス出力ステップと、
を実行させることを特徴とするオンライン会議サポートプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020180257 | 2020-10-28 | ||
JP2020180257 | 2020-10-28 | ||
PCT/JP2021/039102 WO2022091970A1 (ja) | 2020-10-28 | 2021-10-22 | オンライン会議サポートシステムおよびオンライン会議サポートプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022091970A1 JPWO2022091970A1 (ja) | 2022-05-05 |
JPWO2022091970A5 JPWO2022091970A5 (ja) | 2022-10-11 |
JP7231301B2 true JP7231301B2 (ja) | 2023-03-01 |
Family
ID=81383874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022519156A Active JP7231301B2 (ja) | 2020-10-28 | 2021-10-22 | オンライン会議サポートシステムおよびオンライン会議サポートプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7231301B2 (ja) |
WO (1) | WO2022091970A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006185393A (ja) | 2004-12-28 | 2006-07-13 | Oki Electric Ind Co Ltd | 情報端末装置 |
JP2006186933A (ja) | 2004-12-28 | 2006-07-13 | Oki Electric Ind Co Ltd | 情報端末装置 |
JP2012054897A (ja) | 2010-09-03 | 2012-03-15 | Sharp Corp | 会議システム、情報処理装置、及び情報処理方法 |
JP2016019045A (ja) | 2014-07-04 | 2016-02-01 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
JP2019029984A (ja) | 2017-07-27 | 2019-02-21 | 大日本印刷株式会社 | 情報処理装置、情報処理方法、映像データ、プログラム、及び情報処理システム |
JP2020047087A (ja) | 2018-09-20 | 2020-03-26 | いすゞ自動車株式会社 | 車両用監視装置 |
-
2021
- 2021-10-22 JP JP2022519156A patent/JP7231301B2/ja active Active
- 2021-10-22 WO PCT/JP2021/039102 patent/WO2022091970A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006185393A (ja) | 2004-12-28 | 2006-07-13 | Oki Electric Ind Co Ltd | 情報端末装置 |
JP2006186933A (ja) | 2004-12-28 | 2006-07-13 | Oki Electric Ind Co Ltd | 情報端末装置 |
JP2012054897A (ja) | 2010-09-03 | 2012-03-15 | Sharp Corp | 会議システム、情報処理装置、及び情報処理方法 |
JP2016019045A (ja) | 2014-07-04 | 2016-02-01 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
JP2019029984A (ja) | 2017-07-27 | 2019-02-21 | 大日本印刷株式会社 | 情報処理装置、情報処理方法、映像データ、プログラム、及び情報処理システム |
JP2020047087A (ja) | 2018-09-20 | 2020-03-26 | いすゞ自動車株式会社 | 車両用監視装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2022091970A1 (ja) | 2022-05-05 |
JPWO2022091970A1 (ja) | 2022-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6042015B1 (ja) | オンライン面接評価装置、方法およびプログラム | |
CN115413348B (zh) | 用于自动验证和量化面试问题回答的系统和方法 | |
JP5195106B2 (ja) | 画像修正方法、画像修正システム、及び画像修正プログラム | |
US20140129207A1 (en) | Augmented Reality Language Translation | |
Iwasaki et al. | The challenges of multimodality and multi-sensoriality: Methodological issues in analyzing tactile signed interaction | |
US20050131744A1 (en) | Apparatus, system and method of automatically identifying participants at a videoconference who exhibit a particular expression | |
JP2018124604A (ja) | 接客支援システム、接客支援装置及び接客支援方法 | |
JP2005124160A (ja) | 会議支援システム、情報表示装置、プログラム、及び制御方法 | |
US20220327309A1 (en) | METHODS, SYSTEMS, and MACHINE-READABLE MEDIA FOR TRANSLATING SIGN LANGUAGE CONTENT INTO WORD CONTENT and VICE VERSA | |
JP7279494B2 (ja) | 会議支援装置、および会議支援システム | |
JP2016103081A (ja) | 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム | |
KR102263154B1 (ko) | 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법 | |
JP2020173714A (ja) | 対話支援装置、対話支援システム、及び対話支援プログラム | |
KR102412823B1 (ko) | 번역 기능을 제공하는 실시간 양방향 온라인 회의 시스템 | |
JP2000184345A (ja) | マルチモーダルコミュニケーション支援装置 | |
JP4077656B2 (ja) | 発言者特定映像装置 | |
Berke | Displaying confidence from imperfect automatic speech recognition for captioning | |
JP7231301B2 (ja) | オンライン会議サポートシステムおよびオンライン会議サポートプログラム | |
US20050131697A1 (en) | Speech improving apparatus, system and method | |
CN116018789A (zh) | 在线学习中用于对学生注意力进行基于上下文的评估的方法、系统和介质 | |
JP2010086356A (ja) | 意識関与度測定装置、意識関与度測定方法および意識関与度測定プログラム | |
JP7096626B2 (ja) | 情報抽出装置 | |
JP7197957B2 (ja) | 反応解析システムおよび反応解析装置 | |
KR102278162B1 (ko) | 사용자와 상호작용하는 스피치 보조 로봇의 동작 방법 | |
KR20160122869A (ko) | 로봇 팔을 이용한 언어 변환이 가능한 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220518 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220518 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7231301 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |