JP6872066B1 - コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム - Google Patents

コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム Download PDF

Info

Publication number
JP6872066B1
JP6872066B1 JP2020115477A JP2020115477A JP6872066B1 JP 6872066 B1 JP6872066 B1 JP 6872066B1 JP 2020115477 A JP2020115477 A JP 2020115477A JP 2020115477 A JP2020115477 A JP 2020115477A JP 6872066 B1 JP6872066 B1 JP 6872066B1
Authority
JP
Japan
Prior art keywords
participants
predetermined
participant
recognized
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020115477A
Other languages
English (en)
Other versions
JP2022013123A (ja
Inventor
好規 久米
好規 久米
鈴木 貴博
貴博 鈴木
奨 定清
奨 定清
敏幸 金子
敏幸 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CAC Corp
Original Assignee
CAC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CAC Corp filed Critical CAC Corp
Priority to JP2020115477A priority Critical patent/JP6872066B1/ja
Application granted granted Critical
Publication of JP6872066B1 publication Critical patent/JP6872066B1/ja
Priority to PCT/JP2021/020828 priority patent/WO2022004244A1/ja
Publication of JP2022013123A publication Critical patent/JP2022013123A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】キャプチャした画像や音声がコンピュータ上で表示や再生されない場合であっても参加者の反応を把握可能な、コンピュータを介したコミュニケーションを実施するための方法等を提供すること、
【解決手段】コンピュータを介したコミュニケーションを実施するための方法が提供される。この方法は、コンピュータが、参加者が使用するデジタル・カメラでキャプチャした画像を解析して、当該参加者の状態を認識するステップ720と、ある参加者が使用するコンピュータが、別の参加者が使用するデジタル・カメラでキャプチャした画像の表示に代えて、当該別の参加者の認識された状態に対応した表示を行うステップ740とを含む。
【選択図】図7

Description

本発明は、コンピュータを介したコミュニケーションに関する。より詳細には、本発明は、限定するわけではないが、コンピュータを介したオンライン会議(「ウェブ会議」と呼ばれることもある。)やオンラインでの打ち合わせ、オンライン授業やオンラインでの塾、オンライン研修、オンライン・プレゼンテーションやオンラインでの講演、オンライン診療、オンラインでのヘルプデスク等(以下、「オンライン会議等」)という。)に関する。
コンピュータを介したオンライン会議を実施するためのサービスが存在する(非特許文献1を参照。)。このようなサービスによれば、ある参加者が使用するデジタル・カメラ及びマイクでそれぞれキャプチャした画像及び音声が、別の参加者が使用するコンピュータで表示及び再生されることになる。
また、オンライン会議参加者の端末ごとの音声を取得して、その発言の量やタイミングを定量化してリアルタイムで画面上に表示する技術が開発されている(非特許文献2を参照。)。
更に、電子会議知能を用いて会議内容を解析し、会議内メタデータを生成する技法が提案されている(特許文献1を参照。)。この技法は、生成された会議内メタデータに基づき表示を行うことを含んでいる(当該文献の図2、7A及び7B等を参照。)。
特開2018−170009号公報
チャット、会議、通話、コラボレーション _ Microsoft Teams,[online],[令和2年6月17日検索]、インターネット〈URL:https://www.microsoft.com/ja-jp/microsoft-365/microsoft-teams/group-chat-software〉 株式会社リバネスとオンライン会議のリアルタイム定量化システムを開発しました,[online],[令和2年6月17日検索]、インターネット〈URL:https://www.hylable.com/news/20200608/〉
オンライン会議の参加者は自宅からオンライン会議に参加することがあり、服装がラフである、化粧をしていない、部屋を見せたくない等の理由により、キャプチャした画像を他の参加者のコンピュータ上で表示させたくないというニーズが存在する。また、長時間コンピュータ上で参加者の顔を表示させ続けたままオンライン会議に参加すると、直接対面しての会議と比較して参加者が疲弊する傾向があることが判明した。
また、非特許文献1に記載されているような従来のサービスを用いて実施されるオンライン会議において参加者が多数にのぼる場合、一部の参加者のキャプチャ画像は表示されないか、又は、参加者1人あたりのキャプチャ画像が小さくなるという問題があった。また、従来のオンライン会議サービスによると、複数の参加者が同時にしゃべると、そのうちの1人の参加者の声のみが各参加者のコンピュータ上で再生されるという問題があった。更には、参加者はマイクをオフにしてオンライン会議に参加することがあるという問題があった。これら問題は、オンライン会議において、参加者による他の参加者の反応の把握を困難にするものである。
更には、オンライン会議であるか直接対面しての会議であるかを問わず、会議のどの部分でどのような反応が参加者からあったかを事後的に把握したいというニーズが存在する。
本明細書に記載された発明(以下、「本発明」という。)は以上に鑑みてなされたものである。
本発明の少なくとも一部の課題は、キャプチャした画像や音声がコンピュータ上で表示や再生されない場合であっても参加者の反応を把握可能な、コンピュータを介したコミュニケーションを実施するための方法等を提供することである。
また、本発明の少なくとも一部の課題は、多数の参加者が存在する場合であっても各参加者の反応を容易に把握可能な、コンピュータを介したコミュニケーションを実施するための方法等を提供することである。
更に、本発明の少なくとも一部の課題は、コンピュータを介したコミュニケーションを改善するための情報を提示可能な方法等を提供することである。
本発明の実施形態によれば、コンピュータを介したコミュニケーションを実施するための方法が提供される。この方法は、コンピュータが、参加者が使用するデジタル・カメラでキャプチャした画像を解析して、当該参加者の状態を認識するステップと、ある参加者が使用するコンピュータが、別の参加者が使用するデジタル・カメラでキャプチャした画像の表示に代えて、当該別の参加者の認識された状態に対応した表示を行うステップとを含む。
一実施形態において、ある参加者が使用するコンピュータが、別の参加者が使用するデジタル・カメラでキャプチャした画像の表示に代えて、当該別の参加者の認識された状態に対応した表示を行う前記ステップは、当該別の参加者の認識された表情及び感情の一方又は双方に対応したアバターの画像を表示するステップと、当該別の参加者の認識された顔の動きに応じて顔を変化させながらアバターを表示するステップと、当該別の参加者が席を外していると認識されたか否かに応じて、アバターの表示と非表示とを切り替えるステップとのうちの少なくとも1つを含んでいてよい。
かかる構成によれば、参加者は、自身の顔や自宅等を映すことなく、また、マイクをオフにしている場合であっても、表情や反応等を他の参加者に伝えることができる。
一実施形態である方法は、ある参加者が使用するコンピュータが、別の参加者が使用するデジタル・カメラでキャプチャした画像の表示に代えての当該別の参加者の認識された状態に対応した前記表示とは別に、当該別の参加者を含む所定の複数の参加者の各々に対応した領域において、当該参加者の認識された状態に対応した表示を行うステップを含んでいてよい。
かかる構成によれば、参加者は、オンライン会議等の全体の雰囲気等を一目で把握することができる。
一実施形態において、ある参加者が使用するコンピュータが、各参加者の領域において、当該参加者の認識された状態に対応した表示を行う前記ステップは、各参加者の領域の背景色を、当該参加者の認識された状態に対応した色とするステップを含んでいてよい。
かかる構成によれば、参加者は、オンライン会議等の参加者が多数にのぼる場合であっても、当該会議等の全体の雰囲気等を一目で把握することができる。
一実施形態である方法は、コンピュータが、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合を計算するステップと、ある参加者が使用するコンピュータが、計算された前記数又は割合を表す情報を表示するステップとを更に含んでいてよい。
かかる構成によれば、オンライン会議等の雰囲気等を定量化することができる。
また、かかる構成によれば、オンライン会議等において多数決やアンケートの実施等を容易に行うことができる。
一実施形態において、ある参加者が使用するコンピュータが、計算された前記数又は割合を表す情報を表示する前記ステップは、計算された前記数又は割合の時間変化を表す情報を表示するステップを含んでいてよい。
かかる構成によれば、オンライン会議等の雰囲気等の変化を可視化することができる。
一実施形態である方法は、コンピュータが、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合と所定の閾値との比較を行うステップと、前記比較が所定の結果であるときに、ある参加者が使用するコンピュータが、所定の効果音を再生するステップとを更に含んでいてよい。
かかる構成によれば、状況に応じた効果音を再生することにより、オンライン会議等の臨場感を高めることができる。
一実施形態である方法は、コンピュータが、所定の状態が認識された参加者が存在するかを判定するステップと、所定の状態が認識された参加者が存在すると判定されたときに、コンピュータが、所定の状態が認識された参加者について通知するステップとを更に含んでいてよい。
かかる構成によれば、オンライン会議等の参加者が多数にのぼる場合であっても、例えば挙手をした参加者を見逃さずに対処することができる。
一実施形態である方法は、コンピュータが、所定の複数の参加者の各々の、複数の時点の各々において認識された状態に基づき、所定の複数の参加者の各々について全体的な評価値を計算するステップと、ある参加者が使用するコンピュータが、前記複数の参加者の各々について計算された前記全体的な評価値に基づく表示を行うステップとを更に含んでいてよい。
かかる構成によれば、例えば評価値として参加度を計算することにより、参加度の高いユーザを特定することができる。
一実施形態である方法は、コンピュータが、所定の複数の参加者の各々の、複数の時点の各々において認識された状態に基づき、参加者全体について複数の時点の各々における評価値を計算するステップと、コンピュータが、参加者全体について計算された複数の時点の各々における評価値に基づき、1以上の時点を選択するステップと、ある参加者が使用するコンピュータが、選択された1以上の時点についての表示を行うステップと
を更に含んでいてよい。
かかる構成によれば、例えば評価値として反応度を計算して、反応度の高かったシーンを見返すことにより、オンライン会議等の今後の改善に役立てることができる。
本発明の別の実施形態によれば、コンピュータを介したコミュニケーションを実施するためのプログラムが提供される。このプログラムは、コンピュータに、参加者が使用するデジタル・カメラでキャプチャした画像を解析して、当該参加者の状態を認識するステップと、参加者が使用するデジタル・カメラでキャプチャした画像の表示に代えて、当該参加者の認識された状態に対応した画像を出力するステップとを実行させる。
一実施形態であるプログラムは、コンピュータに、当該参加者の認識された状態に対応した前記画像として、当該参加者の認識された表情及び感情の一方又は双方に対応したアバターの画像を生成するステップと、当該参加者の認識された顔の動きに応じて、顔を変化させながらアバターの画像を生成するステップと、当該参加者が席を外していると認識されたか否かに応じて、アバターの表示と非表示とが切り替えられた画像を生成するステップとのうちの少なくとも1つを更に実行させることができる。
かかる構成によれば、参加者は、自身の顔や自宅等を映すことなく、また、マイクをオフにしている場合であっても、表情や反応等を他の参加者に伝えることができる。
一実施形態であるプログラムは、コンピュータに、所定の複数の参加者の各々に対応した領域であって、各参加者の領域の背景色が、当該参加者の認識された状態に対応した色である領域を表示するステップを更に実行させることができる。
かかる構成によれば、参加者は、オンライン会議等の参加者が多数にのぼる場合であっても、当該会議等の全体の雰囲気等を一目で把握することができる。
一実施形態であるプログラムは、コンピュータに、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合を計算するステップと、計算された前記数又は割合を表す情報を表示するステップとを更に実行させることができる。
かかる構成によれば、オンライン会議等の雰囲気等を定量化することができる。
また、かかる構成によれば、オンライン会議等において多数決やアンケートの実施等を容易に行うことができる。
一実施形態において、計算された前記数又は割合を表す情報を表示する前記ステップは、計算された前記数又は割合の時間変化を表す情報を表示するステップを含んでいてよい。
かかる構成によれば、オンライン会議等の雰囲気等の変化を可視化することができる。
一実施形態であるプログラムは、コンピュータに、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合と所定の閾値との比較を行うステップと、前記比較が所定の結果であるときに、所定の効果音を再生するステップとを更に実行させることができる。
かかる構成によれば、状況に応じた効果音を再生することにより、オンライン会議等の臨場感を高めることができる。
一実施形態であるプログラムは、コンピュータに、所定の状態が認識された参加者が存在するかを判定するステップと、所定の状態が認識された参加者が存在すると判定されたときに、所定の状態が認識された参加者について通知するステップとを更に実行させることができる。
かかる構成によれば、オンライン会議等の参加者が多数にのぼる場合であっても、例えば挙手をした参加者を見逃さずに対処することができる。
一実施形態であるプログラムは、コンピュータに、所定の複数の参加者の各々の、複数の時点の各々において認識された状態に基づき、所定の複数の参加者の各々について全体的な評価値を計算するステップと、前記複数の参加者の各々について計算された前記全体的な評価値に基づく表示を行うステップとを更に実行させることができる。
かかる構成によれば、例えば評価値として参加度を計算することにより、参加度の高いユーザを特定することができる。
一実施形態であるプログラムは、コンピュータに、所定の複数の参加者の各々の、複数の時点の各々において認識された状態に基づき、参加者全体について複数の時点の各々における評価値を計算するステップと、参加者全体について計算された複数の時点の各々における評価値に基づき、1以上の時点を選択するステップと、選択された1以上の時点についての表示を行うステップとを更に実行させることができる。
かかる構成によれば、例えば評価値として反応度を計算して、反応度の高かったシーンを見返すことにより、オンライン会議等の今後の改善に役立てることができる。
本発明の更に別の実施形態によれば、コンピュータを介したコミュニケーションを実施するためのシステムが提供される。このシステムは、参加者が使用するデジタル・カメラでキャプチャした画像を解析して、当該参加者の状態を認識する状態認識部と、参加者が使用するデジタル・カメラでキャプチャした画像の表示に代えて、当該参加者の認識された状態に対応した画像を出力する仮想カメラとを含む。
一実施形態であるシステムは、当該参加者の認識された状態に対応した前記画像として、当該参加者の認識された表情及び感情の一方又は双方に対応したアバターの画像を生成することと、当該参加者の認識された顔の動きに応じて、顔を変化させながらアバターの画像を生成することと、当該参加者が席を外していると認識されたか否かに応じて、アバターの表示と非表示とが切り替えられた画像を生成することとのうちの少なくとも1つ行う状態可視化部を更に含んでいてよい。
かかる構成によれば、参加者は、自身の顔や自宅等を映すことなく、また、マイクをオフにしている場合であっても、表情や反応等を他の参加者に伝えることができる。
一実施形態であるシステムは、所定の複数の参加者の各々に対応した領域であって、各参加者の領域の背景色が、当該参加者の認識された状態に対応した色である領域を含むビューア画面を生成するビューアを更に含んでいてよい。
かかる構成によれば、参加者は、オンライン会議等の参加者が多数にのぼる場合であっても、当該会議等の全体の雰囲気等を一目で把握することができる。
一実施形態であるシステムは、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合を計算し、計算された前記数又は割合を表す情報を含むビューア画面を生成するビューアを更に含んでいてよい。
かかる構成によれば、オンライン会議等の雰囲気等を定量化することができる。
また、かかる構成によれば、オンライン会議等において多数決やアンケートの実施等を容易に行うことができる。
一実施形態において、前記ビューア画面は、計算された前記数又は割合の時間変化を表す情報を含んでいてよい。
かかる構成によれば、オンライン会議等の雰囲気等の変化を可視化することができる。
一実施形態であるシステムは、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合と所定の閾値との比較を行い、前記比較が所定の結果であるときに、所定の効果音を再生するビューアを更に含んでいてよい。
かかる構成によれば、状況に応じた効果音を再生することにより、オンライン会議等の臨場感を高めることができる。
一実施形態であるシステムは、所定の状態が認識された参加者が存在するかを判定し、所定の状態が認識された参加者が存在すると判定されたときに、所定の状態が認識された参加者について通知するビューアを更に含んでいてよい。
かかる構成によれば、オンライン会議等の参加者が多数にのぼる場合であっても、例えば挙手をした参加者を見逃さずに対処することができる。
一実施形態であるシステムは、所定の複数の参加者の各々の、複数の時点の各々において認識された状態に基づき、所定の複数の参加者の各々について全体的な評価値を計算し、前記複数の参加者の各々について計算された前記全体的な評価値に基づく表示を含むレポート画面を生成するレポーティング部を更に含んでよい。
かかる構成によれば、例えば評価値として参加度を計算することにより、参加度の高いユーザを特定することができる。
一実施形態であるシステムは、所定の複数の参加者の各々の、複数の時点の各々において認識された状態に基づき、参加者全体について複数の時点の各々における評価値を計算し、参加者全体について計算された複数の時点の各々における評価値に基づき、1以上の時点を選択し、選択された1以上の時点についての表示を含むレポート画面を生成する
レポーティング部を更に含んでいてよい。
かかる構成によれば、例えば評価値として反応度を計算して、反応度の高かったシーンを見返すことにより、オンライン会議等の今後の改善に役立てることができる。
本発明の一実施形態に係る例示のシステム100が含む構成要素のブロック図である。 例示のシステム100が含む機能又は手段について説明するためのブロック図である。 ジェスチャの例300を表す図である。 例示のオンライン会議画面400を表している。 例示のビューア画面500を表している。 例示のレポート画面600を表している。 コンピュータを介したコミュニケーションを実施するための例示の方法700のフローチャートである。 コンピュータを介したコミュニケーションを実施するための例示の方法800のフローチャートである。 コンピュータを介したコミュニケーションを実施するための例示の方法900Aのフローチャートである。 コンピュータを介したコミュニケーションを実施するための例示の方法900Bのフローチャートである。 コンピュータを介したコミュニケーションを実施するための例示の方法900Cのフローチャートである。 コンピュータを介したコミュニケーションを実施するための例示の方法1000のフローチャートである。 コンピュータを介したコミュニケーションを実施するための例示の方法1100のフローチャートである。 コンピュータを介したコミュニケーションを実施するための例示の方法1200Aのフローチャートである。 コンピュータを介したコミュニケーションを実施するための例示の方法1200Bのフローチャートである。 コンピュータのハードウエア構成の一例を表す図である。
1 本発明の一実施形態
本発明の一実施形態は、コンピュータを介したコミュニケーションを実施するためのシステムである。なお、このコミュニケーションはオンライン会議等のうちの任意のものであってよいが、以下の説明では例示として、このコミュニケーションはオンライン会議であると仮定している。
図1は、コンピュータを介したコミュニケーションを実施するための例示のシステム100が含む構成要素のブロック図である。
110A〜110Cは、コミュニケーションの参加者が使用するコンピュータであるクライアントを示している。以下、クライアント110A〜110Cの各々を区別せずに「クライアント110」という。図1ではクライアント110は3つのみ描かれているが、実際にはクライアント110は参加者の数だけ存在する。クライアント110は、少なくともディスプレイを有する。また、クライアント110は、マイク及びスピーカを利用可能であることが好ましい。
120A〜120Cは、クライアント110A〜110Cのそれぞれと通信可能に接続されており、オンライン会議の参加者が使用するデジタル・カメラ(以下、単に「カメラ」という。)を示している。以下、カメラ120A〜120Cの各々を区別せずに「カメラ120」という。カメラ120はクライアント110に内蔵されていることもある。図1では1つのクライアント110に1つのカメラ120が接続されているが、複数のカメラ120が接続されたクライアント110が存在する場合もある。
130は、インターネットを含むことがある1以上のネットワークから構成されたネットワークを示している。
140は、ネットワーク130を介してクライアント110と通信可能に接続されたコンピュータであるサーバを示している。サーバ140は、1以上のコンピュータから構成されていてよいし、あるいはいわゆるクラウドに相当するものであってよい。
なお、システム100により実施されるコミュニケーションは、従来のオンライン会議サービスを利用するものであり、少なくともクライアント110は、ネットワーク130を介してそのようなサービスに係る図示されないコンピュータとも通信可能に接続されている。
図2は、システム100が含む機能又は手段について説明するためのブロック図である。
クライアント110が含む111は、カメラ120がキャプチャした画像を解析して、カメラ120を使用しているコミュニケーションの参加者即ちコンピュータ110及びカメラ120の使用者の状態を認識するための状態認識部を示している。カメラ120は動画をキャプチャすることができ、状態認識部111が行う画像の解析は、動画を構成する一連の画像を解析することであってよい。また、状態認識部111が認識する状態は、
・ 参加者の感情(例えば、喜び、悲しみ、驚き、怒り、軽蔑、嫌悪、恐怖、肯定的/否定的、表情の豊かさ。)
・ 参加者の表情(例えば、笑顔、目を閉じる、眉を下げる、目を細くする。)
・ 参加者の顔の動き
・ 参加者が行ったジェスチャ
・ 参加査が席を外しているか否か
のうちの1以上を含んでいてよい。状態認識部111は、従来技術を用いて参加者の状態を認識することができる。また、認識された参加者の状態は、当該状態の強さや可能性等を表す数値を含んでいてもよく、この場合、後述する具体的な処理においては、当該数値と所定の閾値との比較が所定の結果となるとき、例えば、当該数値が所定の閾値以上であるときに、当該状態が認識されたものとしてよい。
例えば、参加者の顔の動きや表情、感情の認識にはAffectivaが提供しているAffdexを用いることができる。Affdexによれば、ある参加者が使用するカメラ120がキャプチャした画像から、当該参加者の顔の動きや表情、感情の強さを数値として得ることができる。なお、Affdexによれば、当該画像に参加者が映っていない場合には、これら数値はゼロとなる。
また、例えば、参加者が行ったジェスチャの認識には深層学習によるクラス分類の技術を用いることができる。深層学習によるクラス分類によれば、ある参加者が使用するカメラ120がキャプチャした画像が、あるジェスチャに対応するクラスに分類される可能性を数値として得ることができる。なお、図3はジェスチャの例300を表しているが、認識されるジェスチャは、これに限定されるわけではない。
更に、例えば、参加者が席を外しているか否かの認識には物体検出又は顔検出の技術を用いることができる。物体検出又は顔検出によれば、ある参加者が使用するカメラ120がキャプチャした画像から物体又は顔が検出されたか否かに基づき、参加者が席を外しているか否かを真偽値(true又はfalse)として得ることができる。
状態認識部111は、サーバ140及び後述する状態可視化部に、認識された状態を表す情報を提供することができる。当該情報は、任意の形式であってよい。例えば、当該情報は、状態の名前をキーとし、当該状態について得られた数値又は真偽値を値とするJSON形式であってよい。なお、サーバ140と状態可視化部とに提供される情報とは異なっていてもよく、サーバ140と状態可視化部との一方に提供される情報は、他方に提供される情報の一部であってもよい。また、状態認識部111は、定期的に、又は、異なる状態が認識される毎に、サーバ140と状態可視化部の一方又は双方に情報を提供することができる。なお、サーバ140と状態可視化部との情報の提供タイミングは、同一であっても異なっていてもよい。更に、状態認識部111は、時間を表す情報、例えば、状態が認識された時刻とともに、認識された状態を表す情報を出力することができる。
クライアント110が含む112は、状態認識部111からの情報に基づき、参加者の認識された状態を可視化する状態可視化部を示している。状態可視化部112は、参加者の認識された状態に対応した画像を生成することができる。生成される画像は、
・ 認識された状態に対応した参加者のアバター
・ 認識された状態に対応した色を有する背景
・ 認識された状態に対応した文字やアイコン、画像(例えば、ジェスチャを示すアイコンや表情に応じた絵文字等)
のうちの1以上を含んでいてよい。アバターの画像は、クライアント110のメモリから又はネットワーク130を介して取得してよい。また、認識された状態の各々と生成される画像との対応は、参加者ごとに設定できてもよいが、認識された状態の各々と生成される画像の少なくとも一部の要素(例えば、背景色)との対応関係は、参加者全体で同じであることが好ましい。
状態可視化部112は、例えば、参加者の認識された状態として喜びの感情又は笑顔の表情が認識された場合、背景が黄色の笑顔を有するアバターの画像を生成することができる。
状態可視化部112は、例えば、所定のアバターの画像を取得し、参加者の状態として顔の動きが認識されたときに、従来技術の深層学習による顔向き推定又は顔特徴点認識により当該顔の動きに合わせてアバターの顔を変化させた一連の画像を生成することができる。
状態可視化部112は、例えば、参加者の状態として参加者による挙手のジェスチャを認識したときに、挙手しているアバターの画像を生成することができる。あるいは、状態可視化部112は、例えば、参加者の状態として参加者による挙手のジェスチャを認識したときに、所定のアバターの画像に挙手のジェスチャを示すアイコンを重ねた画像を生成することができる。
状態可視化部112は、参加者の認識された状態が席を外しているか否かに応じて、生成される画像を切り替えることができる。状態可視化部112は、例えば、参加者の状態として席を外していると認識した場合に所定のアバターの画像を、そうでない場合にアバターが含まれていない画像を生成することができる。
クライアント110が含む113は、状態可視化部112により生成された画像をあたかもキャプチャした画像であるかのように出力する仮想カメラを示している。仮想カメラ113は、カメラ120の代替として、クライアント110において実行される従来のオンライン会議サービスに係るアプリケーションへの入力として用いることができるものである。
図4は、従来のオンライン会議サービスに係るアプリケーションによりクライアント110において表示される例示のオンライン会議画面400を表している。
410A〜410Dは、それぞれ、オンライン会議の参加者に対応した領域を示している。以下、領域410A〜410Dを区別せずに「領域410」という。従来のオンライン会議サービスに係るアプリケーションへの入力としてカメラ120を選択した場合、領域410にはカメラ120がキャプチャした画像が表示されるところ、当該アプリケーションへの入力として仮想カメラ113を選択することにより、図4に表されるような画面が表示されることになる。即ち、従来のオンライン会議サービスに係るアプリケーションへの入力として仮想カメラ113を用いることにより、領域410には仮想カメラ130の出力が表示されることになる。
領域410A及び410Bには、当該領域に対応する参加者が使用するクライアント110の状態可視化部112が生成した、背景が白色のアバターの画像が表示されている。領域410Cには、当該領域に対応する参加者が使用するクライアント110の状態可視化部112が生成した、アバターが含まれていない画像が表示されている。この画像は、カメラ120がキャプチャした画像を表示することなく、当該参加者が席を外していることを示すことができるものである。領域410Dには、当該領域に対応する参加者が使用するクライアント110の状態可視化部112が生成した、背景が黄色の笑顔のアバターの画像を示している。この画像は、カメラ120がキャプチャした画像を表示することなく、当該参加者が笑顔であるか又は喜んでいることを示すことができるものである。
なお、仮想カメラ113は、カメラ120がキャプチャした画像をも入力として受け、設定により、カメラ120がキャプチャした画像と、状態可視化部112が生成した画像とを切り替えて出力するように構成されていてもよい。
図2に戻ると、サーバ140は、複数のクライアント110の各々の状態認識部111から提供された情報を収集して記憶する。サーバ140は、記憶した情報を、要求に応答して、当該要求を行ったクライアント110に提供する。1つのクライアント110に提供される情報は、所定の複数の参加者の認識された状態であってよい。また、1度に出力される状態は、所定の複数の参加者の、1以上の時点において認識された状態であってよい。なお、「所定の複数の参加者」は、本方法を使用してコミュニケーションに参加している全参加者であってよいが、全参加者のうちの特定の参加者(オンライン会議の開催者等)を除いた参加者であってもよい。
クライアント110が含む114は、オンライン会議画面400とは別のビューア画面を生成するためのビューアを示している。オンライン会議画面400とビューア画面とは、クライアント110において同時に表示されていてよい。また、オンライン会議画面400とビューア画面とは、クライアント110の異なるウィンドウや異なる仮想デスクトップ、複数ディスプレイ環境における異なるディスプレイに表示されるよう構成されていてよい。
図5は、例示のビューア画面500を表している。
510の各々は、所定の複数の参加者の各々に対応した領域を示している。各領域には、各ユーザの認識された状態に対応した画像を表示することができる。ビューア114は、状態可視化部112と同様の機能を有することができ、従って、各領域に表示される各画像は、状態可視化部112が生成するような画像であってよい。
領域510のうちの上から1行左から1及び2列目、2行左から3及び4列目並びに3行左から2列目の領域は、背景が白色のアバターの画像を示している。
領域510のうちの上から2行左から1列目の領域は、何も含まれていない画像を示している。
領域510のうちの上から1行左から3及び4列目、2行左から2列目並びに3行左から1列目は、背景が黄色の笑顔のアバターの画像を示している。
領域510のうちの上から3行左から3列目の領域は、背景が赤色の怒りの感情を表すアバターの画像を示している。
領域510のうちの上から3行左から4列目の画像は、背景が白色の挙手したアバターの画像を示している。
領域510によれば、例えば、喜びの感情又は笑顔が状態として認識されたときに背景が黄色の笑顔のアバターの画像を、怒りの感情又は表情が状態として認識されたときに背景が赤色の怒りの感情を表すアバターの画像をそれぞれ生成するよう構成することにより、自身のクライアント110に表示されたビューア画面500を参照した参加者は、他の参加者の表情又は感情を一目で把握することができる。なお、オンライン会議の参加者の数が多数にのぼる場合、領域510ごとの面積が小さくなり、領域510の詳細の確認が難しくなることから、領域510に表示される画像は、小さくとも参加者の認識された状態が判別できるものが好ましい。そのため、認識された状態に応じて領域510の背景色を変化させることは特に有用である。また、そのため、領域510は、アバターの画像を表示させずに単色で塗りつぶすことにより、背景色即ち色のみで参加者の状態を表すように構成されていてもよい。
また、領域510のうちの上から3行左から4列目の画像には、強調520が付されている。強調520は、当該領域に対応した参加者についての通知を他の参加者に対して行うものである。強調520のような通知によれば、所定の複数の参加者のうち、所定の状態、例えば、挙手のジェスチャを行った即ち挙手した参加者を一目で把握することができる。オンライン会議の参加者の数が多数にのぼる場合、領域510ごとの面積が小さくなり、領域510の詳細の確認が難しくなることから、所定の状態が認識された参加者についての通知を行うことは特に有用である。なお、強調520を付すことによる通知はあくまで例示であり、他の任意の手法、例えば、所定の状態が認識された参加者に対応する領域510を点滅させる、当該領域510を拡大する等により通知を行ってよいことは言うまでもない。また、通知を行う際、クライアント110は通知音として所定の効果音を再生してもよい。
なお、オンライン会議画面400に領域410が表示される参加者と、ビューア画面500に領域510が表示される参加者とは同一である必要はない。
530は、1以上の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合を表す情報が表示される領域を示している。領域530によれば、所定の複数の参加者の全体的な状態を定量化することができる。オンライン会議の参加者の数が多数にのぼる場合、このような数又は割合を表示することは特に有用である。なお、このような数又は割合を表す情報は、各種グラフや表の形式で表示されてもよい。
具体的には、図5の領域530においては、領域510が表示されている所定の複数の参加者(計12名)のうち、笑顔又は喜びの感情が認識された参加者が約33%、怒りの感情が認識された参加者が約8%、そうでない参加者が約59%であることと、在席していると認識された参加者が11名、席を外していると認識された参加者が1名であることとが示されている。
また、領域530に係る1以上の所定の状態は、参加者が所定のジェスチャを行ったことであってよい。例えば、領域530には、手を挙げるジェスチャ(例えば、図3のジェスチャの例300におけるNo.02)を行ったと認識された参加者の数と、そうでない参加者の数とを表示することがきる。このような領域530によれば、オンライン会議にて多数決等を実施することが容易となる。また、例えば、領域530には、指先で「1」を表すジェスチャ(例えば、図3のジェスチャの例300におけるNo.08)を行ったと認識された参加者の数と、指先で「2」を表すジェスチャ(例えば、図3のジェスチャの例300におけるNo.09)を行ったと認識された参加者の数と、指先で「3」を表すジェスチャ(例えば、図3のジェスチャの例300におけるNo.10)を行ったと認識された参加者の数と、指先で「4」を表すジェスチャ(例えば、図3のジェスチャの例300におけるNo.11)を行ったと認識された参加者の数とを表示することができる。このような領域530によれば、例えば「Aと思う方は1を、Bと思う方は2を、Cと思う方は3を、Dと思う方は4を手で表して下さい。」といったことをオンライン会議上で発言することにより、選択肢A〜Dについてのアンケートを実施することが容易となる。
領域530は、1以上の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合の時間変化を表す情報を表示してもよい。このような数又は割合の時間変化を表す情報は、横軸を時間とし縦軸を数又は割合とする各種グラフや、複数の時点の各々における数又は割合を表す表、所定の時間間隔ごとの数又は割合の平均、中央値、最大値又は最小値等の統計値を表す表の形式で表示されてもよい。従って、領域530は、後述する図6の630に示すようなグラフとして表示されてよい。
また、ビューア114は、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合が所定の閾値を超えたときに、所定の効果音をクライアント110において再生させてもよい。例えば、所定の複数の参加者のうち、所定の状態として喜びの感情又は笑顔が認識された参加者の数又は割合が所定の閾値を超えたときに、拍手の効果音を再生することができる。このような効果音の再生によれば、直接対面しての会議のような臨場感をオンライン会議に与えることが可能となる。
なお、ある参加者が使用するクライアント110に表示されるビューア画面500と、別の参加者が使用するクライアント110に表示されるビューア画面500とは異なっていてもよい。また、以上の説明ではビューア画面500はビューア114が生成するものとしてきたが、ビューア画面500はサーバ140が生成し、ビューア114に提供するものであってもよい。
図2に戻ると、クライアント110が含む115は、終了したコミュニケーションについての分析結果を表示するレポート画面を生成するためのレポーティング部を示している。
図6は、例示のレポート画面600を表している。
610は、分析結果が表示されているコミュニケーションについてのビューア画面500の領域510がプレイバックされる領域を示している。領域610にはビューア画面500全体やオンライン会議画面400がプレイバックされてもよい。
620は、領域610に表示された画面の再生位置(時点)における、1以上の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合を表す情報が表示される領域を示している。従って、領域620の表示は、領域610における画面に同期して変化することができる。具体的には、図6の領域620においては、ある時点において、領域610が表示されている所定の複数の参加者(12名)のうち、笑顔又は喜びの感情が認識された参加者が約33%、怒りの感情が認識された参加者が約8%、そうでない参加者が約59%であることが示されている。
630は、1以上の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合の時間変化を表す情報が表示される領域を示している。図6の領域630において、当該情報は、横軸を時間とし縦軸を数又は割合とする折れ線グラフにより表されているが、領域530に関して述べたことと同様にその他のグラフや表の形式で表されてよいことは言うまでもない。
640は、領域610に表示された画面の再生位置を示すバーである。
レポーティング部115は、所定の複数の参加者の認識された状態に基づいて、任意の所定の定義に基づく各参加者の評価値を計算することができ、領域630は当該評価値の時間変化を表す情報を表示することができる。評価値は参加度であってよく、レポーティング部115は、認識された状態としての各参加者の表情や感情、所定のジェスチャの頻度、席を外していたか否かに基づいて参加度を計算することができる。例えば、ある参加者の参加度は、当該ある参加者について認識された1以上の表情の強さの数値の合計値と、当該ある参加者について認識された1以上の感情の強さの数値うちの最大値と、当該ある参加者について所定のジェスチャが認識されたか否かの値(認識されたときに1、そうでないときに0であってよい。以下同様。)との重み付け和であってよい。また、評価値はポジティブな反応の多寡であってよい。例えば、ある参加者のポジティブな反応の多寡は、当該ある参加者について認識された肯定的な所定の感情の強さの数値と、当該ある参加者について肯定的な所定のジェスチャが認識されたか否かの値との重み付け和から、当該ある参加者について認識された否定的な所定の感情の強さの数値と、当該ある参加者について否定的な所定のジェスチャが認識されたか否かの値との重み付け和を減算した値であってよい。なお、ある感情及びジェスチャが肯定的か否定的かは、所定の基準に基づき定めてよい。
2 本発明の別の一実施形態
本発明の別の一実施形態は、コンピュータを介したコミュニケーションを実施するための方法である。
図7は、コンピュータを介したコミュニケーションを実施するための例示の方法700のフローチャートである。
710は、クライアント110が、カメラ120により画像をキャプチャするステップを示している。
720は、クライアント110が、キャプチャした画像を解析して、クライアント110及びカメラ120を使用しているコミュニケーションの参加者の状態を認識するステップを示している。このステップは、クライアント110が含む状態認識部111により実行されてよい。
730は、クライアント110が、認識された状態に対応した画像を生成するステップを示している。このステップは、クライアント110が含む状態可視化部112により実行されてよい。
なお、ステップ720及び730は、クライアント110からキャプチャした画像の提供を受けることにより、クライアント110とは異なるコンピュータ、例えばサーバ140が実行するものであってよい。
740は、クライアント110が、キャプチャした画像に代えて、生成された画像を表示するステップを示している。このステップは、クライアント110が含む仮想カメラ113を介して、クライアント110における従来のオンライン会議サービスに係るアプリケーションにより実行されてよい。従って、このステップは、図4に表されるようなオンライン会議画面400を表示するステップの一部であってよい。
750は、クライアント110が、処理を終了すべきかを判定するステップを示している。ステップ750においては、任意の条件を満たしたときに処理を終了すべきと判定してよく、例えば、参加者からのコミュニケーションの終了の指示を受けたときに、処理を終了すべきと判定してよい。処理を終了すべきと判定した場合には方法700は終了し、そうでない場合には処理はステップ710へと戻りループする。
図8は、コンピュータを介したコミュニケーションを実施するための別の例示の方法800のフローチャートである。方法800は、同一のクライアント110において先に述べた例示方法と並列に実行されてよい。
820は、クライアント110が、サーバ140から、コミュニケーションの所定の複数の参加者の各々について、認識された状態を取得するステップを示している。このステップは、最新の認識された状態を取得するステップであってよい。
830は、クライアント110が、取得された各参加者の認識された状態に基づき、各参加者について認識された状態に対応した画像を生成するステップを示している。このステップは、クライアント110が含むビューア114により実行されてよい。
なお、ステップ820及び830は、クライアント110とは異なるコンピュータ、例えばサーバ140が実行するものであってよい。
840は、クライアント110が、コミュニケーションの所定の複数の参加者の各々に対応した各領域において、生成された画像を表示するステップを示している。このステップは、図5に表されるようなビューア画面500を表示するステップの一部であってよい。
850は、クライアント110が、処理を終了すべきかを判定するステップを示している。ステップ850はステップ750と同様のステップである。処理を終了すべきと判定した場合には方法800は終了し、そうでない場合には処理はステップ820へと戻りループする。
図9Aは、コンピュータを介したコミュニケーションを実施するための別の例示の方法900Aのフローチャートである。方法900Aは、同一のクライアント110において先に述べた例示方法と並列に実行されてよい。
910Aは、クライアント110が、サーバ140から、コミュニケーションの所定の複数の参加者の各々について、認識された状態を取得するステップを示している。このステップは、最新の認識された状態を取得するステップであってよい。
920Aは、クライアント110が、取得された各参加者の認識された状態に基づき、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合を計算するステップを示している。このステップは、複数の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合を計算するステップの一部であってよい。
なお、ステップ910A及び910Bは、クライアント110とは異なるコンピュータ、例えばサーバ140が実行するものであってよい。
930Aは、クライアント110が、計算された数又は割合を表す情報を表示するステップを示している。このステップにより表示される情報の例は、図5のビューア画面500における情報530のようなものであってよい。
940Aは、クライアント110が、処理を終了すべきかを判定するステップを示している。ステップ940Aはステップ750と同様のステップである。処理を終了すべきと判定した場合には方法900Aは終了し、そうでない場合には処理はステップ910Aへと戻りループする。
図9Bは、コンピュータを介したコミュニケーションを実施するための別の例示の方法900Bのフローチャートである。方法900Bは、同一のクライアント110において先に述べた例示方法と並列に実行されてよい。
910Bは、クライアント110が、後のステップにて用いる時点tを初期化するステップを示している。このステップは、時点tを表す変数に初期値を代入するステップであってよい。
920Bは、クライアント110が、サーバ140から、コミュニケーションの所定の複数の参加者の各々について、認識された状態を取得するステップを示している。このステップは、最新の認識された状態を取得するステップであってよい。
930Bは、クライアント110が、取得された各参加者の認識された状態に基づき、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合を計算するステップを示している。このステップは、複数の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合を計算するステップの一部であってよい。
940Bは、クライアント110が、計算された数又は割合を表す情報を、時点tに関連付けて表示するステップを示している。このステップは、例えば、計算された数又は割合の時間変化を表し、時間に対応した軸を有するグラフにおいて、時点tにおける計算された数又は割合についてのプロットを行うステップであってよい。
950Bは、クライアント110が、時点tをインクリメントするステップを示している。ステップ950Bは後述するループによって複数回実行されることがあり、このステップは、例えば、時点tを表す変数に、当該ステップの実行間隔に相当する時間を加算するステップであってよい。
なお、ステップ910B〜930B及び950Bは、クライアント110とは異なるコンピュータ、例えばサーバ140が実行するものであってよい。
960Bは、クライアント110が、処理を終了すべきかを判定するステップを示している。ステップ960Bはステップ750と同様のステップである。処理を終了すべきと判定した場合には方法900Bは終了し、そうでない場合には処理はステップ920Bへと戻りループする。
図9Cは、コンピュータを介したコミュニケーションを実施するための別の例示の方法900Cのフローチャートである。方法900Cは、同一のクライアント110において先に述べた例示方法と並列に実行されてよい。
910Cは、クライアント110が、サーバ140から、コミュニケーションの所定の複数の参加者の各々について、認識された状態を取得するステップを示している。このステップは、最新の認識された状態を取得するステップであってよい。
920Cは、クライアント110が、取得された各参加者の認識された状態に基づき、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合を計算するステップを示している。このステップは、複数の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合を計算するステップの一部であってよい。
930Cは、クライアント110が、計算された数又は割合が、所定の閾値以上であるかを判定するステップを示している。計算された数又は割合が閾値以上である場合、処理はステップ940Cに進み、そうでない場合、処理はステップ950Cに進む。ステップ930Cは、計算された数又は割合と、所定の閾値とを比較するステップの一例であり、計算された数又は割合が閾値以上である場合は、比較が所定の結果であるときの一例である。
なお、ステップ910C〜930Cは、クライアント110とは異なるコンピュータ、例えばサーバ140が実行するものであってよい。
940Cは、クライアント110が、所定の処理を実行するステップを示している。所定の処理の一例は、所定の効果音を再生することである。
950Cは、クライアント110が、処理を終了すべきかを判定するステップを示している。ステップ940Cはステップ750と同様のステップである。処理を終了すべきと判定した場合には方法900Cは終了し、そうでない場合には処理はステップ910Cへと戻りループする。
図10は、コンピュータを介したコミュニケーションを実施するための別の例示の方法1000のフローチャートである。方法1000は、同一のクライアント110において先に述べた例示方法と並列に実行されてよい。
1010は、クライアント110が、サーバ140から、コミュニケーションの所定の複数の参加者の各々について、認識された状態を取得するステップを示している。このステップは、最新の認識された状態を取得するステップであってよい。
1020は、クライアント110が、取得された各参加者の認識された状態に基づき、所定の状態が認識された参加者は存在するかを判定するステップを示している。所定の状態が認識された参加者は存在すると判定した場合、処理はステップ1030に進み、そうでない場合、処理はステップ1040に進む。
なお、ステップ1010及び1020は、クライアント110とは異なるコンピュータ、例えばサーバ140が実行するものであってよい。
1030は、クライアント110が、所定の処理を実行するステップを示している。所定の処理の一例は、所定の状態が認識された参加者についての通知を行うステップを示している。通知の手法は任意であるが、例えば、図5の強調520によって通知が行われてよい。
1040は、クライアント110が、処理を終了すべきかを判定するステップを示している。ステップ1040はステップ750と同様のステップである。処理を終了すべきと判定した場合には方法1000は終了し、そうでない場合には処理はステップ1010へと戻りループする。
図11は、コンピュータを介したコミュニケーションを実施するための別の例示の方法1100のフローチャートである。方法1100は、あるコミュニケーションが終了した後に実行されることが想定されたものである。
1110は、クライアント110が、サーバ140から、コミュニケーションの所定の複数の参加者の各々について、複数の時点の各々における認識された状態を取得するステップを示している。複数の時点は、コミュニケーションについて参加者の状態が認識された全時点であってよいが、これに限定されるわけではない。
1120は、クライアント110が、取得された各参加者の各時点において認識された状態に基づき、所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合の時間変化を計算するステップを示している。計算される所定の状態が認識された参加者の数又は割合の時間変化は、複数の時点の各々において所定の状態が認識された参加者の数又は割合であってよい。
なお、ステップ1110及び1120は、クライアント110とは異なるコンピュータ、例えばサーバ140が実行するものであってよい。
1130は、クライアント110が、計算された所定の状態が認識された参加者の数又は割合の時間変化を表す情報を表示するステップを示している。このステップにより表示される情報の例は、図6のレポーティング画面600における情報630のようなものであってよい。
図12Aは、コンピュータを介したコミュニケーションを実施するための別の例示の方法1200Aのフローチャートである。方法1200Aは、あるコミュニケーションが終了した後に実行されることが想定されたものであり、方法1100と並列に実行されてよい。
1210Aは、ステップ1110と同様のステップであり、クライアント110が、サーバ140から、コミュニケーションの所定の複数の参加者の各々について、複数の時点の各々における認識された状態を取得するステップを示している。
1220Aは、クライアント110が、取得された各参加者の各時点において認識された状態に基づき、各参加者の各時点における評価値を計算するステップを示している。参加者についての評価値は、上述したように、コミュニケーションへの当該参加者の参加度や、当該参加者のポジティブな反応を表すものであってよい。
1230Aは、クライアント110が、各参加者の各時点における計算された評価値に基づき、各参加者の全体的な評価値を計算するステップを示している。ある参加者の全体的な評価値は、当該ある参加者の各時点における計算された評価値の平均、中央値、最大値又は最小値等の統計値であってよい。
なお、ステップ1210A〜1230Aは、クライアント110とは異なるコンピュータ、例えばサーバ140が実行するものであってよい。
1240Aは、クライアント110が、各参加者の計算された全体的な評価値に基づく情報を表示するステップを示している。このような情報の例は、評価値に基づく参加者のランキング・リストである。
図12Bは、コンピュータを介したコミュニケーションを実施するための別の例示の方法1200Bのフローチャートである。方法1200Bは、あるコミュニケーションが終了した後に実行されることが想定されたものであり、方法1100及び方法1200Bと並列に実行されてよい。
1210Bは、ステップ1110と同様のステップであり、クライアント110が、サーバ140から、コミュニケーションの所定の複数の参加者の各々について、複数の時点の各々における認識された状態を取得するステップを示している。
1220Bは、ステップ1220Aと同様のステップであり、クライアント110が、取得された各参加者の各時点において認識された状態に基づき、各参加者の各時点における評価値を計算するステップを示している。
1230B、クライアント110が、各参加者の各時点における計算された評価値に基づき、参加者全体の各時点における評価値を計算するステップを示している。参加者全体のある時点における評価値は、各参加者のある時点における計算された評価値の平均、中央値、最大値又は最小値等の統計値であってよい。
1240Bは、クライアント110が、参加者全体の各時点における計算された評価値に基づき、複数の時点から1以上の時点を選択するステップを示している。このステップは、参加者全体の評価値が高い順に、複数の時点から1以上の時点を選択するステップであってよい。
なお、ステップ1210B〜1240Bは、クライアント110とは異なるコンピュータ、例えばサーバ140が実行するものであってよい。
1250Bは、クライアント110が、選択された1以上の時点について表示するステップを示している。このステップは、選択された1以上の時点の各時点におけるオンライン会議画面400やビューア画面500を再現して表示するステップであってよい。
3 本発明の更に別の一実施形態
本発明の更に別の一実施形態は、コンピュータに上記機能を実現させるか、コンピュータを上記手段として機能させるか、又は、コンピュータに上記方法を実行させるプログラムである。
本発明の更に別の一実施形態は、上記プログラムを記憶したコンピュータ可読記憶媒体、上記プログラムを記憶した非一時的記憶媒体、又は、上記プログラムを貯蔵したコンピュータ判読可能な貯蔵媒体であってもよい。
4 コンピュータ
以下、本発明の一実施形態を実施するために用いることができるコンピュータのハードウエア構成の一例について説明する。なお、本発明の一実施形態を実施するために用いることができるコンピュータは任意のものであってよく、例えば、パーソナル・コンピュータやタブレット・コンピュータ、スマートフォン、クラウド上のコンピュータ等である。
図13は、コンピュータのハードウエア構成の一例を表している。同図に示すように、コンピュータ1700は、ハードウエア資源として、主に、プロセッサ1710と、主記憶装置1720と、補助記憶装置1730と、入出力インターフェース1740と、通信インターフェース1750とを備えており、これらはアドレスバス、データバス、コントロールバス等を含むバスライン1760を介して相互に接続されている。なお、バスライン1760と各ハードウエア資源との間には適宜インターフェース回路(図示せず)が介在している場合もある。
プロセッサ1710は、コンピュータ全体の制御を行う。なお、1つのコンピュータは複数のプロセッサ1710を含む場合がある。このような場合、以上の説明における「プロセッサ」は、複数のプロセッサ1710の総称であってもよい。
主記憶装置1720は、プロセッサ1710に対して作業領域を提供し、SRAM(Static Random Access Memory)やDRAM(Dynamic Random Access Memory)等の揮発性メモリである。
補助記憶装置1730は、ソフトウエアであるプログラム等やデータ等を格納する、HDDやSSD、フラッシュメモリ等の不揮発性メモリである。当該プログラムやデータ等は、任意の時点で補助記憶装置1730からバスライン1760を介して主記憶装置1720へとロードされる。補助記憶装置1730は、コンピュータ可読記憶媒体、非一時的コンピュータ可読記憶媒体、又は、コンピュータ判読可能な貯蔵媒体として参照されることがある。なお、プログラムは、プロセッサに所望の処理を実行させる命令を含むものである。
入出力インターフェース1740は、情報を提示すること及び情報の入力を受けることの一方又は双方を行うものであり、デジタル・カメラ、キーボード、マウス、ディスプレイ、タッチパネル・ディスプレイ、マイク、スピーカ、温度センサ等である。
通信インターフェース1750は、ネットワーク130と接続されるものであり、ネットワーク130を介してデータを送受する。通信インターフェース1750とネットワーク130とは、有線又は無線で接続されうる。通信インターフェース1750は、ネットワークに係る情報、例えば、Wi−Fiのアクセスポイントに係る情報、通信キャリアの基地局に関する情報等も取得することがある。
上に例示したハードウエア資源とソフトウエアとの協働により、コンピュータ1700は、所望の手段として機能し、所望のステップを実行し、所望の機能を実現させることできることは、当業者には明らかであろう。
5 むすび
以上、本発明の実施形態の幾つかの例を説明してきたが、これらは例示にすぎず、本発明の技術的範囲を限定するものではないことが理解されるべきである。本開示の趣旨及び範囲から逸脱することなく、実施形態の変更、追加、改良などを適宜行うことができることが理解されるべきである。本発明の技術的範囲は、上述した実施形態のいずれによっても限定されるべきではなく、特許請求の範囲及びその均等物によってのみ規定されるべきである。
130…ネットワーク
300…ジェスチャの例
400…オンライン会議画面
410A〜410D…オンライン会議の少なくとも一部の参加者に対応した領域
500…ビューア画面
510…オンライン会議の所定の複数の参加者に対応した領域
520…強調
530…1以上の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合を表す情報
600…レポート画面
610…オンライン会議の所定の複数の参加者に対応した領域
620…ある時点における、1以上の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合を表す情報
630…1以上の所定の状態の各々について、所定の複数の参加者のうち当該状態が認識された参加者の数又は割合の時間変化を表す情報
640…再生位置を示すバー

Claims (31)

  1. コンピュータを介したコミュニケーションを実施するための方法であって、
    複数のコンピュータが、全体として、所定の複数の参加者の各々が使用するデジタル・カメラでキャプチャした画像を解析して、当該所定の複数の参加者の各々の状態を認識する画像解析ステップと、
    前記所定の複数の参加者のうちのある参加者が使用するコンピュータが、前記所定の複数の参加者のうちの別の参加者が使用するデジタル・カメラでキャプチャした前記画像の表示に代えて、前記画像解析ステップにおいて認識された当該別の参加者の状態に対応した表示を行うステップと、
    コンピュータが、前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、第1の所定の状態が認識された参加者の数又は割合を計算するステップと、
    前記所定の複数の参加者のうちのある参加者が使用するコンピュータが、計算された前記数又は割合を表す情報を表示するステップと
    を含む方法。
  2. 請求項1に記載の方法であって、
    前記所定の複数の参加者のうちのある参加者が使用するコンピュータが、計算された前記数又は割合を表す情報を表示する前記ステップは、計算された前記数又は割合の時間変化を表す情報を表示するステップを含む、
    方法。
  3. コンピュータを介したコミュニケーションを実施するための方法であって、
    複数のコンピュータが、全体として、所定の複数の参加者の各々が使用するデジタル・カメラでキャプチャした画像を解析して、当該所定の複数の参加者の各々の状態を認識する画像解析ステップと、
    前記所定の複数の参加者のうちのある参加者が使用するコンピュータが、前記所定の複数の参加者のうちの別の参加者が使用するデジタル・カメラでキャプチャした画像の表示に代えて、前記画像解析ステップにおいて認識された当該別の参加者の状態に対応した表示を行うステップと、
    コンピュータが、前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、第1の所定の状態が認識された参加者の数又は割合と所定の閾値との比較を行うステップと、
    前記比較が所定の結果であるときに、前記所定の複数の参加者のうちのある参加者が使用するコンピュータが、所定の効果音を再生するステップと
    を含む方法。
  4. 請求項1から3のうちの何れか一項に記載の方法であって、
    前記所定の複数の参加者のうちのある参加者が使用するコンピュータが、前記所定の複数の参加者のうちの別の参加者が使用するデジタル・カメラでキャプチャした前記画像の表示に代えて、当該別の参加者の認識された前記状態に対応した表示を行う前記ステップは、
    当該別の参加者の認識された表情及び感情の一方又は双方に対応したアバターの画像を表示するステップと、
    当該別の参加者の認識された顔の動きに応じて顔を変化させながらアバターを表示するステップと、
    当該別の参加者が席を外していることを、当該別の参加者の認識された前記状態が示しているか否かに応じて、アバターの表示と非表示とを切り替えるステップと
    のうちの少なくとも1つを含む、
    方法。
  5. 請求項1から4のうちの何れか一項に記載の方法であって、
    前記所定の複数の参加者のうちのある参加者が使用するコンピュータが、前記所定の複数の参加者のうちの別の参加者が使用するデジタル・カメラでキャプチャした画像の表示に代えての当該別の参加者の認識された前記状態に対応した前記表示とは別に、前記所定の複数の参加者の各々に対応した領域において、当該所定の複数の参加者の各々の認識された前記状態に対応した表示をそれぞれ行う各参加者状態表示ステップ
    を含む方法。
  6. 請求項5に記載の方法であって、
    前記各参加者状態表示ステップは、前記所定の複数の参加者の各々に対応した前記領域の背景色を、当該所定の複数の参加者の各々の認識された前記状態に対応した色とするステップを含む、
    方法。
  7. 請求項1から5のうちの何れか一項に記載の方法であって、
    コンピュータが、前記所定の複数の参加者の各々の認識された前記状態に基づき、第2の所定の状態が認識された参加者が存在するかを判定するステップと、
    前記第2の所定の状態が認識された参加者が存在すると判定されたときに、コンピュータが、前記第2の所定の状態が認識された参加者について通知するステップと
    を更に含む方法。
  8. 請求項1から7のうちの何れか一項に記載の方法であって、
    コンピュータが、前記所定の複数の参加者の各々の、複数の時点の各々において認識された前記状態に基づき、前記所定の複数の参加者の各々について全体的な評価値を計算するステップと、
    前記所定の複数の参加者のうちのある参加者が使用するコンピュータが、前記所定の複数の参加者の各々について計算された前記全体的な評価値に基づく表示を行うステップと
    を更に含む方法。
  9. 請求項1から8のうちの何れか一項に記載の方法であって、
    コンピュータが、前記所定の複数の参加者の各々の、複数の時点の各々において認識された前記状態に基づき、参加者全体について複数の時点の各々における評価値を計算するステップと、
    コンピュータが、参加者全体について計算された複数の時点の各々における前記評価値に基づき、1以上の時点を選択するステップと、
    前記所定の複数の参加者のうちのある参加者が使用するコンピュータが、選択された1以上の時点についての表示を行うステップと
    を更に含む方法。
  10. コンピュータを介したコミュニケーションを実施するためのプログラムであって、コンピュータに、
    所定の複数の参加者のうちのある参加者が使用するデジタル・カメラでキャプチャした画像を解析して、当該ある参加者の状態を認識するステップと、
    前記ある参加者が使用するデジタル・カメラでキャプチャした画像に代えて表示される、当該ある参加者の認識された前記状態に対応した画像を出力するステップと、
    前記所定の複数の参加者の各々の認識された状態であって、各参加者が使用するデジタル・カメラでキャプチャした画像を解析することにより認識された状態を取得するステップと、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、第1の所定の状態が認識された参加者の数又は割合を計算するステップと、
    計算された前記数又は割合を表す情報を表示するステップと
    を実行させるプログラム。
  11. 請求項10に記載のプログラムであって、
    計算された前記数又は割合を表す情報を表示する前記ステップは、計算された前記数又は割合の時間変化を表す情報を表示するステップを含む、
    プログラム。
  12. コンピュータを介したコミュニケーションを実施するためのプログラムであって、コンピュータに、
    所定の複数の参加者のうちのある参加者が使用するデジタル・カメラでキャプチャした画像を解析して、当該ある参加者の状態を認識するステップと、
    前記ある参加者が使用するデジタル・カメラでキャプチャした画像に代えて表示される、当該ある参加者の認識された前記状態に対応した画像を出力するステップと、
    前記所定の複数の参加者の各々の認識された状態であって、各参加者が使用するデジタル・カメラでキャプチャした画像を解析することにより認識された状態を取得するステップと、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、第1の所定の状態が認識された参加者の数又は割合と所定の閾値との比較を行うステップと、
    前記比較が所定の結果であるときに、所定の効果音を再生するステップと
    を実行させるプログラム。
  13. 請求項10から12のうちの何れか一項に記載のプログラムであって、
    コンピュータに、当該ある参加者の認識された前記状態に対応した前記画像として、
    当該ある参加者の認識された表情及び感情の一方又は双方に対応したアバターの画像を生成するステップと、
    当該ある参加者の認識された顔の動きに応じて、顔を変化させながらアバターの画像を生成するステップと、
    当該ある参加者が席を外していることを、当該ある参加者の認識された前記状態が示しているか否かに応じて、アバターの表示と非表示とが切り替えられた画像を生成するステップと
    のうちの少なくとも1つを更に実行させるプログラム。
  14. 請求項10から13うちの何れか一項に記載のプログラムであって、コンピュータに、
    前記所定の複数の参加者の各々に対応した領域であって、各領域の背景色が、前記所定の複数の参加者の各々の認識された前記状態のうちの対応する参加者の認識された状態に対応した色である領域を表示するステップ
    を更に実行させるプログラム。
  15. 請求項10から14のうちの何れか一項に記載のプログラムであって、コンピュータに、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、第2の所定の状態が認識された参加者が存在するかを判定するステップと、
    前記第2の所定の状態が認識された参加者が存在すると判定されたときに、前記第2の所定の状態が認識された参加者について通知するステップと
    を更に実行させるプログラム。
  16. 請求項10から15のうちの何れか一項に記載のプログラムであって、コンピュータに、
    前記所定の複数の参加者の各々の、複数の時点の各々において認識された前記状態に基づき、前記所定の複数の参加者の各々について全体的な評価値を計算するステップと、
    前記所定の複数の参加者の各々について計算された前記全体的な評価値に基づく表示を行うステップと
    を更に実行させるプログラム。
  17. 請求項10から16のうちの何れか一項に記載のプログラムであって、コンピュータに、
    前記所定の複数の参加者の各々の、複数の時点の各々において認識された前記状態に基づき、参加者全体について複数の時点の各々における評価値を計算するステップと、
    参加者全体について計算された複数の時点の各々における前記評価値に基づき、1以上の時点を選択するステップと、
    選択された1以上の時点についての表示を行うステップと
    を更に実行させるプログラム。
  18. コンピュータを介したコミュニケーションを実施するためのシステムであって、
    所定の複数の参加者のうちのある参加者が使用するデジタル・カメラでキャプチャした画像を解析して、当該ある参加者の状態を認識する状態認識部と、
    前記ある参加者が使用するデジタル・カメラでキャプチャした画像に代えて表示される、当該ある参加者の認識された前記状態に対応した画像を出力する仮想カメラと、
    ビューアであって、
    前記所定の複数の参加者の各々の認識された状態であって、各参加者が使用するデジタル・カメラでキャプチャした画像を解析することにより認識された状態を取得し、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、第1の所定の状態が認識された参加者の数又は割合を計算し、
    計算された前記数又は割合を表す情報を含むビューア画面を生成する
    ビューアと
    を含むシステム。
  19. 請求項18に記載のシステムであって、
    前記ビューア画面は、計算された前記数又は割合の時間変化を表す情報を含む、
    システム。
  20. コンピュータを介したコミュニケーションを実施するためのシステムであって、
    所定の複数の参加者のうちのある参加者が使用するデジタル・カメラでキャプチャした画像を解析して、当該ある参加者の状態を認識する状態認識部と、
    前記ある参加者が使用するデジタル・カメラでキャプチャした画像に代えて表示される、当該ある参加者の認識された前記状態に対応した画像を出力する仮想カメラと、
    ビューアであって、
    前記所定の複数の参加者の各々の認識された状態であって、各参加者が使用するデジタル・カメラでキャプチャした画像を解析することにより認識された状態を取得し、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、第1の所定の状態が認識された参加者の数又は割合と所定の閾値との比較を行い、
    前記比較が所定の結果であるときに、所定の効果音を再生する
    ビューアと
    を含むシステム。
  21. 請求項18から20のうちの何れか一項に記載のシステムであって、
    当該ある参加者の認識された前記状態に対応した前記画像として、
    当該ある参加者の認識された表情及び感情の一方又は双方に対応したアバターの画像を生成することと、
    当該ある参加者の認識された顔の動きに応じて、顔を変化させながらアバターの画像を生成することと、
    当該ある参加者が席を外していることを、当該ある参加者の認識された前記状態が示しているか否かに応じて、アバターの表示と非表示とが切り替えられた画像を生成することと
    のうちの少なくとも1つ行う状態可視化部
    を更に含むシステム。
  22. 請求項18から21のうちの何れか一項に記載のシステムであって、
    前記所定の複数の参加者の各々に対応した領域であって、各領域の背景色が、前記所定の複数の参加者の各々の認識された前記状態のうちの対応する参加者の認識された状態に対応した色である領域を含むビューア画面を生成するビューア
    を更に含むシステム。
  23. 請求項18から22のうちの何れか一項に記載のシステムであって、前記ビューアは、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、第2の所定の状態が認識された参加者が存在するかを判定し、
    前記第2の所定の状態が認識された参加者が存在すると判定されたときに、前記第2の所定の状態が認識された参加者について通知する、
    システム。
  24. 請求項18から23のうちの何れか一項に記載のシステムであって、
    前記所定の複数の参加者の各々の、複数の時点の各々において認識された前記状態に基づき、所定の複数の参加者の各々について全体的な評価値を計算し、
    前記所定の複数の参加者の各々について計算された前記全体的な評価値に基づく表示を含むレポート画面を生成する
    レポーティング部を更に含むシステム。
  25. 請求項18から24のうちの何れか一項に記載のシステムであって、
    前記所定の複数の参加者の各々の、複数の時点の各々において認識された前記状態に基づき、参加者全体について複数の時点の各々における評価値を計算し、
    参加者全体について計算された複数の時点の各々における前記評価値に基づき、1以上の時点を選択し、
    選択された1以上の時点についての表示を含むレポート画面を生成する
    レポーティング部を更に含むシステム。
  26. コンピュータを介したコミュニケーションを実施するための方法であって、
    複数のコンピュータが、全体として、所定の複数の参加者の各々が使用するデジタル・カメラでキャプチャした画像を解析して、当該所定の複数の参加者の各々の状態を認識するステップと、
    コンピュータが、前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合を計算するステップと、
    ある参加者が使用するコンピュータが、計算された前記数又は割合を表す情報を表示するステップと
    を含む方法。
  27. コンピュータを介したコミュニケーションを実施するための方法であって、
    複数のコンピュータが、全体として、所定の複数の参加者の各々が使用するデジタル・カメラでキャプチャした画像を解析して、当該所定の複数の参加者の各々の状態を認識するステップと、
    コンピュータが、前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合と所定の閾値との比較を行うステップと、
    前記比較が所定の結果であるときに、ある参加者が使用するコンピュータが、所定の効果音を再生するステップと
    を含む方法。
  28. コンピュータを介したコミュニケーションを実施するためのプログラムであって、コンピュータに、
    所定の複数の参加者の各々の認識された状態であって、各参加者が使用するデジタル・カメラでキャプチャした画像を解析することにより認識された状態を取得するステップと、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合を計算するステップと、
    計算された前記数又は割合を表す情報を表示するステップと
    を実行させるプログラム。
  29. コンピュータを介したコミュニケーションを実施するためのプログラムであって、コンピュータに、
    所定の複数の参加者の各々の認識された状態であって、各参加者が使用するデジタル・カメラでキャプチャした画像を解析することにより認識された状態を取得するステップと、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合と所定の閾値との比較を行うステップと、
    前記比較が所定の結果であるときに、所定の効果音を再生するステップと
    を実行させるプログラム。
  30. コンピュータを介したコミュニケーションを実施するためのシステムであって、
    所定の複数の参加者の各々の認識された状態であって、各参加者が使用するデジタル・カメラでキャプチャした画像を解析することにより認識された状態を取得し、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合を計算し、
    計算された前記数又は割合を表す情報を含むビューア画面を生成する
    ように構成されたシステム。
  31. コンピュータを介したコミュニケーションを実施するためのシステムであって、
    所定の複数の参加者の各々の認識された状態であって、各参加者が使用するデジタル・カメラでキャプチャした画像を解析することにより認識された状態を取得し、
    前記所定の複数の参加者の各々の認識された前記状態に基づき、前記所定の複数の参加者のうち、所定の状態が認識された参加者の数又は割合と所定の閾値との比較を行い、
    前記比較が所定の結果であるときに、所定の効果音を再生する
    ように構成されたシステム。
JP2020115477A 2020-07-03 2020-07-03 コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム Active JP6872066B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020115477A JP6872066B1 (ja) 2020-07-03 2020-07-03 コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム
PCT/JP2021/020828 WO2022004244A1 (ja) 2020-07-03 2021-06-01 コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020115477A JP6872066B1 (ja) 2020-07-03 2020-07-03 コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6872066B1 true JP6872066B1 (ja) 2021-05-19
JP2022013123A JP2022013123A (ja) 2022-01-18

Family

ID=75896306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020115477A Active JP6872066B1 (ja) 2020-07-03 2020-07-03 コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6872066B1 (ja)
WO (1) WO2022004244A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175704A1 (ja) * 2022-03-15 2023-09-21 日本電気株式会社 オンライン会議システム、オンライン会議システムの制御方法、およびプログラム
JP7556082B1 (ja) 2023-03-16 2024-09-25 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及びリアクション通知方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10333538A (ja) * 1997-05-29 1998-12-18 Fujitsu Ltd ネットワーク型教育システム、ネットワーク型教育システムの講師側プログラムが記録された記録媒体、および受講者側プログラムが記録された記録媒体
JP2003248841A (ja) * 2001-12-20 2003-09-05 Matsushita Electric Ind Co Ltd バーチャルテレビ通話装置
JP4077656B2 (ja) * 2002-05-02 2008-04-16 日本放送協会 発言者特定映像装置
JP2004030501A (ja) * 2002-06-28 2004-01-29 Fujitsu Ltd 情報処理装置
JP2004304501A (ja) * 2003-03-31 2004-10-28 Mitsubishi Electric Information Systems Corp 情報提供端末及び管理サーバ及び情報提供システム及び情報提供プログラム
JP4604173B2 (ja) * 2005-03-16 2010-12-22 学校法人東海大学 遠隔会議・教育システム
JP2006268395A (ja) * 2005-03-24 2006-10-05 Fuji Xerox Co Ltd 情報処理装置、情報処理方法及びプログラム
CN103442201B (zh) * 2007-09-24 2018-01-02 高通股份有限公司 用于语音和视频通信的增强接口
JP2011228817A (ja) * 2010-04-15 2011-11-10 Sharp Corp 端末装置、監視装置、端末監視システム、端末装置の制御方法、監視装置の制御方法、制御プログラム、及び記録媒体
US8963987B2 (en) * 2010-05-27 2015-02-24 Microsoft Corporation Non-linguistic signal detection and feedback
JP2012065211A (ja) * 2010-09-17 2012-03-29 Funai Electric Co Ltd テレビ会議端末
JP2014225801A (ja) * 2013-05-16 2014-12-04 株式会社ニコン 会議システム、会議方法およびプログラム
KR101843557B1 (ko) * 2016-03-31 2018-03-30 에이케이엔코리아 주식회사 다중 접속 화상 통화 방법 및 이를 중계하는 중계 장치
US20170371496A1 (en) * 2016-06-22 2017-12-28 Fuji Xerox Co., Ltd. Rapidly skimmable presentations of web meeting recordings
US20180157388A1 (en) * 2016-12-02 2018-06-07 Google Inc. Emotion expression in virtual environment
US10218852B2 (en) * 2017-02-23 2019-02-26 Fuji Xerox Co., Ltd. Methods and systems for providing teleconference participant quality feedback
WO2018158852A1 (ja) * 2017-02-28 2018-09-07 サン電子株式会社 通話システム及びコミュニケーションシステム

Also Published As

Publication number Publication date
JP2022013123A (ja) 2022-01-18
WO2022004244A1 (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
Williamson et al. Proxemics and social interactions in an instrumented virtual reality workshop
US11082661B1 (en) Virtual conference view for video calling
Wilson et al. Co-Design Beyond Words: 'Moments of Interaction'with Minimally-Verbal Children on the Autism Spectrum
Bailenson et al. The effect of behavioral realism and form realism of real-time avatar faces on verbal disclosure, nonverbal disclosure, emotion recognition, and copresence in dyadic interaction
Bente et al. Avatar-mediated networking: Increasing social presence and interpersonal trust in net-based collaborations
Biocca et al. Defining and measuring social presence: Contribution to the networked minds theory and measure
JP2018137723A (ja) 遠隔会議の参加者の資質のフィードバックを提供するための方法およびシステム、コンピューティングデバイス、プログラム
Becker et al. Constructing social systems through computer-mediated communication
WO2022004244A1 (ja) コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム
US20100013828A1 (en) System and method for enabling multiple-state avatars
JP2011039860A (ja) 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム
Kang et al. Does the contingency of agents' nonverbal feedback affect users' social anxiety?
Datcu et al. Comparing presence, workload and situational awareness in a collaborative real world and augmented reality scenario
Fraser et al. Expressiveness of real-time motion captured avatars influences perceived animation realism and perceived quality of social interaction in virtual reality
Clayes et al. Real faces and robot faces: The effects of representation on computer-mediated communication
US20230093298A1 (en) Voice conference apparatus, voice conference system and voice conference method
Keshavarzi et al. Affordance analysis of virtual and augmented reality mediated communication
JP7358265B2 (ja) 特性評価システムおよびその方法
JP2019057061A (ja) 情報出力装置及びプログラム
Walkowski et al. Using a game controller for relaying deictic gestures in computer-mediated communication
WO2022145044A1 (ja) 反応通知システム
JP7477909B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022145043A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022145038A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7465012B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200710

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200710

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210416

R150 Certificate of patent or registration of utility model

Ref document number: 6872066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250