JP6901190B1 - Remote dialogue system, remote dialogue method and remote dialogue program - Google Patents
Remote dialogue system, remote dialogue method and remote dialogue program Download PDFInfo
- Publication number
- JP6901190B1 JP6901190B1 JP2021029659A JP2021029659A JP6901190B1 JP 6901190 B1 JP6901190 B1 JP 6901190B1 JP 2021029659 A JP2021029659 A JP 2021029659A JP 2021029659 A JP2021029659 A JP 2021029659A JP 6901190 B1 JP6901190 B1 JP 6901190B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- dialogue
- behavior
- participants
- participant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
【課題】WEB会議等の遠隔対話時における参加者の同一性確認を簡易に行う技術を実現することを目的とする。【解決手段】管理サーバ2は、参加端末1から出力された参加情報を入力するための情報入力部13と、参加情報に応じて個々の参加者の映像を生成する参加者映像生成部14と、遠隔対話の舞台として設定した仮想対話空間中に参加者映像及び発言内容を表示した対話映像を生成する対話映像生成部15と、各参加者の過去の挙動情報について記録する挙動情報データベース16と、過去の挙動情報と現時点の挙動とを比較する挙動情報比較部19と、挙動情報比較部19における比較結果に基づき、参加者の同一性について判定を行う同一性判定部20と、同一性判定部20の判定結果に基づき必要に応じて警告情報を生成する警告情報生成部21と、対話映像及び警告情報を出力する情報出力部22とを備える。【選択図】図1PROBLEM TO BE SOLVED: To realize a technique for easily confirming the identity of participants at the time of remote dialogue such as a WEB conference. SOLUTION: A management server 2 has an information input unit 13 for inputting participation information output from a participating terminal 1, and a participant image generation unit 14 for generating images of individual participants according to the participation information. , A dialogue video generation unit 15 that generates a dialogue video displaying participant videos and remarks in a virtual dialogue space set as a stage for remote dialogue, and a behavior information database 16 that records past behavior information of each participant. , The behavior information comparison unit 19 that compares the past behavior information with the current behavior, the identity determination unit 20 that determines the identity of the participants based on the comparison result in the behavior information comparison unit 19, and the identity determination. It includes a warning information generation unit 21 that generates warning information as needed based on the determination result of the unit 20, and an information output unit 22 that outputs an interactive video and warning information. [Selection diagram] Fig. 1
Description
本発明は、同一場所にいない参加者間における遠隔対話を行う技術に関するものである。 The present invention relates to a technique for performing remote dialogue between participants who are not in the same place.
近年、営利企業等における経営会議や大学等の教育機関における講義等の多人数間における双方向コミュニケーションについて、参加者を単一の会場に集めて開催するのではなく、別個の場所にいる参加者同士をネットワークで接続した上で、あたかも同一会場に参加者がいるかのような態様で遠隔的に会議等を行う技術が提案されている。 In recent years, for multi-person two-way communication such as management meetings at commercial enterprises and lectures at educational institutions such as universities, participants are not held in a single venue but in different places. A technique has been proposed in which a conference or the like is held remotely as if there are participants in the same venue after connecting each other with a network.
例えば特許文献1は、実際の参加者と情報処理装置にて作成した架空のキャラクターとを仮想空間上に形成したWeb会議室に入出させた上で遠隔会議を開催する技術を開示する。単に参加者同士を通信的に接続する場合と異なり、会議としての現実感を向上させ、参加者が抱く違和感を低減させている。 For example, Patent Document 1 discloses a technique for holding a remote conference after allowing an actual participant and a fictitious character created by an information processing device to enter and exit a Web conference room formed in a virtual space. Unlike the case where participants are simply connected to each other by communication, the reality of the meeting is improved and the discomfort felt by the participants is reduced.
また、特許文献2は、遠隔会議の参加者の映像を適切に表示するために、画面上における画像分割及び参加者の映像に関する歪補正を行う技術を開示する。会議、講義等では発言者の発言内容のみならず発言時の身振り手振りといった非言語的コミュニケーション態様も重要な情報であり、また、聴き手における非言語的な反応も重要な情報となる。特許文献2は参加者の映像を適切に表示することにより、遠隔会議においても同一会場における会議等と同様に、発言内容等の言語的情報のみならず非言語的情報についても参加者間にて共有できる技術を開示している。 Further, Patent Document 2 discloses a technique for performing image division on a screen and distortion correction for a participant's image in order to appropriately display the image of a participant in a remote conference. In meetings, lectures, etc., not only the content of the speaker's remarks but also the nonverbal communication mode such as gestures at the time of remarks is important information, and the nonverbal reaction of the listener is also important information. In Patent Document 2, by appropriately displaying the video of the participants, not only the linguistic information such as the content of remarks but also the non-linguistic information can be obtained among the participants in the remote conference as well as the conference at the same venue. It discloses technologies that can be shared.
しかしながら、特許文献1、2は、遠隔会議等に参加している者が、真に参加資格を有する特定人物であるか否かを判定することが困難である。遠隔会議においては、例えば、営利企業の経営会議において役員の身分を仮装した産業スパイが潜入する場合や、大学の講義にいわゆる「代返」目的で受講生以外の者が受講生を装って参加する場合が考えられるところ、特許文献1、2の技術ではこれらの不正を適正に排除することが困難である。 However, in Patent Documents 1 and 2, it is difficult to determine whether or not a person who participates in a remote conference or the like is a specific person who is truly qualified to participate. In a teleconference, for example, when an industrial espionage disguised as an officer infiltrates at a management meeting of a commercial company, or a person other than a student pretends to participate in a university lecture for the purpose of so-called "return". However, it is difficult to properly eliminate these frauds with the techniques of Patent Documents 1 and 2.
そして、昨今の技術発展に鑑みると、顔や全身を映した映像や発話される音声に関する情報のみでは、「参加者」とされる者が真の参加者であるか、それとも参加者を装った第三者であるかを判別できなくなりつつある。例えば、ディープフェイクと称される深層学習を用いた人物画像合成技術や音声合成技術を使用することで、特定の人物の動画映像を作出することが技術的に可能である。このような技術を悪用された場合は、遠隔会議の画面上に表示された参加者の映像や音声によっては、「参加者」とされる者が真の参加者であるか否かを判別することは非常に困難である。 And, in view of recent technological developments, the person who is considered to be a "participant" is a true participant or pretended to be a participant only by the information on the image showing the face and the whole body and the sound spoken. It is becoming difficult to determine whether it is a third party. For example, it is technically possible to create a moving image of a specific person by using a person image synthesis technique or a voice synthesis technique using deep learning called deep fake. When such technology is abused, it is determined whether or not the person who is considered to be a "participant" is a true participant, depending on the video and audio of the participant displayed on the screen of the remote conference. That is very difficult.
また、ID及びパスワード入力による識別も、ハッキング等により情報漏洩が生じた場合はもとより、講義における「代返」のケースのように正規の参加資格を有する者と第三者が結託した場合には、残念ながら役に立たない。
本発明は上記の課題に鑑みてなされたものであって、WEB会議等の遠隔対話時における参加者の同一性確認を簡易に行う技術を実現することを目的とする。
In addition, identification by entering ID and password is not limited to cases where information is leaked due to hacking, etc., but also when a third party colludes with a person who has regular participation qualifications as in the case of "return" in the lecture. Unfortunately, it's useless.
The present invention has been made in view of the above problems, and an object of the present invention is to realize a technique for easily confirming the identity of participants at the time of remote dialogue such as a WEB conference.
上記目的を達成するため、請求項1にかかる遠隔対話システムは、異なる場所に位置する複数の参加者間の対話を実現する遠隔対話システムであって、参加者の過去の挙動に関する情報に基づき1以上の特徴的挙動を検出し、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である基準挙動情報を生成する基準挙動情報生成手段と、現対話時における参加者の前記1以上の特徴的挙動について、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である現在挙動情報を生成する現在挙動情報生成手段と、前記基準挙動情報と前記現在挙動情報とを比較する挙動情報比較手段と、記挙動情報比較手段の比較結果に基づき参加者の同一性について判定する同一性判定手段と、前記同一性判定手段において判断対象となった参加者以外の1以上の参加者に対し、前記同一性判定手段による判定結果を出力する出力手段とを備えたことを特徴とする。 In order to achieve the above object, the remote dialogue system according to claim 1 is a remote dialogue system that realizes dialogue between a plurality of participants located at different locations, and is based on information on the past behavior of the participants. A reference behavior information generating means that detects the above characteristic behavior and generates reference behavior information that is information on the frequency of occurrence of the characteristic behavior and the duration of the characteristic behavior at the time of occurrence, and a participant at the time of the current dialogue. With respect to the one or more characteristic behaviors of the above, the current behavior information generating means for generating the current behavior information which is information on the frequency of occurrence of the characteristic behavior and the duration of the characteristic behavior at the time of occurrence, and the reference behavior information. The behavior information comparison means for comparing the current behavior information, the identity determination means for determining the identity of the participants based on the comparison result of the description behavior information comparison means, and the participation subject to the determination in the identity determination means. It is characterized in that it is provided with an output means for outputting a determination result by the identity determination means to one or more participants other than the person.
また、上記目的を達成するため、請求項2にかかる遠隔対話システムは、上記の発明において、前記基準挙動情報生成手段は、前記基準挙動情報として発現頻度に関する数値情報である基準発現頻度と継続時間に関する数値情報である基準継続時間が含まれる情報を生成し、前記現在挙動情報生成手段は、前記現在挙動情報として発現頻度に関する数値情報である現在発現頻度と継続時間に関する数値情報である現在継続時間が含まれる情報を生成し、前記挙動情報比較手段は、同一の特徴的挙動に関する基準発現頻度と現在発現頻度の差分値の絶対値を基準発現頻度にて除算した値及び同一の特徴的挙動に関する基準継続時間と現在継続時間の差分値の絶対値を基準継続時間にて除算した値を比較結果として導出し、前記同一性判定手段は、前記比較結果の総和が第1の閾値未満の場合に同一性ありと判定し、前記第1の閾値以上第2の閾値未満の場合に同一性の可能性ありと判定し、前記第2の閾値以上の場合に同一性なしと判定することを特徴とする。 Further, in order to achieve the above object, in the remote dialogue system according to claim 2, in the above invention, the reference behavior information generating means is the reference behavior information, which is numerical information regarding the occurrence frequency, the reference expression frequency and the duration. The current behavior information generation means generates information including a reference duration which is numerical information about the current behavior information, and the current behavior information generating means is numerical information about the current occurrence frequency and the duration as the current behavior information. Is generated, and the behavior information comparison means relates to a value obtained by dividing the absolute value of the difference value between the reference occurrence frequency and the current occurrence frequency for the same characteristic behavior by the reference occurrence frequency and the same characteristic behavior. The absolute value of the difference between the reference duration and the current duration is divided by the reference duration to derive the value as the comparison result, and the identity determination means is used when the sum of the comparison results is less than the first threshold value. It is characterized in that it is determined that there is identity, it is determined that there is a possibility of identity when it is equal to or greater than the first threshold value and less than the second threshold value, and it is determined that there is no identity when it is equal to or greater than the second threshold value. To do.
また、上記目的を達成するため、請求項3にかかる遠隔対話システムは、上記の発明において、遠隔対話に参加する複数の参加者の映像である対話映像を特定の参加者に対し表示する表示手段と、前記特定の参加者の映像を撮影する撮影手段と、前記表示手段と前記撮影手段及び前記特定の参加者間の位置関係に基づき、前記撮影手段による撮影時に前記特定の参加者が前記複数の参加者のうちどの参加者に視線を向けているかの情報を含む注目対象情報を生成する注目対象情報生成手段と、前記表示手段に表示する前記特定の参加者の映像として、前記注目対象情報にて示される参加者に視線を向けた態様となるよう前記対話映像を生成する対話映像生成手段とをさらに備えたことを特徴とする。 Further, in order to achieve the above object, the remote dialogue system according to claim 3 is a display means for displaying a dialogue video, which is a video of a plurality of participants participating in the remote dialogue, to a specific participant in the above invention. Based on the positional relationship between the photographing means for photographing the image of the specific participant, the display means, the photographing means, and the specific participant, the specific participant may be present at the time of photographing by the photographing means. The attention target information generation means for generating attention target information including information on which participant the eyes are directed to, and the attention target information as an image of the specific participant to be displayed on the display means. It is characterized in that it is further provided with a dialogue image generation means for generating the dialogue image so as to have a mode in which the line of sight is directed to the participant shown in the above.
また、上記目的を達成するため、請求項4にかかる遠隔対話方法は、異なる場所に位置する複数の参加者間の対話を実現する遠隔対話方法であって、参加者の過去の挙動に関する情報に基づき1以上の特徴的挙動を検出し、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である基準挙動情報を生成する基準挙動情報生成ステップと、現対話時における参加者の前記1以上の特徴的挙動について、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である現在挙動情報を生成する現在挙動情報生成ステップと、前記基準挙動情報と前記現在挙動情報とを比較する挙動情報比較ステップと、前記挙動情報比較ステップの比較結果に基づき参加者の同一性について判定する同一性判定ステップと、前記同一性判定ステップにおいて判断対象となった参加者以外の1以上の参加者に対し、前記同一性判定ステップによる判定結果を出力する出力ステップとを含むことを特徴とする。 Further, in order to achieve the above object, the remote dialogue method according to claim 4 is a remote dialogue method that realizes a dialogue between a plurality of participants located at different places, and provides information on the past behavior of the participants. Based on this, a reference behavior information generation step that detects one or more characteristic behaviors and generates reference behavior information that is information on the frequency of occurrence of the characteristic behavior and the duration of the characteristic behavior at the time of occurrence, and a reference behavior information generation step at the time of the current dialogue. Regarding the one or more characteristic behaviors of the participants, the current behavior information generation step for generating the current behavior information which is information on the frequency of occurrence of the characteristic behavior and the duration of the characteristic behavior at the time of occurrence, and the reference behavior. The behavior information comparison step for comparing the information with the current behavior information, the identity determination step for determining the identity of the participants based on the comparison result of the behavior information comparison step, and the determination target in the identity determination step. It is characterized by including an output step for outputting a determination result by the identity determination step to one or more participants other than the participants.
また、上記目的を達成するため、請求項5にかかる遠隔対話方法は、上記の発明において、遠隔対話に参加する複数の参加者の映像である対話映像を特定の参加者に対し表示する表示ステップと、前記特定の参加者の映像を撮影する撮影ステップと、前記表示ステップにおける表示場所と前記撮影ステップにおける撮影地点及び前記特定の参加者間の位置関係に基づき、前記撮影ステップにおける撮影時に前記特定の参加者が前記複数の参加者のうちどの参加者に視線を向けているかの情報を含む注目対象情報を生成する注目対象情報生成ステップと、前記表示ステップにて表示する前記特定の参加者の映像として、前記注目対象情報にて示される参加者に視線を向けた態様となるよう前記対話映像を生成する対話映像生成ステップとをさらに含むことを特徴とする。
Further, in order to achieve the above object, the remote dialogue method according to
また、上記目的を達成するため、請求項6にかかる遠隔対話プログラムは、異なる場所に位置する複数の参加者間の対話をコンピュータに実現させる遠隔対話プログラムであって、参加者の過去の挙動に関する情報に基づき1以上の特徴的挙動を検出し、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である基準挙動情報を生成する基準挙動情報生成機能と、現対話時における参加者の前記1以上の特徴的挙動について、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である現在挙動情報を生成する現在挙動情報生成機能と、前記基準挙動情報と前記現在挙動情報とを比較する挙動情報比較機能と、前記挙動情報比較機能の比較結果に基づき参加者の同一性について判定する同一性判定機能と、前記同一性判定機能において判断対象となった参加者以外の1以上の参加者に対し、前記同一性判定機能による判定結果を出力する出力機能とを実現させることを特徴とする。
Further, in order to achieve the above object, the remote dialogue program according to
本発明によれば、WEB会議等の遠隔対話時における参加者の同一性確認を簡易に行えるという効果を奏する。 According to the present invention, there is an effect that the identity of participants can be easily confirmed at the time of remote dialogue such as a WEB conference.
以下、本発明の実施の形態を図面に基づいて詳細に説明する。以下の実施の形態は、本発明の実施の形態として最も適切と考えられる例について記載するものであり、当然のことながら、本発明の内容を本実施の形態にて示された具体例に限定して解すべきではない。同様の作用・効果を奏する構成であれば、実施の形態にて示す具体的構成以外のものであっても、本発明の技術的範囲に含まれることは勿論である。
(実施の形態1)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments describe examples that are considered to be the most appropriate embodiments of the present invention, and as a matter of course, the contents of the present invention are limited to the specific examples shown in the present embodiments. Should not be understood. It goes without saying that any configuration other than the specific configuration shown in the embodiment is included in the technical scope of the present invention as long as the configuration exhibits the same action and effect.
(Embodiment 1)
まず、実施の形態1にかかる遠隔対話システムについて説明する。図1に示すとおり、本実施の形態1にかかる遠隔対話システムは、参加者の発話内容及び挙動内容に関する情報を含む参加情報を生成・出力すると共に、参加者間の対話映像を表示するための参加端末1と、参加端末1から出力された参加情報に基づき対話映像を生成して参加端末1に向けて出力すると共に、参加端末1から出力された参加情報に含まれる参加者の挙動情報に基づき、参加情報の主体が予め登録されている参加者と同一人物であるか否かを判定する管理サーバ2と、参加端末1と管理サーバ2の間を接続する情報通信網3とを備える。 First, the remote dialogue system according to the first embodiment will be described. As shown in FIG. 1, the remote dialogue system according to the first embodiment generates and outputs participation information including information on the speech content and behavior content of the participants, and displays a dialogue video between the participants. A dialogue video is generated based on the participation terminal 1 and the participation information output from the participation terminal 1 and output to the participation terminal 1, and the behavior information of the participants included in the participation information output from the participation terminal 1 is included. Based on this, the management server 2 for determining whether or not the subject of the participation information is the same person as the participant registered in advance, and the information communication network 3 for connecting between the participating terminal 1 and the management server 2 are provided.
参加端末1は、遠隔対話の参加者に対応して配置され、本実施の形態1においては、原則として参加者の人数分の個数からなる参加端末1が使用されるものとする。参加端末1は、参加者の映像を撮影する撮影部4と、参加者の発言内容を記録する発言記録部5と、撮影部4にて撮影された映像から挙動情報を生成する挙動情報生成部6と、挙動情報及び音声記録部5にて記録された発言データを含む参加情報を生成する参加情報生成部7と、管理サーバ2に対し参加情報を出力する情報出力部8と、管理サーバ2から送信された対話映像を入力する情報入力部9と、入力された対話映像を表示する表示部10とを備える。
Participating terminals 1 are arranged in response to participants in remote dialogue, and in the first embodiment, in principle, participating terminals 1 composed of the number of participants are used. The participating terminal 1 includes a shooting unit 4 that shoots a participant's image, a
撮影部4は、遠隔対話の開催時における参加者の映像を取得するためのものである。本実施の形態1における撮影部4の具体的な構成としては、参加者の全身について3次元的な立体映像を取得できる3Dスキャナとする。 The photographing unit 4 is for acquiring a video of a participant at the time of holding a remote dialogue. The specific configuration of the photographing unit 4 in the first embodiment is a 3D scanner capable of acquiring a three-dimensional stereoscopic image of the whole body of the participant.
発言記録部5は、参加者の発言内容を記録するためのものである。具体的には、発言記録部5は、音声入力を行うためのマイク機能と、入力された音声を文字情報に変換する音声認識機能とを備えるものとする。もっとも、発言記録部5の構成をこれに限定する必要はなく、例えば、最も簡易な構成としては、マイク機能を介して入力された音声データをそのまま管理サーバ2に向けて出力することとしてもよいし、マイク機能の代わりにキーボード、ポインティングデバイス等の入力機構を備え、発言内容として文字情報を直接入力する構成としてもよい。
The
挙動情報生成部6は、撮影部4にて取得された参加者の映像に基づき、参加者の挙動情報を生成するためのものである。具体的には、挙動情報生成部6は、参加者の映像における所定の特徴点の時間経過に伴う位置変動に関する情報を生成する機能を有する。
The behavior
特徴点とは、撮影対象における外表面上の特徴箇所及び骨格構造上の特徴箇所を意味し、例えば外表面に対応した特徴点としては、例えば、目、鼻、口等の各部位における特定箇所(目尻、瞳、鼻頭、口角等)をいい、骨格構造に対応した特徴点としては、首、肩、肘、手首、指先、腰、膝、足首等の関節等をいう。挙動情報生成部6は、撮影部4にて取得された映像から抽出した参加者の特徴点の意味内容(特徴点Aは右目の目尻に相当する点である、等)及び時間経過に伴う位置変化を導出し、これらを含む情報である挙動情報を生成する機能を有する。
The feature points mean the feature points on the outer surface and the feature points on the skeletal structure of the object to be photographed. For example, the feature points corresponding to the outer surface include specific points in each part such as eyes, nose, and mouth. (Outer corners of the eyes, eyes, nose tip, corners of the mouth, etc.), and the feature points corresponding to the skeletal structure are joints such as the neck, shoulders, elbows, wrists, fingertips, hips, knees, and ankles. The behavior
参加情報生成部7は、参加端末1を利用して遠隔対話に参加する参加者に関する情報を生成するためのものである。具体的には、参加情報生成部7は、発言記録部5にて記録された発言情報と、挙動情報生成部6にて生成された挙動情報とを含む情報である参加情報を生成する機能を有する。なお、発言情報と挙動情報については、互いに別個独立な情報として参加情報を生成する扱いとしてもよいが、より現実感のある対話映像生成及び正確な挙動判定に役立てる観点からは、発言情報と挙動情報とを時間的に同調させた形式とすることが望ましい。
The participation
情報出力部8は、参加情報生成部7によって生成された参加情報を、管理サーバ2に対して出力するためのものである。情報出力部8の具体的構成は、情報通信網3の形態や接続プロトコルに応じて異なるものの、有線接続・無線接続のいずれでもよく、無線接続の場合でも無線LAN、Bluetooth(登録商標)等いかなる形式でも採用することが可能である。
The
情報入力部9は、管理サーバ2によって生成された対話映像を入力するためのものである。情報入力部9の具体的構成は、情報通信網3の形態や接続プロトコルに応じて異なるものの、有線接続・無線接続のいずれでもよく、無線接続の場合でも無線LAN、Bluetooth(登録商標)等いかなる形式でも採用することが可能である。 The information input unit 9 is for inputting the dialogue video generated by the management server 2. Although the specific configuration of the information input unit 9 differs depending on the form of the information communication network 3 and the connection protocol, it may be either a wired connection or a wireless connection, and even in the case of a wireless connection, any wireless LAN, Bluetooth (registered trademark), etc. It can also be adopted in the form.
表示部10は、管理サーバ2から入力された対話映像を表示するためのものである。参加者は、自らの発言内容や挙動について出力する一方で、各参加者の発言内容や挙動に基づき生成された対話映像が表示されたものを閲覧することにより、遠隔対話における議論等に参加することが可能となる。
The
次に、管理サーバ2について説明する。管理サーバ2は、参加端末1から出力された参加情報を入力するための情報入力部13と、入力された参加情報に応じて個々の参加者の映像を生成する参加者映像生成部14と、遠隔対話の舞台として設定した仮想対話空間中に参加者映像及び発言内容を表示した対話映像を生成する対話映像生成部15と、各参加者の過去の挙動情報について記録する挙動情報データベース16と、過去の挙動情報と現時点の挙動とを比較する挙動情報比較部19と、挙動情報比較部19における比較結果に基づき、参加者の同一性について判定を行う同一性判定部20と、同一性判定部20の判定結果に基づき必要に応じて警告情報を生成する警告情報生成部21と、対話映像及び警告情報を出力する情報出力部22とを備える。
Next, the management server 2 will be described. The management server 2 includes an
情報入力部13は、参加端末1によって生成された参加情報を入力するためのものである。情報入力部13の具体的構成は、情報通信網3の形態や接続プロトコルに応じて異なるものの、有線接続・無線接続のいずれでもよく、無線接続の場合でも無線LAN、Bluetooth(登録商標)等いかなる形式でも採用することが可能である。
The
参加者映像生成部14は、情報入力部13を介して入力された参加情報と、事前に設定された参加者ごとのキャラクター映像情報に基づき、仮想対話空間中に表示する参加者映像を生成するためのものである。キャラクター映像情報とは、参加者を表現するキャラクターの外観等に関する情報であって、参加者として表現されるキャラクターの外表面に表れる姿形(スキン等)、内部的な骨格構造(ボーン・ジョイント等)及び姿形と骨格構造の関係を規定する情報(ウェイト等)を含む3次元コンピュータグラフィックスの形式にて構成される。また、キャラクター映像情報には、挙動情報生成部6での処理に用いられる特徴点に関する情報も記録されている。
The participant
すなわち、キャラクター映像情報中には、参加者のキャラクターにおける目、鼻、口等の外表面における特定箇所(目尻、瞳、鼻頭、口角等)や首、肩、肘、手首、指先、腰、膝、足首等の関節等の骨格構造における特定箇所に対応した位置を特徴点として記録されている。なお、参加者のキャラクターの具体的態様としては、本人を模した3次元コンピュータグラフィックとしてもよいし、本人とは全く異なる人物、さらには動物、アニメーションに登場するキャラクター等であってもよいが、好ましくは、挙動情報生成部6にて使用されるものと対応関係にある特徴点に関する情報を含むこととする。
That is, in the character video information, specific parts (outer corners of eyes, eyes, nose tips, corners of mouth, etc.) on the outer surface of the participants' characters such as eyes, nose, and mouth, neck, shoulders, elbows, wrists, fingertips, hips, and knees. , Positions corresponding to specific points in the skeletal structure such as joints such as ankles are recorded as feature points. The specific mode of the participant's character may be a three-dimensional computer graphic that imitates the person himself / herself, a person completely different from the person himself / herself, an animal, a character appearing in an animation, or the like. Preferably, it includes information about feature points that correspond to those used in the behavior
このような構成を有するキャラクター映像情報を利用することによって、参加者映像生成部14は、参加端末1から入力された挙動情報に含まれる特徴点の位置変化態様をキャラクター映像情報における特徴点に適用して動作させることで、撮影部4にて撮影された参加者の挙動と同様の挙動をキャラクター映像に演じさせる機能を有する。
By using the character video information having such a configuration, the participant
また、参加者映像生成部14は、参加端末1から入力された発言情報に基づき、参加者の発言内容を参加者映像に同調させる。同調させる発言内容のデータ形式としては、音声データとしてもよいし、文字データとしてもよい。音声データとする場合は、参加者本人の音声的特徴を付加したデータとしてもよいし、参加者本人の音声とは全く異なる別個の音声としてもよい。
In addition, the participant
対話映像生成部15は、各参加者が実際に同一空間に集合して対話を行っているかのような仮想映像からなる対話映像を生成するためのものである。具体的には、対話映像生成部15は、予め用意した仮想対話空間中に参加者映像生成部14にて生成された参加者映像を配置することにより、あたかも各参加者が仮想対話空間中にて直接会って議論を行っているかのような対話映像を生成する機能を有する。なお、対話映像の内容については、各参加者が保有する参加端末1に対し全て同じ映像としてもよいし、参加端末1ごとに異なる映像としてもよい。基本映像については同一としつつも、参加端末1における操作によって表示アングルを変化させたり、参加者(正確には仮想対話空間中に配置された参加者のキャラクター映像)自身の視野に合わせた表示アングルの映像に切り替えられる態様としてもよい。逆に、仮想対話空間をシンプルなものとして単に参加者映像を並べて表示する態様としてもよい。
The dialogue
挙動情報データベース16は、参加者の過去の挙動について記録するためのものである。挙動情報データベース16は、過去の挙動として参加者が過去に対話に参加した際における挙動映像をそのまま記録してもよいし、挙動映像に基づき特徴点の位置変動態様について記録することとしてもよい。
基準挙動情報生成部17は、挙動情報データベース16に記録された参加者の過去の挙動に関する情報から、基準挙動情報を生成するためのものである。具体的には、基準挙動情報生成部17は、過去の挙動に関する情報に基づき、参加者の特徴的な挙動(特徴点の位置変化を類型化することによって特定する。)である特徴的挙動を1以上検出し、検出した特徴的挙動のそれぞれについて、特徴的挙動の態様(対応する特徴点の位置変動態様)に加え、基準発現頻度及び基準継続時間を含む基準挙動情報を生成する機能を有する。
The
The reference behavior
特徴的挙動としては、例えば、左腕において人差し指を立てて指先を鼻頭に接触させる挙動(左腕人差し指、左手首、左肘等に対応した特徴点の位置変化によってかかる挙動の有無を特定できる。)や、机の上に両肘を置き、顔の前で両掌を合わせる挙動(両腕の肘、掌の各部分等に対応した特徴点の位置変化によって特定できる。)、さらには両目を強く閉じると共に左右の口角が上がるなどの表情変化(顔の各部分に対応した特徴点の位置変化によって特定できる。)等、特徴点の位置変化によって特定できるものであれば、あらゆる挙動を含む。なお、同一性判定の正確性を向上させる観点からは、記憶する特徴的挙動の種類は参加者ごとに複数あることが望ましく、他方で、「特徴的挙動」といっても他の参加者には見られない独自の挙動である必要はない。同じような挙動であっても発現頻度、継続時間等に差が生じるのが通常であり、複数の特徴的挙動に基づき同一性判定を行う場合において、あらゆる挙動が一致するケースが稀であるためであるため、独自の挙動でなくても高精度の同一性判定が可能なためである。 As characteristic behaviors, for example, the behavior of raising the index finger on the left arm and bringing the fingertip into contact with the nose tip (the presence or absence of such behavior can be specified by the position change of the feature point corresponding to the index finger of the left arm, the left wrist, the left elbow, etc.) and , Place both elbows on the desk and put both palms together in front of the face (identified by the position change of the feature points corresponding to each part of the elbows and palms of both arms), and close both eyes strongly It includes all behaviors as long as it can be specified by the position change of the feature point, such as the facial expression change such as the left and right corners of the mouth rising (it can be specified by the position change of the feature point corresponding to each part of the face). From the viewpoint of improving the accuracy of identity determination, it is desirable that there are multiple types of characteristic behaviors to be memorized for each participant, and on the other hand, "characteristic behaviors" can be referred to as "characteristic behaviors" by other participants. Does not have to be a unique behavior that is not seen. Even if the behavior is similar, there is usually a difference in the frequency of occurrence, duration, etc., and when the identity is judged based on a plurality of characteristic behaviors, it is rare that all the behaviors match. Therefore, it is possible to determine the identity with high accuracy even if the behavior is not unique.
基準発現頻度及び基準継続時間については、挙動情報データベース16は、過去の対話における発現頻度及び継続時間の単純平均値としてもよいが、現在に近い時点に開催された対話における値ほど重要度が高いものとした加重平均(重み付き平均)とすることが好ましい。
Regarding the reference occurrence frequency and the reference duration, the
現在挙動情報生成部18は、現に参加端末1から入力されてくる現時点の挙動情報に基づき、現在挙動情報を生成するためのものである。具体的には、現在挙動情報生成部18は、現時点の挙動情報から、基準挙動情報生成部17におけるものと同じ特徴的挙動の有無を検出し、検出した特徴的挙動のそれぞれについて、特徴的挙動の態様(対応する特徴点の位置変動態様)に加え、発現頻度及び継続時間に関する情報である現在挙動情報を生成する機能を有する。本実施の形態1においては、現在挙動情報には発現頻度に関する数値情報である現在発現頻度と、継続時間に関する数値情報である現在継続時間とが含まれることとする。
The current behavior
なお、現時点における特徴的挙動の発現の有無を判断するにあたって、現在挙動情報生成部18は、当該特徴的挙動に対応する特徴点群の位置変化が、基準挙動情報生成部が検出したものと完全に一致した場合のみならず、対応する特徴点群のそれぞれにおける位置変化の差分値の合計が所定の閾値未満となる場合についても、特徴的挙動が発現したものと判断する。すなわち、多少の位置変化、例えば顔の前で両掌を合わせる挙動において両掌の高さが過去のものと多少異なっていたとしても、同一の特徴的挙動が発現したものと判定する。
In determining whether or not the characteristic behavior is present at the present time, the behavior
挙動情報比較部19は、基準挙動情報と現在挙動情報とを比較するためのものである。具体的には、挙動情報比較部19は、まず、個々の特徴的挙動に関する出現頻度及び継続時間について、基準出現頻度と現在出現頻度の差分値の絶対値を基準出現頻度で除算した値を算出し、また、基準継続時間と現在継続時間の差分値の絶対値を基準継続時間で除算した値を算出する。そして、算出した値について全ての特徴的挙動に関して加算する(より好ましくは、個々の値について重要度に応じた係数を乗算した上で加算する。)。かかる加算結果を比較結果として、同一性判定部20に対し出力する。
The behavior
同一性判定部20は、挙動情報比較部19によって得られた加算結果に応じて、参加者の同一性(事前に登録された「参加者」と、現に参加している者が同一であるか否か)に関する判定を行うためのものである。本実施の形態1においては、加算結果が第1の閾値未満の値となった場合に「同一性あり」と判定し、第1の閾値以上、第2の閾値未満の値となった場合に「同一でない可能性あり」と判定し、第2の閾値以上の値となった場合に「同一性なし」と判定することとする。
The
警告情報生成部21は、同一性判定部20による判定結果に応じて、参加者の同一性に関する警告情報を生成するためのものである。具体的には、同一性判定部20にて「同一性あり」と判定された場合は警告情報を生成せず、「同一でない可能性あり」と判定した場合は、判定対象となった参加者以外の参加者宛に「同一性について確認を推奨する。」旨の内容からなる警告情報を生成する。また、警告情報生成部21は、同一性判定部20にて「同一性なし」と判定された場合は、遠隔対話の運営責任者宛に「当該参加者との接続解除を推奨する。」旨の内容からなる警告情報を生成する。
The warning
情報出力部22は、対話映像生成部15によって生成された対話映像と、警告情報生成部21によって生成された警告情報を、参加端末1に向けて出力するためのものである。警告情報に関しては、情報内に宛先に関する情報も規定されていることから、宛先として指定されている参加端末1に対してのみ出力する構成とする。また、情報出力部22の具体的構成は、情報通信網3の形態や接続プロトコルに応じて異なるものの、有線接続・無線接続のいずれでもよく、無線接続の場合でも無線LAN、Bluetooth(登録商標)等いかなる形式でも採用することが可能である。
The
次に、本実施の形態1にかかる遠隔対話システムにおける、特定の参加者に関する警告情報生成処理について図2を参照しつつ説明する。まず、基準挙動情報生成部17にて、過去の挙動情報から特定の特徴的挙動の有無を検出して、当該特徴的挙動の発現頻度である基準発現頻度と、発現時の継続時間である基準継続時間とを算出する(ステップS101)。そして、現在挙動情報生成部18において、ステップS101と同じ特徴的挙動について、現在開催されている対話における発現頻度及び継続時間である現在発現頻度と現在継続時間を算出する(ステップS102)。具体的には、参加端末1から入力された挙動情報を分析し、参加者の特徴点の位置変化が基準挙動情報生成部17にて検出された特定の特徴的挙動と同様の変化をしている場合に、同一の特徴的挙動が発現したものと判断し、発現頻度及び発現時における継続時間を算出する。
Next, the warning information generation process for a specific participant in the remote dialogue system according to the first embodiment will be described with reference to FIG. First, the reference behavior
その後、挙動情報比較部19において、基準発現頻度と現在発現頻度の差分値の絶対値を算出し、算出結果を基準出現頻度にて除算する(ステップS103)。そして、同様に挙動情報比較部19において、基準継続時間と現在継続時間の差分値の絶対値を算出し、算出結果を基準継続時間にて除算する(ステップS104)。すべての特徴的挙動についての処理が終わっていなければ(ステップS105、No)、再びステップS102に戻り他の特徴的挙動について同様の処理を行う。すべての特徴的挙動についての処理が終わっていれば(ステップS105、Yes)、算出値を加算し、加算結果を出力する(ステップS106)。
After that, the behavior
その後、同一性判定部20による同一性判定処理が行われる。まず、同一性判定部20は、ステップS106で得られた加算結果が、第1の閾値未満であるか否かの判定を行う(ステップS107)。加算結果が第1の閾値未満である場合(ステップS107、Yes)は、特徴的挙動が過去のものと同程度の頻度・継続時間にて出現したとして参加者の同一性が肯定され、特に警告情報が生成されることなく処理を終了する。
After that, the
ステップS106で得られた加算結果が第1の閾値以上であった場合(ステップS107、No)は、さらに加算結果が第1の閾値以上の値である第2の閾値未満であるか否かの判定を行う(ステップS108)。加算結果が第2の閾値未満であった場合(ステップS108、Yes)は、警告情報生成部21に対しその旨の情報が出力され、警告情報生成部21は、判定対象となっている特定の参加者以外の参加者に向けて、「同一性について確認を推奨する。」との内容の警告情報を生成する(ステップS109)。
When the addition result obtained in step S106 is equal to or greater than the first threshold value (step S107, No), whether or not the addition result is less than or equal to the second threshold value which is equal to or greater than the first threshold value. The determination is made (step S108). When the addition result is less than the second threshold value (step S108, Yes), information to that effect is output to the warning
また、加算結果が第2の閾値以上であった場合(ステップS108、No)は、警告情報生成部21に対しその旨の情報が出力され、警告情報生成部21は、遠隔対話の運営責任者に向けて「同一でない可能性が高く、接続を遮断することを推奨する。」との内容の警告情報を生成する(ステップS110)。ステップS109、S110にて生成された警告情報は、情報出力部22を通じて名宛人に対し出力され、すべての処理が終了する。
If the addition result is equal to or greater than the second threshold value (step S108, No), information to that effect is output to the warning
次に、本実施の形態1にかかる遠隔対話システムの利点について説明する。まず、本実施の形態1にかかる遠隔対話システムでは、参加者の同一性を確認する際に挙動情報を使用することとし、これにより確度の高い同一性確認を可能としている。 Next, the advantages of the remote dialogue system according to the first embodiment will be described. First, in the remote dialogue system according to the first embodiment, the behavior information is used when confirming the identity of the participants, which enables highly accurate identity confirmation.
ふとした瞬間に右手を額にあてる、発言時に左手の人差し指を立てて左右に振るなど、人間は活動時に一見無意味な挙動を行うことが多く、かつ、このような挙動の態様、頻度及び継続時間のすべてが他の人物と完全に一致することは通常ありえない。そのため、対話に参加予定の者について予め挙動情報を記録し(例えば、複数回開催される対話であれば、開始直後の対話時における挙動情報を記録する。)、現時点における挙動と比較することで、現時点で特定の参加者と称して参加している者が、本当に当該参加者であるか否かの判定を行うことができるという利点を有する。 Humans often behave in a seemingly meaningless manner during activities, such as placing the right hand on the forehead at a moment's notice, raising the index finger of the left hand and shaking it to the left or right when speaking, and the mode, frequency, and duration of such behavior. It is usually not possible for all of them to match exactly with another person. Therefore, by recording the behavior information of the person who is scheduled to participate in the dialogue in advance (for example, in the case of a dialogue held multiple times, the behavior information at the time of the dialogue immediately after the start is recorded), and comparing with the current behavior. It has an advantage that it is possible to determine whether or not a person who is currently participating as a specific participant is really the participant.
遠隔地から利用されるサービスにおける本人確認の手法としては、今までもIDとパスワード入力や、顔画像や音声データを用いた手法が用いられている。しかしながら、ID・パスワード入力については、ハッキング等による情報漏洩や、参加者本人が第三者と通じていてID等を提供していた場合には、本人確認手段として機能しない。また、顔画像についても、現在の技術では偽造が容易であり、例えば1枚の2次元画像について3次元形状の推定処理を行うと共に、特徴点抽出を行うことによって発言内容に合わせた表情変化を施した動画を作成することが可能である。このような場合に、従前の顔認識技術等による本人確認手続は意味をなさない。音声データについても同様である。現在の技術では、20秒ほどキーワードについて発声するのみで、あたかもその人物が発言したかのような音声データを作成することが可能である。音声認識技術によっても、十分な本人確認が困難であるのが実情である。 As a method of identity verification in a service used from a remote place, a method of inputting an ID and a password, a face image, and voice data has been used. However, the ID / password input does not function as an identity verification means if information is leaked due to hacking or the like, or if the participant himself / herself communicates with a third party and provides the ID or the like. In addition, it is easy to forge a face image with the current technology. For example, a three-dimensional shape is estimated for one two-dimensional image and feature points are extracted to change the facial expression according to the content of the statement. It is possible to create a video that has been applied. In such a case, the identity verification procedure using the conventional face recognition technology or the like does not make sense. The same applies to voice data. With the current technology, it is possible to create voice data as if the person spoke by only speaking about the keyword for about 20 seconds. The reality is that it is difficult to sufficiently verify the identity even with voice recognition technology.
これに対し本実施の形態1では、挙動情報を利用することで参加者の同一性確認を行っているところ、具体的な挙動態様、発現頻度及び継続時間からなる挙動情報を第三者が事前に取得することは困難である(他方で顔画像の合成は写真1枚あれば可能であるし、音声データの合成は20秒程度の音声情報があれば可能である。)。また、仮に挙動情報を取得できたとしても、特定挙動を挙動情報の内容どおりの頻度及び継続時間にてリアルタイムで展開される会話中に盛り込むことは技術的にも容易ではない。したがって、参加者を装って対話に参加した第三者においても、挙動情報について偽装することはほぼ不可能であり、よって、本実施の形態1にかかる遠隔対話システムでは、効率的かつ正確に、参加者の同一性判定を行えるという利点を有することとなる。 On the other hand, in the first embodiment, the identity of the participants is confirmed by using the behavior information, and a third party obtains the behavior information including the specific behavior mode, the frequency of occurrence, and the duration in advance. (On the other hand, it is possible to synthesize a face image with only one photo, and to synthesize voice data with about 20 seconds of voice information). Further, even if the behavior information can be acquired, it is technically not easy to incorporate the specific behavior into the conversation developed in real time at the frequency and duration according to the content of the behavior information. Therefore, it is almost impossible for a third party who participates in the dialogue under the guise of a participant to disguise the behavior information. Therefore, in the remote dialogue system according to the first embodiment, the remote dialogue system is efficient and accurate. It has the advantage of being able to determine the identity of the participants.
また、本実施の形態1にかかる遠隔対話システムは、複数の特徴的挙動について挙動情報を生成し、同一性判定の資料として使用することによって、さらに高精度な同一性判定を行えるという利点を有する。すなわち、単一の特徴的挙動であった場合、特徴的挙動が典型的な挙動である等の事情によっては、偶然にも発現頻度及び継続時間の違いが僅かとなり、実際には異なる人物であったにもかかわらず、同一性があるものと誤って判定するリスクが皆無ではない。本実施の形態1では複数の特徴的挙動について挙動情報を生成して使用することとしているため、このような誤判定が生じる可能性を抑制し、さらに高精度な同一性判定を実現できるという利点がある。 Further, the remote dialogue system according to the first embodiment has an advantage that more accurate identity determination can be performed by generating behavior information for a plurality of characteristic behaviors and using it as a material for identity determination. .. That is, in the case of a single characteristic behavior, the difference in the frequency of occurrence and the duration becomes slight by chance depending on the circumstances such as the characteristic behavior being a typical behavior, and the person is actually a different person. Nevertheless, there is a risk of falsely determining that they are identical. In the first embodiment, since behavior information is generated and used for a plurality of characteristic behaviors, there is an advantage that the possibility of such an erroneous determination can be suppressed and a more accurate identity determination can be realized. There is.
さらに、本実施の形態1にかかる遠隔対話システムは、同一性あり、なしという2通りの判定に加え、同一性に疑いがあるとの判定も行い、当該判定時には対象参加者以外の参加者に対し「同一性について確認を推奨する。」との警告情報を通知する構成を採用している。例えば機密情報を取り扱う経営会議の場合には、同一性がないと断定できない場合であっても、念のため機密情報の開示を控える等の対応が望ましい。本実施の形態1では、疑い事例についても警告情報を発する扱いとすることで、各参加者に情報保持等に関する警告を与えることができるという利点が生ずる。また、各参加者においては、このような警告情報を受領することで、同一性が疑われる「参加者」に対し、参加者本人しか知りえない事実を持ち出して「参加者」の反応を確かめるなど、臨機応変な手法による本人確認が可能となる。 Further, the remote dialogue system according to the first embodiment determines that the identity is suspected in addition to the two determinations of identity and non-identity, and at the time of the determination, the participants other than the target participant are determined. On the other hand, we have adopted a configuration that notifies warning information that "confirmation of identity is recommended." For example, in the case of a management meeting that handles confidential information, it is desirable to refrain from disclosing confidential information just in case, even if it cannot be determined that there is no identity. In the first embodiment, by treating the suspected case as issuing warning information, there is an advantage that each participant can be given a warning regarding information retention and the like. In addition, by receiving such warning information, each participant brings up the facts that only the participant can know to the "participant" who is suspected of being the same, and confirms the reaction of the "participant". It is possible to verify the identity by a flexible method such as.
さらに運用面の利点として、本実施の形態1にかかる遠隔対話システムは、個人情報を使用することなく参加者の同一性確認が可能であるという利点を有する。すなわち、ID,パスワードや顔、声といった情報は個人情報として保護されるもの又は個人情報には該当しないもののプライバシーの観点から慎重な取り扱いを求められるものであり管理が煩雑である。これに対し、挙動情報は参加者の「挙動」に関する情報に過ぎず、プライバシー保護の対象とならないものであるため、通常の情報管理体制にて管理できる点で、運用面での利点が生じる。
(実施の形態2)
Further, as an operational advantage, the remote dialogue system according to the first embodiment has an advantage that the identity of the participants can be confirmed without using personal information. That is, information such as ID, password, face, and voice is protected as personal information or does not correspond to personal information, but careful handling is required from the viewpoint of privacy, and management is complicated. On the other hand, the behavior information is only information about the "behavior" of the participants and is not subject to privacy protection. Therefore, there is an operational advantage in that it can be managed by a normal information management system.
(Embodiment 2)
次に、実施の形態2にかかる遠隔対話システムについて説明する。実施の形態2において、実施の形態1と同一名称かつ同一符号を付した構成要素に関しては、特に言及しない限り、実施の形態1における構成要素と同一の機能を発揮するものとする。 Next, the remote dialogue system according to the second embodiment will be described. Unless otherwise specified, the components having the same name and the same reference numerals as those in the first embodiment in the second embodiment shall exhibit the same functions as the components in the first embodiment.
図3に示すとおり、実施の形態2にかかる遠隔対話システムは、実施の形態1における構成要素に加え、参加者が注目する対象に関する注目対象情報を生成する注目対象情報生成部24を新たに備えた参加端末23と、同じく実施の形態1における構成要素に加え、参加者の挙動を強調表示する参加者映像生成部26及び注目対象情報に整合した対話映像を生成する対話映像生成部27を新たに備えた管理サーバ25とを備える。
As shown in FIG. 3, the remote dialogue system according to the second embodiment is newly provided with the attention target
注目対象情報生成部24は、対話に参加している参加者が、他の参加者のうちどの者に注目しているかを示す注目対象情報を生成するためのものである。具体的には、注目対象情報生成部24は、表示部10における各表示、撮影部4及び撮影される参加者の間の相対的な位置関係を予め把握して、撮影部4にて撮影された映像から、参加者が表示部10上に表示されている他の参加者のうちどの対象者に視線を向けているかを示す視線方向情報と、参加者の両腕のそれぞれがどの対象者に向けられているかを示す腕方向情報を含む注目対象情報を生成する。注目対象情報生成部24によって生成された注目対象情報は、情報出力部8を介して管理サーバ25に向けて出力される。
The attention target
参加者映像生成部26は、実施の形態1における参加者映像生成部14と同様に、原則的には参加端末23から出力された挙動情報に基づき、挙動情報に含まれる特徴点の位置変化態様をキャラクター映像情報における特徴点に適用して参加者映像を生成する機能を有する。その上で、参加者映像生成部26は、両腕及び顔に対応した特徴点に関しては、挙動情報に示される単位時間当たりの位置変動量を所定の割合(例えば10%)増幅した場合に対応した位置情報に変換した上で、キャラクター映像情報中の特徴点に適用する機能を有する。
Similar to the participant
対話映像生成部27は、実施の形態1における対話映像生成部15と同様に、予め用意した仮想対話空間中に参加者映像を配置した対話映像を生成する機能を有する。その上で、対話映像生成部27は、参加端末1から出力された注目対象情報に整合するように、参加者映像における視線の向きと両腕の向きを変化させた上で、対話映像を生成する機能を有する。具体的には、対話映像生成部27は、対話映像中における参加者映像の視線方向について、注目対象情報に含まれる視線方向情報にて特定された対象者の位置に向けた方向となるよう、参加者映像全体を(例えば、背骨に対応したボーンを回転軸として)回転させる機能を有する。また、対話映像生成部27は、参加者映像の両腕の方向について、注目対象情報に含まれる腕方向情報にて特定される対象者の位置に向けた方向となるよう、両腕の位置を変化させる機能を有する。
The dialogue
次に、本実施の形態2にかかる遠隔対話システムについて、図4を参照しつつ管理サーバ25による対話映像の生成処理について説明する。まず、参加者映像生成部26において、顔及び両腕に対応した特徴点について挙動情報から導出される単位時間当たりの位置変動量に1より大きい値からなる所定の係数を乗算し、当該乗算結果として得られる位置変動量に対応した位置となるよう各特徴点の位置を算出する(ステップS201)。そして、参加者映像生成部26は、ステップS201にて定めた位置となるよう、キャラクター映像情報中の特徴点の位置を変化させることにより、参加者映像を生成する(ステップS202)。
Next, with respect to the remote dialogue system according to the second embodiment, the process of generating the dialogue video by the management server 25 will be described with reference to FIG. First, in the participant
その後、対話映像生成部27は、生成された参加者映像を、予め用意した仮想対話空間中に配置する(ステップS203)。すべての参加者についてステップS201〜S203の処理が完了した場合(ステップS204、Yes)は、ステップS205に移行する。
After that, the dialogue
そして、対話映像生成部27は、配置した参加者映像の視線方向が注目対象情報生成部24によって生成された視線方向情報と一致するか否かを判定し(ステップS205)、一致する場合(ステップS205、Yes)はステップS207に移行し、一致しない場合(ステップS205、No)は、参加者映像の背骨に対応するボーンを軸として参加者映像の視線方向と視線方向情報に手示される方向が一致するよう、参加者映像を所定角度だけ回転させる(ステップS206)。
Then, the dialogue
その後、対話映像生成部27は、配置した参加者映像の両腕の方向が注目対象情報生成部24によって生成された腕方向情報と一致するか否かを判定し(ステップS207)、一致しない場合(ステップS207、No)は、一致するよう両腕のそれぞれの位置を変化させる(ステップS208)。位置変化が終了した場合又はそもそも方向が一致していた場合(ステップS207、Yes)は、全ての参加者について処理が行われたか否かを判定し(ステップS209)、終了していなければ(ステップS209、No)ステップS205に戻って同様の処理を繰り返し、終了していれば(ステップS209、Yes)対話映像の作成処理は終了し、情報出力部22を介して各参加者の参加端末23に対して対話映像が出力される。
After that, the dialogue
次に、本実施の形態2にかかる遠隔対話システムの利点について説明する。まず、本実施の形態2にかかる遠隔対話システムでは、顔と両腕の特徴点の位置情報について、挙動情報に示される位置変動量よりも増幅(例えば10%程度)した位置となるよう変換処理を行うことで、参加者の挙動を強調した参加者映像を生成できるという利点を有する。かかる構成を採用することにより、参加端末にて遠隔対話の映像を見る他の参加者は、当該参加者の挙動について容易に認識することが可能となる。 Next, the advantages of the remote dialogue system according to the second embodiment will be described. First, in the remote dialogue system according to the second embodiment, the position information of the feature points of the face and both arms is converted so as to be a position amplified (for example, about 10%) from the amount of position fluctuation shown in the behavior information. By performing the above, there is an advantage that a participant image that emphasizes the behavior of the participant can be generated. By adopting such a configuration, other participants who view the video of the remote dialogue on the participating terminal can easily recognize the behavior of the participant.
画面を通じて対話映像を閲覧する遠隔対話においては、直接集まって対話を開催する場合のように他の参加者の挙動についてリアルに認識することは困難であり、これにより、話者の挙動に基づく非言語的コミュニケーションに支障が生じることがある。本実施の形態2では、参加者の挙動について強調表示を行うことで、直接集まった場合と同程度に他の参加者の挙動について理解でき、これにより発言を通じた言語的コミュニケーションのみならず挙動を通じた非言語的コミュニケーションについても円滑化し、もって活発な議論を実現できるという利点が生じる。 In remote dialogue, where the dialogue video is viewed through the screen, it is difficult to realistically recognize the behavior of other participants as in the case of directly gathering and holding a dialogue, which makes it difficult to recognize the behavior of other participants. Interfering with linguistic communication. In the second embodiment, by highlighting the behavior of the participants, it is possible to understand the behavior of other participants as much as when they gather directly, and thereby through not only linguistic communication through remarks but also behavior. It also has the advantage of facilitating nonverbal communication and enabling lively discussions.
また、本実施の形態2にかかる遠隔対話システムは、他の参加者に対する注目状況を示す注目対象情報を生成し、かつ、対話映像にて表示される参加者映像において、かかる注目対象情報と一致するよう視線及び両腕の向きを調整することとしている。撮影部が撮影した参加者の映像はあくまで撮影部からの視点により撮影されたものに過ぎず、映像そのものからは、当該映像で参加者が具体的に何を見て発現しているのか、挙動が何に向けて発せられているのかを理解することは困難である。この点に鑑みて、本実施の形態2では、撮像部4による撮影時に、参加者が表示部10に表示されている他の参加者のうちどの人物を見ながら発言しているのか、どの人物に対し指差し等の挙動を行っているのかに関する視線方向情報、腕方向情報を生成し、これらの情報に整合するように仮想対話空間中の参加者映像を調整する。これにより、表示部10を通じて対話映像を視聴する各参加者は、ある参加者の発言及び身振り手振りがどの参加者に向けられたものであるかを容易に認識でき、これによって、言語的コミュニケーションのみならず非言語的コミュニケーションについてもさらに円滑化できるという利点が生じる。
Further, the remote dialogue system according to the second embodiment generates attention target information indicating the attention status to other participants, and matches the attention target information in the participant video displayed in the dialogue video. The line of sight and the direction of both arms are adjusted so as to do so. The video of the participants taken by the shooting department is only taken from the viewpoint of the shooting department, and from the video itself, what the participants specifically see and express in the video, the behavior It is difficult to understand what is being directed at. In view of this point, in the second embodiment, which person is speaking while looking at which of the other participants displayed on the
以上、実施の形態において本発明の内容について説明したが、もとより本発明の技術的範囲は実施の形態に記載した具体的構成に限定して解釈されるべきではなく、本発明の機能を実現できるものであれば、上記実施の形態に対する様々な変形例、応用例についても、本発明の技術的範囲に属することはもちろんである。 Although the contents of the present invention have been described above in the embodiments, the technical scope of the present invention should not be construed as being limited to the specific configurations described in the embodiments, and the functions of the present invention can be realized. As long as it is, it goes without saying that various modifications and applications to the above-described embodiment also belong to the technical scope of the present invention.
例えば、本実施の形態1、2ではいわゆる遠隔対話を例に本発明の内容について説明しているところ、本発明の用途は営利企業等における遠隔会議、大学等の教育機関におけるオンライン授業及び少人数間(1対1でもよい)におけるテレビ電話システム等においても使用することが可能である。また、「対話」の態様も音声対話のみならず、いわゆる「チャット」のようなテキスト情報のやり取りによる「対話」の場合でも、本発明の技術を活用することが可能であるし、「遠隔」といっても、例えば同一建物の隣室間での対話について本発明を適用することが可能である。 For example, in the first and second embodiments of the present invention, the content of the present invention is explained by taking so-called remote dialogue as an example. It can also be used in a videophone system or the like in between (may be one-to-one). Further, the mode of "dialogue" is not limited to voice dialogue, but also in the case of "dialogue" by exchanging text information such as so-called "chat", the technique of the present invention can be utilized and "remote". However, it is possible to apply the present invention to, for example, dialogue between adjacent rooms in the same building.
また、撮影部4の具体的構成は3Dスキャナ以外のものとすることが可能であり、かつ、撮影する参加者の映像についても、3次元映像に限定して解釈する必要はない。2次元映像であってもよいし、動画のみならず複数の静止画(例えば1秒間隔で撮影した静止画像)であってもよい。2次元映像であっても特徴点を抽出することは技術的に可能であるし、2次元映像における特徴点の位置変動に基づき(2次元的なものはもちろん)3次元的な参加者映像を生成することが可能である。 Further, the specific configuration of the photographing unit 4 can be other than the 3D scanner, and it is not necessary to interpret the image of the participant to be photographed only in the three-dimensional image. It may be a two-dimensional image, or may be not only a moving image but also a plurality of still images (for example, still images taken at 1-second intervals). It is technically possible to extract feature points even in a two-dimensional image, and a three-dimensional participant image (not to mention two-dimensional ones) is created based on the positional fluctuation of the feature points in the two-dimensional image. It is possible to generate.
さらに、挙動情報生成部6は、挙動に関する情報である挙動情報を特徴点の位置変動によって表現する態様にて生成するが、かかる態様に限定する必要はない。深層学習等により映像から直接的に挙動を検出して情報化してもよいし、映像に映された参加者の輪郭を切り取り、当該輪郭の変形に応じて挙動情報を生成する態様としてもよい。
Further, the behavior
また、参加者映像生成部14、26についても、必ずしも3次元的な映像にて参加者映像を生成する必要はなく、2次元映像であってもよい。対話映像生成部15、27が生成する対話映像についても同様である。
Further, the participant
また、挙動情報比較部19における比較方法についても、基準値と現時点の値とを比較する手法であればよく、基準値と現時点の値の差分値の絶対値を基準値で除算した値を算出する方法以外であってもよい。例えば基準値と現時点の値の差分値のみとしてもよいし、基準値と現時点の値の比によって比較することとしてもよい。
Further, the comparison method in the behavior
さらに、同一性判定部20における同一性判定手法についても、複数の比較結果(実施の形態1、2では基準値と現時点の値の差分値の絶対値を基準値で除算した値)の加算結果と第1の閾値、第2の閾値を比較しているが、複数の比較結果の加重平均と閾値とを比較してもよいし、複数の比較結果それぞれについて閾値を設定し、閾値を超過した(あるいは下回った)比較結果の数によって同一性の有無等を判断することとしてもよい。また、同一性判定部20は2通りの閾値を用いて3通りの判定結果(同一性あり、なし、同一性なしの可能性あり)を示す扱いとしているが、閾値を1通り、3通り以上等と設定してもよいし、判定結果についても同一性あり、なしの2通り、あるいは同一性がある(又は「ない」)確率に応じて4通り以上の判定結果を導出することとしてもよい。
Further, regarding the identity determination method in the
また、警告情報生成部21によって生成される警告情報の内容・態様についても実施の形態1にて説明した態様に限定されず、例えば、「同一性なし」と判断した場合に遠隔対話の責任者に警告情報を提供するのではなく、対話システムを構成する機器の通信機能を司る箇所に直接的に「通信状態を遮断せよ」との指示を送る態様としてもよい。
Further, the content / mode of the warning information generated by the warning
さらに、実施の形態2において、対話映像生成部27は、参加者映像の視線方向を視線方向情報と一致させる際に背骨に対応したボーンを軸とした回転だけでなく、参加者映像の首部分を回す態様にて視線方向を一致させてもよいし、参加者映像の目に対応した部分のみ変化させる態様としてもよい。同様に、参加者映像の腕の方向を腕方向情報と一致させる際にも、腕だけを動かすのではなく、体の他の部分も腕に連動させて動かしてもよいし、また、仮想対話空間中の位置関係によっては腕の方向を参加者映像の背後方向に変化させるような場合が生じうるところ、その場合に腕のみを位置変化させるのではなく、上半身を後ろ方向に振り返らせるように位置変化させてもよい。
Further, in the second embodiment, the dialogue
本発明は、同一場所にいない参加者間における遠隔対話を行う技術として利用可能である。 The present invention can be used as a technique for performing remote dialogue between participants who are not in the same place.
1、23 参加端末
2、25 管理サーバ
3 情報通信網
4 撮影部
5 発言記録部
6 挙動情報生成部
7 参加情報生成部
8、22 情報出力部
9、13 情報入力部
10 表示部
14、26 参加者映像生成部
15、27 対話映像生成部
16 挙動情報データベース
17 基準挙動情報生成部
18 現在挙動情報生成部
19 挙動情報比較部
20 同一性判定部
21 警告情報生成部
24 注目対象情報生成部
1, 23 Participating terminals 2, 25 Management server 3 Information communication network 4
Claims (6)
参加者の過去の挙動に関する情報に基づき1以上の特徴的挙動を検出し、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である基準挙動情報を生成する基準挙動情報生成手段と、
現対話時における参加者の前記1以上の特徴的挙動について、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である現在挙動情報を生成する現在挙動情報生成手段と、
前記基準挙動情報と前記現在挙動情報とを比較する挙動情報比較手段と、
前記挙動情報比較手段の比較結果に基づき参加者の同一性について判定する同一性判定手段と、
前記同一性判定手段において判断対象となった参加者以外の1以上の参加者に対し、前記同一性判定手段による判定結果を出力する出力手段と、
を備えたことを特徴とする遠隔対話システム。 A remote dialogue system that enables dialogue between multiple participants located in different locations.
A reference behavior that detects one or more characteristic behaviors based on information on the past behaviors of participants and generates reference behavior information that is information on the frequency of occurrence of the characteristic behaviors and the duration of the characteristic behaviors at the time of occurrence. Information generation means and
With respect to the one or more characteristic behaviors of the participants at the time of the current dialogue, the current behavior information generating means for generating the current behavior information which is the information on the frequency of occurrence of the characteristic behavior and the duration of the characteristic behavior at the time of occurrence. ,
A behavior information comparison means for comparing the reference behavior information with the current behavior information,
An identity determination means for determining the identity of participants based on the comparison result of the behavior information comparison means, and
An output means for outputting the determination result by the identity determination means to one or more participants other than the participant who was the determination target in the identity determination means, and an output means.
A remote dialogue system characterized by being equipped with.
前記現在挙動情報生成手段は、前記現在挙動情報として発現頻度に関する数値情報である現在発現頻度と継続時間に関する数値情報である現在継続時間が含まれる情報を生成し、
前記挙動情報比較手段は、同一の特徴的挙動に関する基準発現頻度と現在発現頻度の差分値の絶対値を基準発現頻度にて除算した値及び同一の特徴的挙動に関する基準継続時間と現在継続時間の差分値の絶対値を基準継続時間にて除算した値を比較結果として導出し、
前記同一性判定手段は、前記比較結果の総和が第1の閾値未満の場合に同一性ありと判定し、前記第1の閾値以上第2の閾値未満の場合に同一性の可能性ありと判定し、前記第2の閾値以上の場合に同一性なしと判定することを特徴とする請求項1記載の遠隔対話システム。 The reference behavior information generating means generates information including the reference duration, which is numerical information regarding the expression frequency and the reference duration, as the reference behavior information.
The current behavior information generation means generates information including the current duration, which is numerical information regarding the current expression frequency and the duration, which is numerical information regarding the expression frequency, as the current behavior information.
The behavior information comparison means is a value obtained by dividing the absolute value of the difference value between the reference expression frequency and the current expression frequency for the same characteristic behavior by the reference expression frequency, and the reference duration and the current duration for the same characteristic behavior. The absolute value of the difference value divided by the reference duration is derived as the comparison result.
The identity determination means determines that there is identity when the sum of the comparison results is less than the first threshold value, and determines that there is a possibility of identity when the sum of the comparison results is equal to or more than the first threshold value and less than the second threshold value. The remote dialogue system according to claim 1, wherein it is determined that there is no identity when the value is equal to or greater than the second threshold value.
前記特定の参加者の映像を撮影する撮影手段と、
前記表示手段と前記撮影手段及び前記特定の参加者間の位置関係に基づき、前記撮影手段による撮影時に前記特定の参加者が前記複数の参加者のうちどの参加者に視線を向けているかの情報を含む注目対象情報を生成する注目対象情報生成手段と、
前記表示手段に表示する前記特定の参加者の映像として、前記注目対象情報にて示される参加者に視線を向けた態様となるよう前記対話映像を生成する対話映像生成手段と、
をさらに備えたことを特徴とする請求項1又は2記載の遠隔対話システム。 A display means for displaying a dialogue video, which is a video of multiple participants participating in a remote dialogue, to a specific participant, and
A shooting means for shooting a video of the specific participant, and
Information on which of the plurality of participants the specific participant is looking at at the time of photographing by the photographing means based on the positional relationship between the display means, the photographing means, and the specific participant. Attention target information generation means for generating attention target information including
As the image of the specific participant to be displayed on the display means, the dialogue image generation means for generating the dialogue image so as to direct the line of sight to the participant indicated by the attention target information, and the dialogue image generation means.
The remote dialogue system according to claim 1 or 2, further comprising.
参加者の過去の挙動に関する情報に基づき1以上の特徴的挙動を検出し、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である基準挙動情報を生成する基準挙動情報生成ステップと、
現対話時における参加者の前記1以上の特徴的挙動について、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である現在挙動情報を生成する現在挙動情報生成ステップと、
前記基準挙動情報と前記現在挙動情報とを比較する挙動情報比較ステップと、
前記挙動情報比較ステップの比較結果に基づき参加者の同一性について判定する同一性判定ステップと、
前記同一性判定ステップにおいて判断対象となった参加者以外の1以上の参加者に対し、前記同一性判定ステップによる判定結果を出力する出力ステップと、
を含むことを特徴とする遠隔対話方法。 A remote dialogue method that enables dialogue between multiple participants located in different locations.
A reference behavior that detects one or more characteristic behaviors based on information on the past behaviors of participants and generates reference behavior information that is information on the frequency of occurrence of the characteristic behaviors and the duration of the characteristic behaviors at the time of occurrence. Information generation steps and
With respect to the one or more characteristic behaviors of the participants at the time of the current dialogue, the current behavior information generation step for generating the current behavior information which is information on the frequency of occurrence of the characteristic behaviors and the duration of the characteristic behaviors at the time of occurrence. ,
A behavior information comparison step for comparing the reference behavior information with the current behavior information,
An identity determination step for determining the identity of participants based on the comparison result of the behavior information comparison step, and
An output step for outputting the determination result by the identity determination step to one or more participants other than the participant who was the determination target in the identity determination step, and an output step.
A remote dialogue method characterized by including.
前記特定の参加者の映像を撮影する撮影ステップと、
前記表示ステップにおける表示場所と前記撮影ステップにおける撮影地点及び前記特定の参加者間の位置関係に基づき、前記撮影ステップにおける撮影時に前記特定の参加者が前記複数の参加者のうちどの参加者に視線を向けているかの情報を含む注目対象情報を生成する注目対象情報生成ステップと、
前記表示ステップにて表示する前記特定の参加者の映像として、前記注目対象情報にて示される参加者に視線を向けた態様となるよう前記対話映像を生成する対話映像生成ステップと、
をさらに含むことを特徴とする請求項4記載の遠隔対話方法。 A display step that displays a dialogue video, which is a video of multiple participants participating in a remote dialogue, to a specific participant, and
The shooting step of shooting the video of the specific participant, and
Based on the display location in the display step, the shooting point in the shooting step, and the positional relationship between the specific participants, the specific participant looks at which of the plurality of participants during shooting in the shooting step. Attention target information generation step to generate attention target information including information on whether or not the user is pointing
As the image of the specific participant to be displayed in the display step, the dialogue image generation step of generating the dialogue image so as to direct the line of sight to the participant indicated by the attention target information, and the dialogue image generation step.
4. The remote dialogue method according to claim 4, further comprising.
参加者の過去の挙動に関する情報に基づき1以上の特徴的挙動を検出し、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である基準挙動情報を生成する基準挙動情報生成機能と、
現対話時における参加者の前記1以上の特徴的挙動について、前記特徴的挙動の発現頻度及び発現時における前記特徴的挙動の継続時間に関する情報である現在挙動情報を生成する現在挙動情報生成機能と、
前記基準挙動情報と前記現在挙動情報とを比較する挙動情報比較機能と、
前記挙動情報比較機能の比較結果に基づき参加者の同一性について判定する同一性判定機能と、
前記同一性判定機能において判断対象となった参加者以外の1以上の参加者に対し、前記同一性判定機能による判定結果を出力する出力機能と、
を実現させることを特徴とする遠隔対話プログラム。 A remote dialogue program that enables a computer to interact with multiple participants located in different locations.
A reference behavior that detects one or more characteristic behaviors based on information on the past behaviors of participants and generates reference behavior information that is information on the frequency of occurrence of the characteristic behaviors and the duration of the characteristic behaviors at the time of occurrence. Information generation function and
With respect to the one or more characteristic behaviors of the participants at the time of the current dialogue, a current behavior information generation function that generates current behavior information which is information on the frequency of occurrence of the characteristic behaviors and the duration of the characteristic behaviors at the time of occurrence. ,
A behavior information comparison function that compares the reference behavior information with the current behavior information,
An identity determination function that determines the identity of participants based on the comparison result of the behavior information comparison function, and
An output function that outputs a judgment result by the identity judgment function to one or more participants other than the participant who is the judgment target in the identity judgment function, and an output function.
A remote dialogue program characterized by realizing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021029659A JP6901190B1 (en) | 2021-02-26 | 2021-02-26 | Remote dialogue system, remote dialogue method and remote dialogue program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021029659A JP6901190B1 (en) | 2021-02-26 | 2021-02-26 | Remote dialogue system, remote dialogue method and remote dialogue program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6901190B1 true JP6901190B1 (en) | 2021-07-14 |
JP2022130967A JP2022130967A (en) | 2022-09-07 |
Family
ID=76753073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021029659A Active JP6901190B1 (en) | 2021-02-26 | 2021-02-26 | Remote dialogue system, remote dialogue method and remote dialogue program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6901190B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023135686A1 (en) * | 2022-01-12 | 2023-07-20 | 富士通株式会社 | Determination method, determination program, and information processing device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012054897A (en) * | 2010-09-03 | 2012-03-15 | Sharp Corp | Conference system, information processing apparatus, and information processing method |
JP2013504933A (en) * | 2009-09-11 | 2013-02-07 | イーストマン コダック カンパニー | Time-shifted video communication |
US9973732B1 (en) * | 2017-07-27 | 2018-05-15 | Amazon Technologies, Inc. | Device selection for video based communications |
-
2021
- 2021-02-26 JP JP2021029659A patent/JP6901190B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013504933A (en) * | 2009-09-11 | 2013-02-07 | イーストマン コダック カンパニー | Time-shifted video communication |
JP2012054897A (en) * | 2010-09-03 | 2012-03-15 | Sharp Corp | Conference system, information processing apparatus, and information processing method |
US9973732B1 (en) * | 2017-07-27 | 2018-05-15 | Amazon Technologies, Inc. | Device selection for video based communications |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023135686A1 (en) * | 2022-01-12 | 2023-07-20 | 富士通株式会社 | Determination method, determination program, and information processing device |
Also Published As
Publication number | Publication date |
---|---|
JP2022130967A (en) | 2022-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020204000A1 (en) | Communication assistance system, communication assistance method, communication assistance program, and image control program | |
US11736756B2 (en) | Producing realistic body movement using body images | |
JP7056055B2 (en) | Information processing equipment, information processing systems and programs | |
Bailenson | Transformed social interaction in collaborative virtual environments | |
JP7073116B2 (en) | Office virtual reality system and office virtual reality program | |
CN111583355B (en) | Face image generation method and device, electronic equipment and readable storage medium | |
CN111064919A (en) | VR (virtual reality) teleconference method and device | |
KR20200043658A (en) | Vr presentation and interview training system | |
US20220270302A1 (en) | Content distribution system, content distribution method, and content distribution program | |
CN112839196B (en) | Method, device and storage medium for realizing online conference | |
JPH08205197A (en) | Human interface device | |
Stearns et al. | Automated person detection in dynamic scenes to assist people with vision impairments: An initial investigation | |
JP6901190B1 (en) | Remote dialogue system, remote dialogue method and remote dialogue program | |
WO2015139562A1 (en) | Method for implementing video conference, synthesis device, and system | |
Nijholt | Capturing obstructed nonverbal cues in augmented reality interactions: a short survey | |
CN114615455A (en) | Teleconference processing method, teleconference processing device, teleconference system, and storage medium | |
JPWO2019139101A1 (en) | Information processing equipment, information processing methods and programs | |
JP2011097447A (en) | Communication system | |
JP3452348B2 (en) | Speaker identification method in virtual space and recording medium storing the program | |
CN114201035A (en) | Information processing apparatus, storage medium, and information processing method | |
JP6444767B2 (en) | Business support device and business support program | |
JP2002259318A (en) | Method for displaying picture of person in virtual reality space | |
WO2022137547A1 (en) | Communication assistance system | |
KR20150087017A (en) | Audio control device based on eye-tracking and method for visual communications using the device | |
CN114900738A (en) | Film viewing interaction method and device and computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210226 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210226 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6901190 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |