JP7260826B2 - Learning device and evaluation information output device - Google Patents

Learning device and evaluation information output device Download PDF

Info

Publication number
JP7260826B2
JP7260826B2 JP2022001614A JP2022001614A JP7260826B2 JP 7260826 B2 JP7260826 B2 JP 7260826B2 JP 2022001614 A JP2022001614 A JP 2022001614A JP 2022001614 A JP2022001614 A JP 2022001614A JP 7260826 B2 JP7260826 B2 JP 7260826B2
Authority
JP
Japan
Prior art keywords
nodding
information
nodding motion
motion
evaluation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022001614A
Other languages
Japanese (ja)
Other versions
JP2022120787A (en
Inventor
早苗 香川
雄一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to CN202280013277.0A priority Critical patent/CN116888606A/en
Priority to PCT/JP2022/004684 priority patent/WO2022168973A1/en
Priority to US18/275,182 priority patent/US20240112083A1/en
Priority to EP22749844.1A priority patent/EP4290429A1/en
Publication of JP2022120787A publication Critical patent/JP2022120787A/en
Application granted granted Critical
Publication of JP7260826B2 publication Critical patent/JP7260826B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

学習装置および評価情報出力装置に関する。 The present invention relates to a learning device and an evaluation information output device.

従来、画像を用いて得られた会議の出席者の挙動や発話量などを使って、会議の生産性を推定している(特許文献1(特開2019-211962号公報)。 2. Description of the Related Art Conventionally, the productivity of a conference is estimated using the behavior and the amount of speech of conference attendees obtained using images (Patent Document 1 (Japanese Patent Application Laid-Open No. 2019-211962)).

会議などの集団活動の生産性を推定する場合、会議の出席者の挙動や発話量に基づいた評価では、集団活動の量的評価にとどまり、質的評価が十分ではない。また、集団活動の量的評価が小さい場合においても、質の高い集団活動が行われる場合があるため質的評価が重要であるが、会議などの集団活動の質的評価をするのが難しいという課題がある。 When estimating the productivity of a group activity such as a meeting, the evaluation based on the behavior and the amount of speech of the attendees of the meeting is limited to the quantitative evaluation of the group activity, and the qualitative evaluation is not sufficient. In addition, even if the quantitative evaluation of group activities is small, there are cases where high-quality group activities are carried out, so qualitative evaluation is important, but it is difficult to qualitatively evaluate group activities such as meetings. I have a problem.

第1観点の学習装置は、1又は複数の人間のうなずき動作を学習する学習装置であって、学習部を備える。学習部は、うなずき動作に関する情報を入力とし、うなずき動作の評価情報を出力する、学習済みモデル、を生成する。学習部は、うなずき動作に関する情報と、うなずき動作の評価情報とを学習用データセットとして学習して、学習済みモデルを生成する。 A learning device according to a first aspect is a learning device for learning one or more human nodding motions, and includes a learning unit. The learning unit receives information about the nodding motion and generates a trained model that outputs nodding motion evaluation information. The learning unit learns the information about the nodding motion and the evaluation information of the nodding motion as a learning data set to generate a trained model.

この学習装置では、会議等の出席者の反応であるうなずき動作に関する情報とうなずき動作の評価情報とを学習用データセットとして学習することで、会議等の集団活動の質的な評価を行うことができる学習済みモデルを生成することができる。 With this learning device, by learning information about nodding motions, which are reactions of attendees of meetings, etc., and evaluation information of nodding motions, as a learning data set, it is possible to perform qualitative evaluation of group activities such as meetings. You can generate a trained model that can

第2観点の評価情報出力装置は、1又は複数の人間のうなずき動作に基づいて、前記うなずき動作に関する評価情報を出力する、評価情報出力装置であって、第1情報取得部と、出力部と、を備える。第1情報取得部は、うなずき動作に関する情報を取得する。出力部は、うなずき動作に関する情報を入力とし、うなずき動作の評価情報を出力する、学習済みモデルを有する。出力部は、学習済みモデルを用いてうなずき動作に関する情報からうなずき動作の評価情報を推定して出力する。学習済みモデルは、うなずき動作に関する情報と、うなずき動作の評価情報とを学習用データセットとして学習したものである。 An evaluation information output device according to a second aspect is an evaluation information output device that outputs evaluation information related to nodding motions based on one or more human nodding motions, comprising a first information acquisition unit and an output unit. , provided. The first information acquisition unit acquires information about the nodding motion. The output unit has a trained model that receives information about the nodding motion and outputs nodding motion evaluation information. The output unit estimates and outputs evaluation information of the nodding motion from information about the nodding motion using the trained model. The trained model is obtained by learning information about the nodding motion and evaluation information of the nodding motion as a learning data set.

この評価情報出力装置では、学習済みモデルを用いて会議等の出席者の反応であるうなずき動作に関する情報からうなずき動作の評価情報を推定することで、会議等の集団活動の質的な評価を行うことができる。 In this evaluation information output device, a trained model is used to estimate evaluation information of nodding motions from information about nodding motions that are reactions of attendees of meetings, etc., thereby performing a qualitative evaluation of group activities such as meetings. be able to.

第3観点の評価情報出力装置は、第2観点の装置であって、第2情報取得部をさらに備える。第2情報取得部は、うなずき動作の起因となる対象に関する情報を取得する。うなずき動作の起因となる対象は、会議中の発言、プレゼンテーションで提示されたデータもしくは物、又は人もしくは動物のパフォーマンスの少なくとも1つを含む。出力部は、うなずき動作の起因となる対象に関する情報と、うなずき動作の評価情報とを紐づけて出力する。 The evaluation information output device of the third aspect is the device of the second aspect, further comprising a second information acquisition section. The second information acquisition unit acquires information about an object that causes a nodding motion. The object causing the nodding motion includes at least one of speech during a meeting, data or objects presented in a presentation, or a human or animal performance. The output unit outputs the information about the target that causes the nodding motion and the evaluation information of the nodding motion in association with each other.

この評価情報出力装置では、うなずき動作の起因となる対象に関する情報と、うなずき動作の評価情報とを紐づけて出力することで、特定の対象に対して起因して行われたうなずき動作の評価情報を得ることができる。 In this evaluation information output device, by linking and outputting information about an object that causes a nodding motion and evaluation information of the nodding motion, the evaluation information of the nodding motion caused by the specific target is output. can be obtained.

第4観点の評価情報出力装置は、第2観点又は第3観点の装置であって、うなずき動作の評価情報は、人間の感情に関する情報である。人間の感情に関する情報は、人間の喜怒哀楽に関する情報、またはうなずき動作の起因となる対象に対して人間が納得しているか否かに関する情報を含む。うなずき動作の評価情報は、人間の顔面の画像データの解析又は音声データの解析によって取得できる。 The evaluation information output device of the fourth aspect is the device of the second aspect or the third aspect, and the evaluation information of the nodding motion is information related to human emotion. The information about human emotion includes information about human emotions, or information about whether or not a human being is satisfied with an object that causes a nodding motion. The nodding motion evaluation information can be obtained by analysis of human face image data or voice data analysis.

この評価情報出力装置では、うなずき動作に関する情報から人間のうなずき動作の意図を推定することで、うなずきの質を判別することができる。 This evaluation information output device can determine the quality of a nod by estimating the intention of the human nodding motion from the information on the nodding motion.

第5観点の評価情報出力装置は、第2観点又は第3観点の装置であって、うなずき動作の評価情報は、うなずき動作の起因となる対象に対する評価である。うなずき動作の起因となる対象に対する評価は、人間に対して行われる、手動のアンケートの結果である。 The evaluation information output device according to the fifth aspect is the device according to the second aspect or the third aspect, and the nodding motion evaluation information is an evaluation of an object that causes the nodding motion. The evaluation of the subject responsible for the nodding motion is the result of a manual questionnaire given to humans.

この評価情報出力装置では、アンケートでうなずき動作の起因となる対象に対する評価を得ることで、うなずき動作の質を判別できる。 With this evaluation information output device, the quality of the nodding motion can be determined by obtaining an evaluation of the object that causes the nodding motion in a questionnaire.

第6観点の評価情報出力装置は、第2観点から第5観点のいずれかの装置であって、うなずき動作に関する情報は、うなずき動作の回数、周期、又は振幅の少なくとも1つを含む。 An evaluation information output device according to a sixth aspect is the device according to any one of the second aspect to the fifth aspect, wherein the information regarding the nodding motion includes at least one of the number of nodding motions, the period, and the amplitude.

この評価情報出力装置では、うなずき動作の回数、周期、又は振幅を測定することで、会議等の出席者の反応に関する情報を得ることができる。 With this evaluation information output device, it is possible to obtain information about the reactions of attendees at a meeting or the like by measuring the number of nodding motions, the period, or the amplitude.

第7観点の評価情報出力装置は、第2観点から第5観点のいずれかの装置であって、 うなずき動作に関する情報は、うなずき動作のタイミング、うなずき動作の強さ、又は、複数の人間のうち、うなずき動作のタイミングが同一である、人間の有無、若しくはうなずき動作のタイミングが同一である人数の少なくとも1つを含む。 The evaluation information output device according to the seventh aspect is the device according to any one of the second aspect to the fifth aspect, wherein the information about the nodding motion is the timing of the nodding motion, the strength of the nodding motion, or the number of persons among the plurality of people. , the presence or absence of a person with the same nodding motion timing, or at least one of the number of people with the same nodding motion timing.

この評価情報出力装置では、うなずき動作のタイミング、うなずき動作の強さ、又は、複数の人間のうち、同時にうなずいている人間の有無若しくは同時にうなずいている人数を測定することで、会議等の出席者の反応に関する情報を得ることができる。 This evaluation information output device measures the timing of nodding motions, the strength of nodding motions, the presence or absence of a person nodding at the same time among a plurality of people, or the number of people nodding at the same time. It is possible to obtain information on the reaction of

第8観点の評価情報出力装置は、第3観点の装置であって、うなずき動作に関する情報は、会議中の発言の後からうなずき動作が発生するまでの時間を含む。 The evaluation information output device of the eighth aspect is the device of the third aspect, and the information about the nodding motion includes the time from the speech during the meeting to the occurrence of the nodding motion.

この評価情報出力装置では、会議中の発言後からうなずき動作が発生するまでの時間を測定することで、うなずき動作の質を判別することができる。 This evaluation information output device can determine the quality of a nodding motion by measuring the time from the time a speech is made during a meeting until the nodding motion occurs.

第9観点の評価情報出力装置は、第2観点から第5観点のいずれかの装置であって、うなずき動作に関する情報は、うなずき動作の周波数、又は単位時間あたりのうなずき動作の頻度の少なくとも1つを含む。 The evaluation information output device of the ninth aspect is the device of any one of the second aspect to the fifth aspect, wherein the information about the nodding motion is at least one of the frequency of the nodding motion and the frequency of the nodding motion per unit time. including.

この評価情報出力装置では、うなずき動作の周波数、又は単位時間あたりのうなずき動作の頻度を取得することで、うなずき動作の質を判別することができる。 With this evaluation information output device, it is possible to determine the quality of the nodding motion by obtaining the frequency of the nodding motion or the frequency of the nodding motion per unit time.

第10観点の評価情報出力装置は、第2観点から第9観点のいずれかの装置であって、第1情報取得部は、座面センサ、モーションキャプチャ、加速度センサ、デプスカメラ、又は人間の動画を用いて、うなずき動作を認識することで得られたうなずき動作に関する情報を取得する。 The evaluation information output device according to the tenth aspect is the device according to any one of the second aspect to the ninth aspect, wherein the first information acquisition unit comprises a seat sensor, motion capture, acceleration sensor, depth camera, or human moving image. is used to obtain information about the nodding motion obtained by recognizing the nodding motion.

この評価情報出力装置では、座面センサ、モーションキャプチャ、加速度センサ、デプスカメラ、又は人間の動画を用いることで、会議中のジェスチャーであるうなずき動作に関する情報を容易に取得することができる。 This evaluation information output device uses a seat sensor, a motion capture, an acceleration sensor, a depth camera, or a moving image of a person to easily acquire information about a nodding gesture, which is a gesture during a meeting.

学習装置1の機能ブロック図である。2 is a functional block diagram of the learning device 1; FIG. 評価情報出力装置100の機能ブロック図である。3 is a functional block diagram of the evaluation information output device 100; FIG. 学習データの例を示す図である。FIG. 4 is a diagram showing an example of learning data; 学習処理を説明するための図である。It is a figure for demonstrating a learning process. 評価情報出力装置100のフローチャートである。4 is a flowchart of the evaluation information output device 100; 評価情報出力装置200の機能ブロック図である。2 is a functional block diagram of an evaluation information output device 200; FIG.

(1)評価情報出力装置の全体構成
本実施形態の評価情報出力装置100を図2に示す。評価情報出力装置100は、コンピュータにより実現されるものである。評価情報出力装置100は、第1情報取得部101と、出力部102と、を備える。第1情報取得部101は、うなずき動作に関する情報11を取得する。出力部102は、学習済みモデル40を有し、学習済みモデル40を用いてうなずき動作に関する情報11からうなずき動作の評価情報21を推定して出力する。
(1) Overall Configuration of Evaluation Information Output Device FIG. 2 shows an evaluation information output device 100 of this embodiment. The evaluation information output device 100 is implemented by a computer. The evaluation information output device 100 includes a first information acquisition section 101 and an output section 102 . The first information acquisition unit 101 acquires information 11 regarding nodding motions. The output unit 102 has a trained model 40 and uses the trained model 40 to estimate evaluation information 21 of nodding motions from information 11 related to nodding motions and outputs the estimated nodding motion evaluation information 21 .

(2)評価情報出力装置の詳細構成
(2-1)第1情報取得部
第1情報取得部101は、うなずき動作に関する情報11を取得する。うなずき動作に関する情報11は、うなずき動作の回数である。本実施形態では、第1情報取得部101は、座面センサ(図示せず)を使ってうなずき動作の回数を取得する。
(2) Detailed Configuration of Evaluation Information Output Device (2-1) First Information Acquisition Unit The first information acquisition unit 101 acquires information 11 regarding a nodding motion. The information 11 on the nodding motion is the number of nodding motions. In this embodiment, the first information acquisition unit 101 acquires the number of nodding motions using a seat surface sensor (not shown).

うなずき動作の回数は、座面センサ(圧力センサ)を用いて測定される。会議の参加者は、座面センサが設置された椅子に座っている。 The number of nodding movements is measured using a seat surface sensor (pressure sensor). The participants of the conference are sitting in chairs on which seat sensors are installed.

まず、椅子の四隅に設置された座面センサに係る圧力の大きさに基づいて、重心Pの位置及び全荷重WTを求める。座面センサに重心Pと全荷重WTの大きさの変化を機械学習で学習させ、うなずき動作に該当するか否かを検出する。座面センサは、人間のうなずいたタイミングを重心重量変化によって検出する。 First, the position of the center of gravity P and the total load WT are obtained based on the magnitude of the pressure applied to the seat surface sensors installed at the four corners of the chair. The seat surface sensor is made to learn changes in the center of gravity P and the magnitude of the total load WT by machine learning, and it is detected whether or not it corresponds to a nodding motion. The seat sensor detects the timing of a person's nodding from the change in the weight of the center of gravity.

座面センサは、会議中の時間を複数のフレーム単位に分けて、うなずき動作の回数であるうなずき量を算出する。会議の各参加者がうなずいているかどうかの判断はフレーム単位で行う。参加者kに対し、ある時刻tにおけるうなずき量aktは、参加者kのうなずいているフレームの合計をSとすると次の式1で算出される。
式1:

Figure 0007260826000001

The seat sensor divides the time during the meeting into a plurality of frames and calculates the amount of nodding, which is the number of nodding movements. Whether or not each participant in the conference is nodding is determined on a frame-by-frame basis. For participant k, the nodding amount akt at a certain time t is calculated by the following equation 1, where Sk is the total number of nodding frames of participant k.
Formula 1:
Figure 0007260826000001

例えば参加者が6名の場合、参加者毎に割り当てたフレームを6名全員分合計することで、そのフレームのうなずき量が算出される。ある時刻tにおけるうなずき量Aは次の式2で算出される。
式2:

Figure 0007260826000002

For example, if there are six participants, the amount of nodding for that frame is calculated by adding up the frames assigned to each participant for all six participants. The nodding amount A t at a certain time t is calculated by the following equation 2.
Equation 2:
Figure 0007260826000002

式1で示すように参加者毎にうなずいているフレームの合計の逆数で重みをつけることによって、式2でうなずき量を算出するにあたって、よくうなずく人のうなずきは影響が小さく、あまりうなずかない人のうなずきは影響が大きくなるようにしている。 As shown in Equation 1, by weighting the reciprocal of the total number of nodding frames for each participant, when calculating the amount of nodding in Equation 2, the nodding of people who often nod has little effect, and the nods of people who do not often nod. The nod is making the impact bigger.

(2-2)出力部
出力部102は、学習済みモデル40を有し、学習済みモデル40を用いてうなずき動作に関する情報11からうなずき動作の評価情報21を推定して出力する。出力部102には、CPU又はGPUといったプロセッサを使用できる。出力部102は、記憶装置(図示せず)に記憶されているプログラムを読み出し、このプログラムに従って所定の画像処理や演算処理を行う。さらに、出力部102は、プログラムに従って、演算結果を記憶装置に書き込んだり、記憶装置に記憶されている情報を読み出したりすることができる。記憶装置は、データベースとして用いることができる。
(2-2) Output Unit The output unit 102 has a trained model 40 and uses the trained model 40 to estimate and output nodding motion evaluation information 21 from the nodding motion related information 11 . A processor such as a CPU or GPU can be used for the output unit 102 . The output unit 102 reads a program stored in a storage device (not shown) and performs predetermined image processing and arithmetic processing according to the program. Furthermore, the output unit 102 can write the calculation result to the storage device and read the information stored in the storage device according to the program. A storage device can be used as a database.

(3)学習処理
評価情報出力装置100が使用する学習済みモデル40について説明する。学習済みモデル40は、学習装置1を使ってあらかじめうなずき動作に関する情報と、うなずき動作の評価情報を含む学習用データセットによって学習させた推定モデルを用いる。
(3) Learning Process The trained model 40 used by the evaluation information output device 100 will be described. The trained model 40 uses an estimation model that has been trained in advance using the learning apparatus 1 with a training data set that includes information about the nodding motion and evaluation information of the nodding motion.

本実施形態の学習装置1を図1に示す。学習装置1は、コンピュータにより実現されるものである。学習装置1は、学習部2を備える。 FIG. 1 shows a learning device 1 of this embodiment. The learning device 1 is implemented by a computer. The learning device 1 includes a learning section 2 .

学習部2は、うなずき動作に関する情報10と、うなずき動作の評価情報20とを学習用データセット30として学習する。本実施形態では、うなずき動作に関する情報10は、うなずき動作の回数(うなずき量)である。うなずき動作の評価情報20は、うなずき動作の起因となる対象に対する評価である。うなずき動作の起因となる対象は、会議中の発言である。会議中の発言は、会議中に発生したアイデアに関するものとする。 The learning unit 2 learns information 10 related to the nodding motion and evaluation information 20 of the nodding motion as a learning data set 30 . In this embodiment, the information 10 on the nodding motion is the number of nodding motions (amount of nodding). The nodding motion evaluation information 20 is an evaluation of the object that causes the nodding motion. The object that causes the nodding motion is the speech during the meeting. Speech during the meeting shall relate to the ideas generated during the meeting.

学習処理において、うなずき動作に関する情報10は座面センサを用いて取得する。うなずき動作の評価情報20は、手動のアンケートによって取得する。 In the learning process, information 10 related to the nodding motion is obtained using the seat surface sensor. The nodding motion evaluation information 20 is obtained by a manual questionnaire.

学習済みモデル40は、うなずき動作に関する情報10と、うなずき動作の評価情報20とを学習用データセット30によって学習されたものである。 The trained model 40 is obtained by learning the information 10 on the nodding motion and the nodding motion evaluation information 20 using the learning data set 30 .

図3に学習データの一例を示す。この例では会議の参加者が、会議中にアイデアが発生した時の、会議の参加者のうなずき動作の回数(うなずき量)をうなずき動作に関する情報とする。会議中に発生したアイデアに関するアンケート結果の平均値をうなずき動作の評価情報とする。アンケートは、会議の参加者に対して、アイデアを5段階で評価して行われる。 FIG. 3 shows an example of learning data. In this example, the number of nodding movements (amount of nodding) of the participants of the conference when an idea is generated during the conference is used as the information on the nodding movements. The average value of the results of the questionnaire regarding the ideas generated during the meeting is used as the evaluation information of the nodding motion. A questionnaire is given to the participants of the conference to evaluate their ideas on a scale of five.

図3に示すように、会議中の時刻tに発生したアイデアXに対するうなずき量Aを入力とし、アンケート結果の平均値「2」を出力とする教師データセットによって学習させる。また、会議中の時刻tに発生したアイデアXに対するうなずき量Aを入力とし、アンケート結果の平均値「3」を出力とする教師データセットによって学習させる。また、会議中の時刻tに発生したアイデアXに対するうなずき量Aを入力とし、アンケート結果の平均値「4」を出力とする教師データセットによって学習させる。また、会議中の時刻tに発生したアイデアXnに対するうなずき量Anを入力とし、アンケート結果の平均値「2」を出力とする教師データセットによって学習させる。 As shown in FIG. 3, the nodding amount A1 for the idea X1 generated at time t1 during the meeting is input, and learning is performed using a teacher data set whose output is the average value "2" of the questionnaire results. In addition, learning is performed using a teacher data set in which the amount of nodding A 2 for idea X 2 generated at time t 2 during the meeting is input, and the average value of the questionnaire results "3" is output. In addition, learning is performed using a teacher data set in which the amount of nodding A 3 for idea X 3 generated at time t 3 during the meeting is input, and the average value of the questionnaire results "4" is output. In addition, learning is performed using a teacher data set in which the amount of nodding An for an idea Xn generated at time tn during the meeting is input, and the average value "2" of the questionnaire results is output.

全ての参加者のうなずいているフレームを合計した総うなずき量を縦軸、アンケート結果の平均値を横軸として作成した散布図の一例を図4に示す。 FIG. 4 shows an example of a scatter diagram prepared with the vertical axis representing the total amount of nodding, which is the total number of frames in which all participants nodded, and the horizontal axis representing the average value of the questionnaire results.

本実施形態では、6名の参加者からなる13のグループが会議に参加している。グループ毎の総うなずき量は、単純にグループ毎の参加者の全てのうなずいているフレームを合計することで算出する。また、アイデアが印象的であるかについてアンケートを行っている。アンケートは5段階で評価している。 In this embodiment, 13 groups of 6 participants are participating in the conference. The total nodding amount for each group is simply calculated by summing all the nodding frames of the participants for each group. We also conduct a questionnaire on whether the ideas are impressive. The questionnaire is evaluated in five stages.

図4に示すように、アンケート結果の平均値と総うなずき量には正の相関がある。アンケート結果の平均値と総うなずき量について、Spearman's rank correlation coefficient(スピアマンの順位相関係数)を用いて相関分析したところ、p>.05である。相関係数の絶対値は0.49となり相関がみられた。アンケート結果の平均値と総うなずき量に相関があるので、アイデアの質とうなずきの間に瞬時的な関係だけでなく、中・長期的な関係性があることが示されている。 As shown in FIG. 4, there is a positive correlation between the average value of the questionnaire results and the total number of nods. Correlation analysis using Spearman's rank correlation coefficient for the average value of the questionnaire results and the total number of nods shows p>.05. The absolute value of the correlation coefficient was 0.49, indicating a correlation. Since there is a correlation between the average value of the questionnaire results and the total number of nods, it is shown that there is not only an instantaneous relationship between the quality of ideas and the number of nods, but also a medium- to long-term relationship.

(4)評価情報出力装置の全体動作
評価情報出力装置100のフローチャートを図5に示す。本実施形態では、評価情報出力装置100を会議で使用する場合について説明する。
(4) Overall Operation of Evaluation Information Output Device A flowchart of the evaluation information output device 100 is shown in FIG. In this embodiment, a case where the evaluation information output device 100 is used in a conference will be described.

まず、ステップS1で会議を開始する。会議の出席者はカメラで撮影されている。また、会議の出席者は、圧力センサが設置された椅子に座っている。第1情報取得部101によって、会議の出席者のうなずき動作の回数(うなずき量)を取得する(ステップS2)。出力部102は、学習済みモデル40を用いて、会議の出席者のうなずき動作の回数から、アンケート結果の平均値を推定する(ステップS3)。次に、出力部102は、ステップS3で推定したアンケート結果の平均値をディスプレイ(図示せず)に出力する(ステップS4)。ディスプレイは、推定されたアンケート結果の平均値を表示する。 First, a conference is started in step S1. Conference attendees are filmed on camera. Also, conference attendees are sitting in chairs with pressure sensors installed. The first information acquisition unit 101 acquires the number of nodding motions (amount of nodding) of the participants in the conference (step S2). Using the trained model 40, the output unit 102 estimates the average value of the questionnaire results from the number of nodding actions of the participants in the meeting (step S3). Next, the output unit 102 outputs the average value of the questionnaire results estimated in step S3 to a display (not shown) (step S4). The display shows the estimated mean value of the questionnaire results.

(5)特徴
(5-1)
本実施形態に係る学習装置1では、1又は複数の人間のうなずき動作を学習する学習装置1であって、学習部2を備える。学習部2は、うなずき動作に関する情報を入力とし、うなずき動作の評価情報を出力する、学習済みモデル40、を生成する。学習部2は、うなずき動作に関する情報10と、うなずき動作の評価情報21とを学習用データセット40として学習して、学習済みモデル30を生成する。
(5) Features (5-1)
The learning device 1 according to the present embodiment is a learning device 1 that learns nodding motions of one or more people, and includes a learning unit 2 . The learning unit 2 generates a trained model 40 that receives information about the nodding motion and outputs nodding motion evaluation information. The learning unit 2 learns the nodding motion information 10 and nodding motion evaluation information 21 as a learning data set 40 to generate a trained model 30 .

この学習装置1では、会議等の出席者の反応であるうなずき動作に関する情報10とうなずき動作の評価情報20とを学習用データセット30として学習することで、会議等の集団活動の質的な評価を行うことができる学習済みモデル40を生成することができる。 In this learning device 1, by learning information 10 on nodding motions, which are reactions of attendees of a meeting, etc., and evaluation information 20 of the nodding motions as a learning data set 30, qualitative evaluation of group activities such as meetings is performed. can generate a trained model 40 that can perform

(5-2)
本実施形態に係る評価情報出力装置100では、1又は複数の人間のうなずき動作に基づいて、前記うなずき動作に関する評価情報を出力する、評価情報出力装置100であって、第1情報取得部101と、出力部102と、を備える。第1情報取得部101は、うなずき動作に関する情報11を取得する。出力部102は、うなずき動作に関する情報11を入力とし、うなずき動作の評価情報21を出力する、学習済みモデル40を有する。出力部102は、学習済みモデル40を用いてうなずき動作に関する情報11からうなずき動作の評価情報21を推定して出力する。学習済みモデル40は、うなずき動作に関する情報10と、うなずき動作の評価情報20とを学習用データセット30として学習したものである。
(5-2)
The evaluation information output device 100 according to the present embodiment is an evaluation information output device 100 that outputs evaluation information related to nodding motions based on one or more human nodding motions, and includes a first information acquisition unit 101 and , and an output unit 102 . The first information acquisition unit 101 acquires information 11 regarding nodding motions. The output unit 102 has a trained model 40 that receives information 11 on a nodding motion and outputs nodding motion evaluation information 21 . The output unit 102 uses the trained model 40 to estimate the nodding motion evaluation information 21 from the nodding motion related information 11 and outputs the estimated nodding motion evaluation information 21 . The trained model 40 is obtained by learning the information 10 on the nodding motion and the nodding motion evaluation information 20 as the learning data set 30 .

この評価情報出力装置100では、学習済みモデル30を用いて会議等の出席者の反応であるうなずき動作に関する情報11からうなずき動作の評価情報を推定することで、会議等の集団活動の質的な評価を行うことができる。 This evaluation information output device 100 uses a trained model 30 to estimate the evaluation information of the nodding motion from the information 11 on the nodding motion, which is the reaction of the attendees of the meeting or the like. can be evaluated.

評価情報出力装置100の出力部102は、会議の経過時間に沿って、うなずき動作の多さに基づいて、うなずき動作の評価情報として会議の知的生産性スコアを提示することができる。評価情報出力装置100は、参加者のうなずき動作とそのタイミングに基づいて、会議の知的生産性を評価する。 The output unit 102 of the evaluation information output device 100 can present the intellectual productivity score of the meeting as nodding motion evaluation information based on the number of nodding motions along the elapsed time of the meeting. The evaluation information output device 100 evaluates the intellectual productivity of the conference based on the nodding motions of the participants and their timing.

また、参加者のうなずきのタイミングと、うなずきの長さに基づいて、参加者の同調性を評価してもよい。発言後のうなずきを評価することで、会議における発言の貢献度を評価できる。 Also, the synchrony of the participant may be evaluated based on the timing of the participant's nod and the length of the nod. By evaluating the nod after the speech, the degree of contribution of the speech in the meeting can be evaluated.

(5-3)
本実施形態に係る評価情報出力装置100では、うなずき動作の評価情報21は、うなずき動作の起因となる対象に対する評価である。うなずき動作の起因となる対象に対する評価は、人間に対して行われる、手動のアンケートの結果である。
(5-3)
In the evaluation information output device 100 according to the present embodiment, the nodding motion evaluation information 21 is an evaluation of the object that causes the nodding motion. The evaluation of the subject responsible for the nodding motion is the result of a manual questionnaire given to humans.

この評価情報出力装置100では、アンケートでうなずき動作の起因となる対象に対する評価を得ることで、うなずき動作の質を判別できる。 With this evaluation information output device 100, the quality of the nodding motion can be determined by obtaining an evaluation of the object that causes the nodding motion in a questionnaire.

(5-4)
本実施形態に係る評価情報出力装置100では、うなずき動作に関する情報11は、うなずき動作の回数を含む。
(5-4)
In the evaluation information output device 100 according to the present embodiment, the information 11 related to the nodding motion includes the number of nodding motions.

この評価情報出力装置100では、うなずき動作の回数を測定し、うなずき量を算出することで、会議等の出席者の反応に関する情報を得ることができる。 This evaluation information output device 100 measures the number of nodding motions and calculates the amount of nodding, thereby obtaining information on the reactions of attendees at a conference or the like.

(5-5)
本実施形態に係る評価情報出力装置100では、第1情報取得部101は、座面センサを用いて、うなずき動作を認識することで得られたうなずき動作に関する情報11を取得する。
(5-5)
In the evaluation information output device 100 according to the present embodiment, the first information acquisition unit 101 acquires the information 11 regarding the nodding motion obtained by recognizing the nodding motion using the seat surface sensor.

この評価情報出力装置100では、座面センサを用いることで、会議中のジェスチャーであるうなずき動作の回数11を容易に測定することができる。 This evaluation information output device 100 can easily measure the number of times 11 of nodding motions, which are gestures during a meeting, by using a seat surface sensor.

(6)変形例
(6-1)変形例1A
本実施形態に係る評価情報出力装置100では、第1情報取得部101と、出力部102とを備える場合について説明したが、第2情報取得部をさらに備えるようにしてもよい。
(6) Modification (6-1) Modification 1A
Although the evaluation information output device 100 according to the present embodiment has been described as having the first information acquisition section 101 and the output section 102, it may further comprise a second information acquisition section.

変形例1Aの評価情報出力装置200を図6に示す。評価情報出力装置200は、コンピュータにより実現されるものである。評価情報出力装置200は、第1情報取得部201と、第2情報取得部203と、出力部202と、を備える。第1情報取得部201は、うなずき動作に関する情報11を取得する。第2情報取得部203は、うなずき動作の起因となる対象に関する情報50を取得する。 FIG. 6 shows an evaluation information output device 200 of Modification 1A. The evaluation information output device 200 is implemented by a computer. The evaluation information output device 200 includes a first information acquisition section 201 , a second information acquisition section 203 and an output section 202 . The first information acquisition unit 201 acquires the information 11 regarding the nodding motion. The second information acquisition unit 203 acquires the information 50 regarding the object that causes the nodding motion.

うなずき動作の起因となる対象に関する情報50は、会議中の発言である。変形例Aの評価情報出力装置200では、第2情報取得部203は、カメラ(図示せず)を使って動画を撮影し、動画から会議中の発言であるアイデアを取得する。 The information 50 about the object that causes the nodding motion is the speech during the meeting. In the evaluation information output device 200 of Modification A, the second information acquisition unit 203 shoots a moving image using a camera (not shown), and acquires ideas, which are utterances during the meeting, from the moving image.

出力部202は、うなずき動作の起因となる対象に関する情報50と、うなずき動作の評価情報21とを紐づけたデータを出力データ60として出力する。また、出力部202は、時系列に展開された会議の議事録情報と、うなずき動作の評価情報21である知的生産性スコアとを合体した評価データを出力するようにしてもよい。 The output unit 202 outputs, as output data 60, data in which the information 50 regarding the object that causes the nodding motion and the evaluation information 21 of the nodding motion are linked. Also, the output unit 202 may output evaluation data in which the minutes information of the meeting developed in chronological order and the intellectual productivity score, which is the evaluation information 21 of the nodding motion, are combined.

この評価情報出力装置200では、うなずき動作の起因となる対象に関する情報50と、うなずき動作の評価情報21とを紐づけて出力することで、特定の対象に対して起因して行われたうなずき動作の評価情報を得ることができる。 In this evaluation information output device 200, the information 50 related to the target causing the nodding motion and the evaluation information 21 of the nodding motion are output in association with each other. evaluation information can be obtained.

(6-2)変形例1B
本実施形態に係る評価情報出力装置100では、うなずき動作に関する情報11がうなずき動作の回数である場合について説明したが、うなずき動作の周期、又は振幅でもよい。
(6-2) Modification 1B
In the evaluation information output device 100 according to the present embodiment, the information 11 regarding the nodding motion is the number of nodding motions, but it may be the period or the amplitude of the nodding motion.

第1情報取得部101は、うなずき動作を行ったタイミングを含む、うなずきに関する情報を取得するようにしてもよい。うなずき動作を行ったタイミングを取得することによって、会議でうなずいた参加者の人数を把握することができる。うなずいた人数が多いほどうなずき動作の前にアイデアが創出されている可能性が高い。会話がないよりもアイデアが発生しているときの方がうなずき動作が多い。 The first information acquisition unit 101 may acquire information related to nodding, including the timing at which the nodding motion was performed. By acquiring the timing of the nodding motion, it is possible to grasp the number of participants who nodded at the meeting. The greater the number of people who nodded, the higher the possibility that an idea was created before the nodding motion. Nodding is more common when ideas are generated than when there is no dialogue.

また、うなずき動作に関する情報11は、参加者が会議中の発言後すぐうなずくのか、又は遅れてうなずくのかといううなずき動作のタイミング、うなずき動作の強さ、同時にうなずいている人の有無とその人数などでもよい。 In addition, the information 11 related to the nodding motion includes the timing of the nodding motion, such as whether the participant nods immediately after speaking during the meeting or nods later, the strength of the nodding motion, the presence or absence of people nodding at the same time, and the number of such people. good.

また、アイデアが出てからうなずき動作が発生するまでの時間、うなずき動作の長さ(周波数)、うなずき動作の回数(単位時間あたりの頻度)などを用いて、うなずきの特性を判別することができる。アイデアが出てからうなずくまでの時間は、動画を撮っているので、発話タイミングとの時間差を抽出することで数値化を行う。また、うなずき動作の周波数は、画像に含まれる周波数を抽出することで数値化を行う。 In addition, it is possible to determine the characteristics of a nod by using the time from the idea to the occurrence of the nodding motion, the length of the nodding motion (frequency), the number of nodding motions (frequency per unit time), etc. . Since the time from coming up with an idea to nodding is captured in a video, it is digitized by extracting the time difference from the utterance timing. Also, the frequency of the nodding motion is digitized by extracting the frequency contained in the image.

これにより、うなずきの特性を判別することで、参加者の会議中の集中度や会議の盛り上がり度を判別することができる。 Accordingly, by determining the characteristics of the nodding, it is possible to determine the degree of concentration of the participants during the conference and the degree of excitement of the conference.

(6-3)変形例1C
本実施形態に係る評価情報出力装置100では、うなずき動作に関する情報11であるうなずき動作の回数が会議の参加者のグループ毎の総うなずき量である場合について説明したが、これに限るものではない。会議の参加者の各個人のうなずき動作の回数を、うなずき動作に関する情報11としてもよい。
(6-3) Modification 1C
In the evaluation information output device 100 according to the present embodiment, the number of nodding motions, which is the information 11 related to nodding motions, is the total amount of nodding for each group of participants in the conference, but the present invention is not limited to this. The number of nodding motions performed by each participant in the conference may be used as the information 11 regarding nodding motions.

(6-4)変形例1D
本実施形態に係る評価情報出力装置100では、うなずき動作の評価情報21が人間に対して行われる手動のアンケートの結果であり、会議中に発生したアイデアが印象的であるかについてアンケートを行った場合について説明したがこれに限るものではない。会議中に発生したアイデアが、独創的である、納得できる、または社会的に受け入れられるかについて、アンケートを行うようにしてもよい。
(6-4) Modification 1D
In the evaluation information output device 100 according to the present embodiment, the evaluation information 21 of the nodding motion is the result of a manual questionnaire given to humans, and a questionnaire was conducted as to whether the ideas generated during the meeting were impressive. Although the case has been described, it is not limited to this. A questionnaire may be conducted as to whether the ideas generated during the meeting are original, convincing, or socially acceptable.

(6-5)変形例1E
本実施形態に係る評価情報出力装置100では、うなずき動作の起因となる対象は、会議中の発言であるアイデアである場合に説明したがこれに限るものではない。うなずき動作の起因となる対象は、プレゼンテーションで提示されたデータもしくは物、又は人もしくは動物のパフォーマンスの少なくとも1つを含むようにしてもよい。
(6-5) Modification 1E
In the evaluation information output device 100 according to the present embodiment, the object causing the nodding motion has been described as being an idea, which is an utterance during a meeting, but the present invention is not limited to this. The object that causes the nodding motion may include at least one of data or objects presented in the presentation, or a human or animal performance.

(6-6)変形例1F
本実施形態に係る評価情報出力装置100では、うなずき動作の評価情報21がうなずき動作の起因となる対象に関する評価である場合について説明したが、人間の感情に関する情報でもよい。人間の感情に関する情報は、人間の喜怒哀楽、またはうなずき動作の起因となる対象に対して納得しているか否かに関する情報を含む。うなずき動作の評価情報は、人間の顔面の画像データの解析又は音声データの解析によって取得できる。
(6-6) Modification 1F
In the evaluation information output device 100 according to the present embodiment, the case where the evaluation information 21 of the nodding motion is the evaluation regarding the object causing the nodding motion has been described, but information regarding human emotions may also be used. Information about human emotions includes information about whether or not a person is satisfied with an object that causes human emotions or a nodding motion. The nodding motion evaluation information can be obtained by analysis of human face image data or voice data analysis.

これにより、うなずき動作に関する情報11から人間のうなずき動作の意図を推定することで、うなずきの質を判別することができる。 Thus, by estimating the intention of the human nodding motion from the information 11 related to the nodding motion, it is possible to determine the quality of the nodding motion.

(6-7)変形例1G
本実施形態に係る評価情報出力装置100では、第1情報取得部101が座面センサからうなずき動作に関する情報を取得する場合について説明したが、これに限るものではない。モーションキャプチャ、加速度センサ、デプスカメラ、又は人間の動画を用いて、うなずき動作を認識することで得られたうなずき動作に関する情報を取得するようにしてもよい。
(6-7) Modification 1G
In the evaluation information output device 100 according to the present embodiment, the case where the first information acquisition unit 101 acquires the information about the nodding motion from the seat surface sensor has been described, but the present invention is not limited to this. Information about the nodding motion obtained by recognizing the nodding motion may be acquired using motion capture, an acceleration sensor, a depth camera, or a human video.

モーションキャプチャは、OptiTrackなどのモーションキャプチャ装置を用いて、頭部の移動を推定することができる。また、加速度センサとしてはJIN Memeなどが挙げられる。加速度センサを用いて、頭部の動きを捕捉することができる。また、デプスカメラやキネクトセンサを使って、うなずき動作の回数を測定することができる。また、会議中の参加者の動画に基づいて、頭部の動きからうなずき動作を検出することができる。 Motion capture can estimate head movement using a motion capture device such as OptiTrack. Moreover, JIN Meme etc. are mentioned as an acceleration sensor. An acceleration sensor can be used to capture head movements. A depth camera or kinect sensor can also be used to measure the number of nodding movements. Also, nodding motions can be detected from head movements based on the moving images of the participants during the conference.

(6-8)変形例1H
以上、本開示の実施形態を説明したが、特許請求の範囲に記載された本開示の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
(6-8) Modification 1H
Although embodiments of the present disclosure have been described above, it will be appreciated that various changes in form and detail may be made without departing from the spirit and scope of the present disclosure as set forth in the appended claims. .

1 学習装置
2 学習部
100、200 評価情報出力装置
101、201 第1情報取得部
203 第2情報取得部
102、202 出力部
10、11 うなずき動作に関する情報
20、21 うなずき動作の評価情報
30 学習用データセット
40 学習済みモデル
50 うなずき動作の起因となる対象に関する情報
1 learning device 2 learning units 100 and 200 evaluation information output devices 101 and 201 first information acquisition unit 203 second information acquisition units 102 and 202 output units 10 and 11 nodding motion information 20 and 21 nodding motion evaluation information 30 for learning Data set 40 Trained model 50 Information about the object causing the nodding motion

特開2019-211962号公報JP 2019-211962 A

Claims (9)

1又は複数の人間のうなずき動作を学習する学習装置であって、
前記うなずき動作に関する情報(10)を入力とし、前記うなずき動作の評価情報(20)を出力する、学習済みモデル(40)、を生成する、学習部(2)、
を備え、
前記うなずき動作の評価情報は、前記うなずき動作の起因となる対象に対する評価であり、
前記学習部は、前記うなずき動作に関する情報と、前記うなずき動作の評価情報とを学習用データセット(30)として学習して、前記学習済みモデルを生成する、
学習装置(1)。
A learning device for learning one or more human nodding actions,
a learning unit (2) that generates a trained model (40) that receives the information (10) about the nodding motion as input and outputs evaluation information (20) of the nodding motion;
with
the evaluation information of the nodding motion is an evaluation of an object that causes the nodding motion;
The learning unit learns information about the nodding motion and evaluation information of the nodding motion as a learning data set (30) to generate the trained model.
A learning device (1).
1又は複数の人間のうなずき動作に基づいて、前記うなずき動作に関する評価情報を出力する、評価情報出力装置であって、
前記うなずき動作に関する情報(11)を取得する、第1情報取得部(101、201)と、
前記うなずき動作の起因となる対象に関する情報(50)を取得する、第2情報取得部(203)と、
前記うなずき動作に関する情報を入力とし、前記うなずき動作の評価情報を出力する、学習済みモデルを有し、前記学習済みモデルを用いて前記うなずき動作に関する情報から前記うなずき動作の評価情報(21)を推定して出力する、出力部(102、202)と、
を備え、
前記うなずき動作の評価情報は、前記うなずき動作の起因となる対象に対する評価であり、
前記学習済みモデルは、前記うなずき動作に関する情報と、前記うなずき動作の評価情報とを学習用データセットとして学習したものであり、
前記うなずき動作の起因となる対象は、会議中の発言、プレゼンテーションで提示されたデータもしくは物、又は人もしくは動物のパフォーマンスの少なくとも1つを含み、
前記出力部は、前記うなずき動作の起因となる対象に関する情報と、前記うなずき動作の評価情報とを紐づけて出力する、
評価情報出力装置(100、200)。
An evaluation information output device for outputting evaluation information regarding a nodding motion based on one or more human nodding motions,
a first information acquisition unit (101, 201) for acquiring information (11) about the nodding motion;
a second information acquisition unit (203) that acquires information (50) about an object that causes the nodding motion;
A trained model that receives information on the nodding motion as an input and outputs evaluation information on the nodding motion, and uses the trained model to estimate the evaluation information (21) on the nodding motion from the information on the nodding motion. and an output unit (102, 202) that outputs
with
the evaluation information of the nodding motion is an evaluation of an object that causes the nodding motion;
The trained model is learned by using information about the nodding motion and evaluation information of the nodding motion as a learning data set,
The object that causes the nodding motion includes at least one of speech during a meeting, data or objects presented in a presentation, or performance of a person or animal,
The output unit outputs information related to an object that causes the nodding motion and evaluation information of the nodding motion in association with each other.
An evaluation information output device (100, 200).
前記うなずき動作の評価情報は、前記人間の感情に関する情報をさらに含み、
前記人間の感情に関する情報は、前記人間の喜怒哀楽に関する情報、または前記うなずき動作の起因となる対象に対して前記人間が納得しているか否かに関する情報を含み、
前記うなずき動作の評価情報は、前記人間の顔面の画像データの解析又は音声データの解析によって取得できる、
請求項2に記載の評価情報出力装置。
the nodding motion evaluation information further includes information about the human emotion,
The information about the emotion of the human includes information about the emotion of the human, or information about whether the human is satisfied with the object that causes the nodding motion,
The nodding motion evaluation information can be obtained by analysis of the human face image data or voice data analysis.
3. The evaluation information output device according to claim 2 .
前記うなずき動作の起因となる対象に対する評価は、前記人間に対して行われる、手動のアンケートの結果である、
請求項2に記載の評価情報出力装置。
The evaluation of the subject that causes the nodding motion is the result of a manual questionnaire conducted on the human.
3. The evaluation information output device according to claim 2 .
前記うなずき動作に関する情報は、前記うなずき動作の回数、周期、又は振幅の少なくとも1つを含む、
請求項2からのいずれかに記載の評価情報出力装置。
the information about the nodding motion includes at least one of the number of nodding motions, the period, or the amplitude;
5. The evaluation information output device according to claim 2.
前記うなずき動作に関する情報は、前記うなずき動作のタイミング、前記うなずき動作の強さ、又は、前記複数の人間のうち、前記うなずき動作のタイミングが同一である、前記人間の有無、若しくは前記うなずき動作のタイミングが同一である人数の少なくとも1つを含む、
請求項2からのいずれかに記載の評価情報出力装置。
The information about the nodding motion is the timing of the nodding motion, the strength of the nodding motion, or the presence or absence of the person whose nodding motion timing is the same among the plurality of people, or the timing of the nodding motion. includes at least one of the number of persons whose
5. The evaluation information output device according to claim 2.
前記うなずき動作に関する情報は、前記会議中の発言後から前記うなずき動作が発生するまでの時間を含む、
請求項に記載の評価情報出力装置。
The information on the nodding motion includes the time from when the speech is made during the meeting to when the nodding motion occurs.
3. The evaluation information output device according to claim 2 .
前記うなずき動作に関する情報は、前記うなずき動作の周波数、又は単位時間あたりの前記うなずき動作の頻度の少なくとも1つを含む、
請求項2からのいずれかに記載の評価情報出力装置。
The information about the nodding motion includes at least one of the frequency of the nodding motion or the frequency of the nodding motion per unit time.
5. The evaluation information output device according to claim 2.
前記第1情報取得部は、座面センサ、モーションキャプチャ、加速度センサ、デプスカメラ、又は前記人間の動画を用いて、前記うなずき動作を認識することで得られた前記うなずき動作に関する情報を取得する、
請求項2からのいずれかに記載の評価情報出力装置。
The first information acquisition unit acquires information about the nodding motion obtained by recognizing the nodding motion using a seat sensor, motion capture, acceleration sensor, depth camera, or video of the human.
The evaluation information output device according to any one of claims 2 to 8 .
JP2022001614A 2021-02-05 2022-01-07 Learning device and evaluation information output device Active JP7260826B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202280013277.0A CN116888606A (en) 2021-02-05 2022-02-07 Learning device and evaluation information output device
PCT/JP2022/004684 WO2022168973A1 (en) 2021-02-05 2022-02-07 Learning device and evaluation information output device
US18/275,182 US20240112083A1 (en) 2021-02-05 2022-02-07 Learning apparatus and evaluation information output apparatus
EP22749844.1A EP4290429A1 (en) 2021-02-05 2022-02-07 Learning device and evaluation information output device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021017261 2021-02-05
JP2021017261 2021-02-05

Publications (2)

Publication Number Publication Date
JP2022120787A JP2022120787A (en) 2022-08-18
JP7260826B2 true JP7260826B2 (en) 2023-04-19

Family

ID=82848998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022001614A Active JP7260826B2 (en) 2021-02-05 2022-01-07 Learning device and evaluation information output device

Country Status (1)

Country Link
JP (1) JP7260826B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014091766A1 (en) 2012-12-15 2014-06-19 国立大学法人東京工業大学 Apparatus for evaluating human mental state

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014091766A1 (en) 2012-12-15 2014-06-19 国立大学法人東京工業大学 Apparatus for evaluating human mental state

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
井上 昴治,潜在キャラクタモデルによる聞き手のふるまいに基づく対話エンゲージメントの推定,人工知能学会論文誌 2018年33巻1号,2018年01月05日,[検索日:2022.04.13],インターネット<URL:https://www.jstage.jst.go.jp/article/tjsai/33/1/33_DSH-F/_pdf/-char/ja>
山本 剛,マルチモーダルヘッドセットを用いたうなずき検出と会話の重要箇所把握,情報処理学会研究報告 Vol.2003 No.94,日本,一般社団法人情報処理学会,2003年09月26日,第2003巻
西村 賢人,SenseChairによる意見発散課題におけるコミュニケーションとうなずきの関係性に関する検討,電子情報通信学会技術研究報告 Vol.120 No.136,日本,一般社団法人電子情報通信学会,2021年01月14日,第120巻,pp.65-70

Also Published As

Publication number Publication date
JP2022120787A (en) 2022-08-18

Similar Documents

Publication Publication Date Title
US20180078184A1 (en) Dual-task performing ability evaluation method and dual-task performing ability evaluation system
Bailenson et al. The effect of behavioral realism and form realism of real-time avatar faces on verbal disclosure, nonverbal disclosure, emotion recognition, and copresence in dyadic interaction
US11417045B2 (en) Dialog-based testing using avatar virtual assistant
JP6757010B1 (en) Motion evaluation device, motion evaluation method, motion evaluation system
WO2022025200A1 (en) Reaction analysis system and reaction analysis device
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
Nakano et al. Generating robot gaze on the basis of participation roles and dominance estimation in multiparty interaction
Samad et al. A pilot study to identify autism related traits in spontaneous facial actions using computer vision
WO2019146405A1 (en) Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique
JP7260826B2 (en) Learning device and evaluation information output device
JP2013008114A (en) Conference quality evaluation device and conference quality evaluation method
WO2022168973A1 (en) Learning device and evaluation information output device
Uluyagmur-Ozturk et al. ADHD and ASD classification based on emotion recognition data
Palazzi et al. Spotting prejudice with nonverbal behaviours
JP6709868B1 (en) Analysis method, analysis system, and analysis program
CN114998440B (en) Multi-mode-based evaluation method, device, medium and equipment
CN116888606A (en) Learning device and evaluation information output device
JP7014761B2 (en) Cognitive function estimation method, computer program and cognitive function estimation device
WO2023084715A1 (en) Information processing device, information processing method, and program
US20190213403A1 (en) Augmented reality predictions using machine learning
JP2019105972A (en) Information processing apparatus and program
CN109697413B (en) Personality analysis method, system and storage medium based on head gesture
JPWO2020116069A1 (en) Information processing equipment and programs
JP6518889B2 (en) Method for supporting evaluation of communication ability and evaluation system for the ability
WO2022064617A1 (en) Video meeting evaluation system and video meeting evaluation server

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220111

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R151 Written notification of patent or utility model registration

Ref document number: 7260826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151