JP6936198B2 - Output device and output method - Google Patents

Output device and output method Download PDF

Info

Publication number
JP6936198B2
JP6936198B2 JP2018172894A JP2018172894A JP6936198B2 JP 6936198 B2 JP6936198 B2 JP 6936198B2 JP 2018172894 A JP2018172894 A JP 2018172894A JP 2018172894 A JP2018172894 A JP 2018172894A JP 6936198 B2 JP6936198 B2 JP 6936198B2
Authority
JP
Japan
Prior art keywords
line
sight
period
state
workers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018172894A
Other languages
Japanese (ja)
Other versions
JP2020046767A (en
Inventor
一郎 馬田
一郎 馬田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018172894A priority Critical patent/JP6936198B2/en
Publication of JP2020046767A publication Critical patent/JP2020046767A/en
Application granted granted Critical
Publication of JP6936198B2 publication Critical patent/JP6936198B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、作業者間の共感度に関する情報を出力する出力装置及び出力方法に関する。 The present invention relates to an output device and an output method for outputting information on sympathy between workers.

従来、インタラクションにおける被験者の共感度を推定する装置が知られている。特許文献1には、コールセンターにおけるオペレータと顧客との対話において、顧客の音声を解析することによって推定した顧客の感情の時間変化パターンに基づいて、顧客が共感又は反感したオペレータの発話箇所を推定する技術が記載されている。 Conventionally, a device for estimating the empathy of a subject in an interaction has been known. In Patent Document 1, in the dialogue between the operator and the customer in the call center, the utterance portion of the operator that the customer sympathizes with or dislikes is estimated based on the time change pattern of the customer's emotion estimated by analyzing the customer's voice. The technology is described.

特開2015−99304号公報Japanese Unexamined Patent Publication No. 2015-99304

特許文献1のような技術によって推定された感情の時間変化パターンを用いることにより、共同して作業を行う作業者間の共感度を推定することができるようにも思える。ところで、対面して行われる共同作業では、発話のほかに、資料に文字を書き込んだり、資料を示したりする動作を伴うことがある。そのため、特許文献1のような技術では、共同作業の内容によっては、発話が少なくなり、音声に基づく作業者間の共感度を推定する精度が悪くなりかねない。 It seems that it is possible to estimate the empathy between workers who work jointly by using the time-varying pattern of emotions estimated by the technique as in Patent Document 1. By the way, in face-to-face collaborative work, in addition to utterances, there may be actions such as writing letters on materials and showing materials. Therefore, in a technique such as Patent Document 1, depending on the content of the collaborative work, the number of utterances may be reduced, and the accuracy of estimating the sympathy between workers based on voice may be deteriorated.

そこで、本発明はこれらの点に鑑みてなされたものであり、共同作業における作業者間の共感度を推定する精度を向上させることができる出力装置及び出力方法を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide an output device and an output method capable of improving the accuracy of estimating the sympathy between workers in collaborative work.

本発明の第1の態様に係る出力装置は、共同して作業を行う2人の作業者それぞれの視線に関する視線データから、一方の前記作業者がいる位置を起点とした前記一方の作業者の視線の向きと、他方の前記作業者がいる位置を起点とした前記他方の作業者の視線の向きとを関連付けて特定する特定部と、前記特定部が特定した結果である複数の視線状態から、前記2人の作業者の視線が合った状態を示す相互視線状態と、前記2人の作業者が共通の物体に視線を向けた状態を示す共同視線状態とを選択する選択部と、前記作業全体の期間に対する、前記相互視線状態の期間と、前記共同視線状態の期間とを合計した合計期間の割合を示す合計視線量を算出する算出部と、前記合計視線量に対応する指標を出力する出力部と、を有する。 The output device according to the first aspect of the present invention is the output device of the one worker starting from the position where the one worker is located, based on the line-of-sight data regarding the line-of-sight of each of the two workers who work jointly. From a specific part that identifies the direction of the line of sight by associating the direction of the line of sight of the other worker with the direction of the line of sight of the other worker starting from the position where the other worker is, and from a plurality of line-of-sight states that are the result of the specific part specifying. A selection unit for selecting a mutual line-of-sight state indicating a state in which the two workers' lines of sight are aligned and a joint line-of-sight state indicating a state in which the two workers are looking at a common object, and the above. A calculation unit that calculates the total visual dose indicating the ratio of the total period of the period of the mutual line-of-sight state and the period of the joint line-of-sight state to the period of the entire work, and an index corresponding to the total visual dose are output. It has an output unit and an output unit.

前記算出部は、前記作業全体の期間に対する前記相互視線状態の期間の割合を示す相互視線量と、前記作業全体の期間に対する前記共同視線状態の期間の割合を示す共同視線量とを算出し、前記作業の内容に応じて定められる重要度に基づいて重み付けした前記相互視線量と、前記作業の内容に応じて定められる重要度に基づいて重み付けした前記共同視線量とを合計した前記合計視線量を算出してもよい。 The calculation unit calculates the mutual visual dose indicating the ratio of the period of the mutual line-of-sight state to the period of the entire work and the joint visual dose indicating the ratio of the period of the joint line-of-sight state to the period of the entire work. The total visual dose, which is the sum of the mutual visual dose weighted based on the importance determined according to the content of the work and the joint visual dose weighted based on the importance determined according to the content of the work. May be calculated.

前記算出部は、前記選択部が選択した前記視線状態ごとに、期間が長くなるほど数値が大きくなるように前記選択部が選択した前記視線状態の期間の長さに重み付けしてもよい。
前記算出部は、前記選択部が選択した前記視線状態ごとに、前記2人の作業者の発話を含む音声データから発話の状況を解析することによって特定された発話の有無に基づいて、解析された前記発話の状況に対応する前記視線状態の期間の長さに重み付けしてもよい。
前記算出部は、前記選択部が選択した前記視線状態ごとに、前記作業の内容に応じて定められる前記物体の重要度に基づいて、前記共同視線状態の期間の長さに重み付けしてもよい。
The calculation unit may weight the length of the period of the line-of-sight state selected by the selection unit so that the numerical value increases as the period becomes longer for each of the line-of-sight states selected by the selection unit.
The calculation unit is analyzed based on the presence or absence of utterances specified by analyzing the utterance situation from the voice data including the utterances of the two workers for each of the line-of-sight states selected by the selection unit. The length of the period of the line-of-sight state corresponding to the situation of the utterance may be weighted.
The calculation unit may weight the length of the period of the joint line-of-sight state based on the importance of the object determined according to the content of the work for each of the line-of-sight states selected by the selection unit. ..

前記算出部は、前記相互視線状態の期間及び前記共同視線状態の期間それぞれの長短を示す第1統計量と、前記相互視線状態の期間及び前記共同視線状態の期間それぞれのばらつきを示す第2統計量とを算出してもよいし、前記出力部は、前記相互視線状態及び前記共同視線状態それぞれに関連付けて前記第1統計量と前記第2統計量とにさらに対応する前記指標を出力してもよい。 The calculation unit has a first statistic showing the length of each of the period of the mutual line-of-sight state and the period of the joint line-of-sight state, and a second statistic showing the variation of each of the period of the mutual line-of-sight state and the period of the joint line-of-sight state. The amount may be calculated, and the output unit outputs the index further corresponding to the first statistic and the second statistic in association with each of the mutual line-of-sight state and the joint line-of-sight state. May be good.

前記出力部は、前記選択部が選択した前記相互視線状態の回数と、前記選択部が選択した前記共同視線状態の回数とにさらに対応する前記指標を出力してもよい。
前記出力部は、前記選択部が選択した前記視線状態において、前記2人の作業者の発話を含む音声データから発話の状況を解析することによって特定された前記2人の作業者それぞれの発話が重複した重複発話の期間が所定の閾値を超える場合に、前記作業の状況を示す情報をさらに出力してもよい。
The output unit may output the index further corresponding to the number of times of the mutual line-of-sight state selected by the selection unit and the number of times of the joint line-of-sight state selected by the selection unit.
In the output unit, in the line-of-sight state selected by the selection unit, the utterances of the two workers identified by analyzing the utterance situation from the voice data including the utterances of the two workers are produced. When the period of duplicated duplicate utterances exceeds a predetermined threshold value, information indicating the status of the work may be further output.

本発明の第2の態様に係る出力方法は、コンピュータが実行する、共同して作業を行う2人の作業者それぞれの視線に関する視線データから、前記2人の作業者それぞれの視線を検出するステップと、一方の前記作業者がいる位置を起点とした、検出した前記一方の作業者の視線の向きと、他方の前記作業者がいる位置を起点とした、検出した前記他方の作業者の視線の向きとを関連付けて特定するステップと、特定した結果である複数の視線状態から、前記2人の作業者の視線が合った状態を示す相互視線状態と、前記2人の作業者が共通の物体に視線を向けた状態を示す共同視線状態とを選択するステップと、前記作業全体の期間に対する、前記相互視線状態の期間と、前記共同視線状態の期間とを合計した合計期間の割合を示す合計視線量を算出するステップと、前記合計視線量に対応する指標を出力するステップと、を有する。 The output method according to the second aspect of the present invention is a step of detecting the line of sight of each of the two workers from the line of sight data regarding the line of sight of each of the two workers who work jointly, which is executed by a computer. The detected direction of the line of sight of the one worker starting from the position where one of the workers is located, and the line of sight of the detected other worker starting from the position where the other worker is located. From the step of associating and specifying the direction of The ratio of the total period of the step of selecting the joint line-of-sight state indicating the state in which the line of sight is directed to the object and the period of the mutual line-of-sight state and the period of the joint line-of-sight state to the period of the entire work is shown. It has a step of calculating the total visual dose and a step of outputting an index corresponding to the total visual dose.

本発明によれば、共同作業における作業者間の共感度を推定する精度を向上させることができるという効果を奏する。 According to the present invention, there is an effect that the accuracy of estimating the sympathy between workers in collaborative work can be improved.

出力装置の概要を説明するための図である。It is a figure for demonstrating the outline of an output device. 出力装置の構成を示す図である。It is a figure which shows the structure of an output device. 共同作業における2人の作業者の視線状態を模式的に表した図である。It is a figure which represented the line-of-sight state of two workers in a collaborative work schematically. 出力部が出力した出力画面の一例を示す図である。It is a figure which shows an example of the output screen output by an output part. 出力装置の処理の流れを示すフローチャートである。It is a flowchart which shows the processing flow of an output device.

[出力装置1の概要]
図1は、出力装置1の概要を説明するための図である。本願の発明者は、様々な共同作業における作業者間のインタラクションを分析したところ、共感度が高いとみられる状態においては、2人の作業者の視線が合ったり、2人の作業者の視線が共通の物体に向いたりする状態が多いことを見出した。そこで、本実施の形態では、上記の現象を利用して、共同作業中の2人の作業者の視線状態を解析することによって推定した作業者間の共感度に関する情報を提供する。
[Overview of output device 1]
FIG. 1 is a diagram for explaining an outline of the output device 1. The inventor of the present application analyzed the interaction between workers in various collaborative work, and found that the two workers' eyes were aligned or the two workers' eyes were aligned in a state where the sympathy was considered to be high. We found that there are many situations in which we face a common object. Therefore, in the present embodiment, the above phenomenon is used to provide information on the sympathy between the workers estimated by analyzing the line-of-sight states of the two workers in the collaborative work.

出力装置1は、共同して作業を行う作業者間の共感度に関する情報を出力する装置であり、例えばコンピュータである。出力装置1には、共同して作業を行う2人の作業者それぞれの視線に関する視線データが予め記憶されている。視線データは、例えば、不図示の視線センサを介して検出した作業者の視線の向きと、作業者がいる空間(部屋)に存在する物体(人を含む)の位置を示す空間情報に基づいて特定される作業者の視線先に含まれる物体とを関連付けたデータである。 The output device 1 is a device that outputs information regarding empathy between workers who work jointly, and is, for example, a computer. The output device 1 stores in advance line-of-sight data relating to the line-of-sight of each of the two workers who work jointly. The line-of-sight data is based on, for example, the direction of the line-of-sight of the worker detected through a line-of-sight sensor (not shown) and spatial information indicating the position of an object (including a person) existing in the space (room) where the worker is. It is the data associated with the object included in the line of sight of the specified worker.

「視線先に含まれる物体」は、例えば、作業者がいる空間に存在する物体の領域と、作業者の視線先の領域とが重なった領域に含まれる物体である。作業者の視線先の領域の大きさと、作業者がいる空間に存在する物体ごとの領域の大きさとにおいては、予め設定がされている。 The "object included in the line of sight" is, for example, an object included in an area where the area of the object existing in the space where the worker is present and the area of the line of sight of the worker overlap. The size of the area of the line of sight of the worker and the size of the area of each object existing in the space where the worker is located are set in advance.

出力装置1は、例えば、赤外光を用いたプルキニエ検出による手法を用いて話者の視線の向きを検出してもよいし、画像処理による黒眼領域及び白眼領域の検出を用いた手法を用いて作業者の視線の向きを検出してもよい。また、出力装置1は、作業者の頭部の向きに基づいて視線の向きを推定してもよい。この場合、出力装置1は、モーションキャプチャー装置、赤外線センサ、又は加速度センサ等を用いて頭部の動作を検出してもよい。出力装置1は、不図示の通信部を介してリアルタイムに視線データを取得してもよい。 The output device 1 may detect the direction of the speaker's line of sight by using, for example, a method of Purkinje detection using infrared light, or a method using detection of a black eye region and a white eye region by image processing. It may be used to detect the direction of the operator's line of sight. Further, the output device 1 may estimate the direction of the line of sight based on the direction of the worker's head. In this case, the output device 1 may detect the movement of the head using a motion capture device, an infrared sensor, an acceleration sensor, or the like. The output device 1 may acquire line-of-sight data in real time via a communication unit (not shown).

まず、出力装置1は、作業者X及び作業者Yそれぞれの視線の向きを関連付けた視線状態を特定する(図1の(1))。出力装置1は、特定した複数の視線状態から、図1に示すような相互視線状態と、図1に示すような共同視線状態とを選択する(図1の(2))。 First, the output device 1 specifies a line-of-sight state in which the directions of the line of sight of the worker X and the worker Y are associated with each other ((1) in FIG. 1). The output device 1 selects a mutual line-of-sight state as shown in FIG. 1 and a joint line-of-sight state as shown in FIG. 1 from the specified plurality of line-of-sight states ((2) in FIG. 1).

出力装置1は、相互視線状態の期間と、共同視線状態の期間とに基づいて、合計視線量を算出する(図1の(3))。具体的には、出力装置1は、共同作業全体の期間に対する、相互視線状態の期間と、共同視線状態の期間とを合計した合計期間の割合を示す合計視線量を算出する。 The output device 1 calculates the total visual dose based on the period of the mutual line-of-sight state and the period of the joint line-of-sight state ((3) in FIG. 1). Specifically, the output device 1 calculates a total visual dose indicating the ratio of the total period of the period of the mutual line-of-sight state and the period of the joint line-of-sight state to the period of the entire collaborative work.

出力装置1は、共同作業において相互視線状態の期間及び共同視線状態の期間が長くなるほど、合計視線量が示す数値が大きくなり、作業者X及び作業者Yの共感度が高いと推定する。そして、出力装置1は、合計視線量に対応する指標を出力する(図1の(4))。 The output device 1 estimates that the longer the period of the mutual line-of-sight state and the period of the joint line-of-sight state in the joint work, the larger the numerical value indicated by the total visual dose, and the higher the sympathy of the worker X and the worker Y. Then, the output device 1 outputs an index corresponding to the total visual dose ((4) in FIG. 1).

このように、出力装置1は、共同作業中の2人の作業者の視線状態に基づいて作業者間の共感度を推定する。発話においては、共同作業の内容によって多かったり少なかったりする場合があるが、視線においては、このような共同作業の内容による影響が少ない。そのため、出力装置1は、共同作業中の2人の作業者の視線状態に基づいて作業者間の共感度を推定することにより、共同作業の内容による作業者間の共感度を推定する精度のばらつきを低減することができる。その結果、出力装置1は、共同作業における作業者間の共感度を推定する精度を向上することができる。
以下、出力装置1の構成について説明する。
In this way, the output device 1 estimates the sympathy between the two workers based on the line-of-sight state of the two workers in the collaborative work. In utterances, there may be more or less depending on the content of the collaborative work, but in the line of sight, the influence of the content of such collaborative work is small. Therefore, the output device 1 has an accuracy of estimating the sympathy between the workers based on the contents of the collaborative work by estimating the sympathy between the workers based on the line-of-sight state of the two workers during the collaborative work. Variation can be reduced. As a result, the output device 1 can improve the accuracy of estimating the sympathy between workers in the collaborative work.
Hereinafter, the configuration of the output device 1 will be described.

[出力装置1の構成]
図2は、出力装置1の構成を示す図である。出力装置1は、記憶部11と、制御部12とを有する。記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。また、記憶部11は、視線データを記憶している。
[Configuration of output device 1]
FIG. 2 is a diagram showing the configuration of the output device 1. The output device 1 has a storage unit 11 and a control unit 12. The storage unit 11 is a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk. The storage unit 11 stores a program executed by the control unit 12. In addition, the storage unit 11 stores the line-of-sight data.

制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されたプログラムを実行することにより、特定部121、選択部122、算出部123、及び出力部126として機能する。 The control unit 12 is, for example, a CPU (Central Processing Unit). The control unit 12 functions as a specific unit 121, a selection unit 122, a calculation unit 123, and an output unit 126 by executing the program stored in the storage unit 11.

特定部121は、2人の作業者それぞれの視線の向きを関連付けた視線状態を特定する。具体的には、特定部121は、視線データから、一方の作業者がいる位置を起点とした一方の作業者の視線の向きと、他方の作業者がいる位置を起点とした他方の作業者の視線の向きとを関連付けた視線状態を特定する。 The identification unit 121 identifies a line-of-sight state in which the directions of the line of sight of each of the two workers are associated with each other. Specifically, the specific unit 121 refers to the direction of the line of sight of one worker starting from the position where one worker is located and the other worker starting from the position where the other worker is located, based on the line-of-sight data. Identify the line-of-sight state associated with the direction of the line-of-sight.

特定部121は、例えば、2人の作業者それぞれに対応する視線データから、2人の作業者のうちのいずれかの視線の向きが変化するごとに、一方の作業者の視線先に含まれる物体と、他方の作業者の視線先に含まれる物体とを関連付けて特定する。このように、特定部121は、2人の作業者それぞれの視線の向きを関連付けた視線状態を特定する。特定部121は、特定した結果である複数の視線状態を選択部122に入力する。 The specific unit 121 is included in the line-of-sight destination of one of the two workers each time the direction of the line of sight of one of the two workers changes from the line-of-sight data corresponding to each of the two workers. The object is identified by associating it with the object included in the line of sight of the other worker. In this way, the specifying unit 121 identifies the line-of-sight state in which the directions of the line-of-sight of each of the two workers are associated with each other. The specific unit 121 inputs a plurality of line-of-sight states, which are the specified results, to the selection unit 122.

選択部122は、特定部121が特定した結果である複数の視線状態から、相互視線状態と共同視線状態とを選択する。相互視線状態は、2人の作業者の視線が合った状態を示す。共同視線状態は、2人の作業者が共通の物体に視線を向けた状態を示す。 The selection unit 122 selects a mutual line-of-sight state and a joint line-of-sight state from a plurality of line-of-sight states that are the results specified by the specific unit 121. The mutual line-of-sight state indicates a state in which the lines of sight of the two workers are aligned. The joint line-of-sight state indicates a state in which two workers look at a common object.

図3は、共同作業における2人の作業者(作業者X及び作業者Y)の視線状態を模式的に表した図である。図3に示す視線状態M1、M2、M3は、作業者X及び作業者Yの視線が合った状態である相互視線状態に属する。図3に示す視線状態S1、S2、S3は、作業者X及び作業者Yが共通の物体(資料)に視線を向けた状態である共同視線状態に属する。図3に示すように、特定部121が、視線データから、作業者X及び作業者Yのうちのいずれかの視線の向きが変化するごとに、「作業者Xの視線」欄に示す作業者Xの視線先に含まれる物体(作業者Y又は資料)と、「作業者Yの視線」欄に示す作業者Yの視線先に含まれる物体(作業者X又は資料)とを関連付けて特定したとする。 FIG. 3 is a diagram schematically showing the line-of-sight states of two workers (worker X and worker Y) in the joint work. The line-of-sight states M1, M2, and M3 shown in FIG. 3 belong to the mutual line-of-sight states in which the lines of sight of the worker X and the worker Y are aligned. The line-of-sight states S1, S2, and S3 shown in FIG. 3 belong to the joint line-of-sight state in which the worker X and the worker Y are looking at a common object (material). As shown in FIG. 3, each time the specific unit 121 changes the direction of the line of sight of either the worker X or the worker Y from the line-of-sight data, the worker shown in the “line of sight of the worker X” column. The object (worker Y or material) included in the line of sight of X and the object (worker X or material) included in the line of sight of worker Y shown in the "line of sight of worker Y" column were identified in association with each other. And.

この場合において、選択部122は、相互視線状態として、視線状態M1、M2、M3を選択する。また、選択部122は、共同視線状態として、視線状態S1、S2、S3を選択する。選択部122は、選択した各視線状態の期間と、視線状態の種類(相互視線状態又は共同視線状態)とを関連付けて算出部123に入力する。 In this case, the selection unit 122 selects the line-of-sight states M1, M2, and M3 as the mutual line-of-sight states. Further, the selection unit 122 selects the line-of-sight states S1, S2, and S3 as the joint line-of-sight state. The selection unit 122 inputs the period of each selected line-of-sight state to the calculation unit 123 in association with the type of line-of-sight state (mutual line-of-sight state or joint line-of-sight state).

算出部123は、重み付け部124と、視線量算出部125とを有する。重み付け部124は、相互視線量と共同視線量とを算出し、作業の内容に応じて定められる重要度に基づいて相互視線量と共同視線量とを重み付けする。相互視線量は、作業全体の期間に対する相互視線状態の期間の割合を示す。共同視線量は、作業全体の期間に対する共同視線状態の期間の割合を示す。 The calculation unit 123 includes a weighting unit 124 and a visual dose calculation unit 125. The weighting unit 124 calculates the mutual visual dose and the joint visual dose, and weights the mutual visual dose and the joint visual dose based on the importance determined according to the content of the work. Reciprocal dose indicates the ratio of the duration of the reciprocal gaze state to the duration of the entire work. The joint gaze dose indicates the ratio of the period of the joint gaze state to the period of the entire work.

相互視線量及び共同視線量それぞれの重要度は、共同作業の内容に応じて設定される。例えば、共同作業が、ブレインストーミング又はディベート等のように発話を中心とした作業である場合、共同視線状態よりも相互視線状態の方が重視されるため、共同視線量よりも相互視線量の方が重要度が高く設定される。また、例えば、共同作業が、資料等の作成を中心とした作業である場合、相互視線状態よりも共同視線状態の方が重視されるため、相互視線量よりも共同視線量の方が重要度が高く設定される。 The importance of each of the mutual visual dose and the joint visual dose is set according to the content of the collaborative work. For example, when collaborative work is utterance-centered work such as brainstorming or debate, the mutual gaze state is more important than the joint gaze state, so the mutual gaze dose is more important than the joint gaze dose. Is set with high importance. In addition, for example, when collaborative work is a work centered on the creation of materials, etc., the joint gaze state is more important than the mutual gaze state, so the joint gaze dose is more important than the mutual gaze dose. Is set high.

相互視線量及び共同視線量それぞれの重要度は、重要度が示す修正係数を管理する係数管理データベースに予め記憶されている。係数管理データベースは、重要度が示す修正係数を、視線状態の種類ごとに関連付けて記憶している。重要度には、視線状態の種類ごとに異なる修正係数が設定されている。 The importance of each of the mutual visual dose and the joint visual dose is stored in advance in the coefficient management database that manages the correction coefficient indicated by the importance. The coefficient management database stores the correction coefficient indicated by the importance in association with each type of line-of-sight state. For the importance, different correction coefficients are set for each type of line-of-sight state.

図3に示す例において、重み付け部124は、まず、相互視線状態である視線状態M1、M2、M3の期間と、共同視線状態である視線状態S1、S2、S3の期間とをそれぞれ合計する。重み付け部124は、相互視線状態の合計期間及び共同視線状態の合計期間それぞれを作業全体の期間で正規化することにより、相互視線量と共同視線量とを算出する。そして、重み付け部124は、係数管理データベースに記憶されている相互視線状態の重要度が示す修正係数を相互視線量に乗じ、係数管理データベースに記憶されている共同視線状態の重要度が示す修正係数を共同視線量に乗じる。 In the example shown in FIG. 3, the weighting unit 124 first sums the periods of the line-of-sight states M1, M2, and M3, which are the mutual line-of-sight states, and the periods of the line-of-sight states S1, S2, and S3, which are the joint line-of-sight states. The weighting unit 124 calculates the mutual visual dose and the joint visual dose by normalizing each of the total period of the mutual line-of-sight state and the total period of the joint line-of-sight state with the period of the entire work. Then, the weighting unit 124 multiplies the mutual visual dose by the correction coefficient indicated by the importance of the mutual line-of-sight state stored in the coefficient management database, and the correction coefficient indicated by the importance of the joint line-of-sight state stored in the coefficient management database. Multiply the joint visual dose.

このようにして、重み付け部124は、作業の内容に応じて定められる重要度に基づいて相互視線量と共同視線量とを重み付けする。このようにすることで、重み付け部124は、共同作業の内容による作業者間の共感度を推定する精度のばらつきを低減することができる。 In this way, the weighting unit 124 weights the mutual visual dose and the joint visual dose based on the importance determined according to the content of the work. By doing so, the weighting unit 124 can reduce the variation in the accuracy of estimating the sympathy between the workers depending on the content of the collaborative work.

ここで、作業者Xをxとし、作業者Yをyとし、選択部122が選択した相互視線状態の数をvとし、選択部122が選択した共同視線状態の数をwとした場合において、ある相互視線状態(1<j<v)の期間をt(m(j,x,y))とし、ある相互視線状態(1<k<w)の期間をt(s(k,x,y))としたとする。また、共同作業の期間をt(I)としたとする。 Here, when the worker X is x, the worker Y is y, the number of mutual line-of-sight states selected by the selection unit 122 is v, and the number of joint line-of-sight states selected by the selection unit 122 is w. The period of a certain mutual line-of-sight state (1 <j <v) is t (m (j, x, y) ), and the period of a certain mutual line-of-sight state (1 <k <w) is t (s (k, x, y)). ) ). Further, it is assumed that the period of collaborative work is t (I).

この場合において、重み付け部124は、以下の式(1)、(2)を用いて相互視線量M(x,y)及び共同視線量S(x,y)を算出することができる。

Figure 0006936198
In this case, the weighting unit 124 can calculate the mutual visual dose M (x, y) and the joint visual dose S (x, y) using the following equations (1) and (2).
Figure 0006936198

ところで、本願の発明者は、共同作業における作業者間の共感度と、1つの視線状態(相互視線状態又は共同視線状態)の期間とが相関する関係にあることを見出した。具体的には、作業者間の共感度が高い場合においては、1つの視線状態の期間が長くなる傾向にあることを本願の発明者は見出した。そこで、重み付け部124は、選択部122が選択した視線状態ごとに、期間が長くなるほど数値が大きくなるように選択部122が選択した視線状態の期間の長さに重み付けしてもよい。 By the way, the inventor of the present application has found that there is a correlation between the empathy between workers in collaborative work and the period of one line-of-sight state (mutual line-of-sight state or joint line-of-sight state). Specifically, the inventor of the present application has found that when the sympathy between workers is high, the period of one line-of-sight state tends to be long. Therefore, the weighting unit 124 may weight the length of the period of the line-of-sight state selected by the selection unit 122 so that the numerical value increases as the period becomes longer for each line-of-sight state selected by the selection unit 122.

この場合、重み付け部124は、選択部122が選択した視線状態ごとに、期間が長くなるほど数値が大きくなるように選択部122が選択した視線状態の期間の長さに重み付けした後に、相互視線量と共同視線量とを算出する。このように、重み付け部124は、共同作業中に変動する作業者間の共感度を考慮することにより、作業者間の共感度を推定する精度を向上させることができる。 In this case, the weighting unit 124 weights the length of the period of the line-of-sight state selected by the selection unit 122 so that the numerical value increases as the period becomes longer for each line-of-sight state selected by the selection unit 122, and then the mutual visual dose. And the joint visual dose. In this way, the weighting unit 124 can improve the accuracy of estimating the sympathy between the workers by considering the sympathy between the workers that fluctuates during the joint work.

また、共同作業における作業者間の共感度と、選択部122が選択した視線状態(相互視線状態又は共同視線状態)における発話の有無とが相関する関係にあることを本願の発明者は見出した。具体的には、作業者間の共感度が高い場合においては、選択部122が選択した視線状態においてコミュニケーションが取られる傾向にあることを本願の発明者は見出した。そこで、重み付け部124は、選択部122が選択した視線状態ごとに、2人の作業者の発話を含む音声データから発話の状況を解析することによって特定された発話の有無に基づいて、解析された発話の状況に対応する視線状態の期間の長さに重み付けしてもよい。 Further, the inventor of the present application has found that there is a correlation between the empathy between workers in collaborative work and the presence or absence of utterance in the line-of-sight state (mutual line-of-sight state or joint line-of-sight state) selected by the selection unit 122. .. Specifically, the inventor of the present application has found that when the sympathy between workers is high, communication tends to be taken in the line-of-sight state selected by the selection unit 122. Therefore, the weighting unit 124 is analyzed based on the presence or absence of utterances specified by analyzing the utterance situation from the voice data including the utterances of the two workers for each line-of-sight state selected by the selection unit 122. The length of the period of the line-of-sight state corresponding to the situation of the utterance may be weighted.

具体的には、重み付け部124は、1より大きな実数である修正係数を、解析結果が発話ありを示す視線状態の期間の長さに乗じることにより重み付けしてもよい。また、重み付け部124は、1より小さな実数である修正係数を、解析結果が発話なしを示す視線状態の期間の長さに乗じることにより重み付けしてもよい。このように、重み付け部124は、選択部122が選択した視線状態におけるコミュニケーションの有無を考慮することにより、共感度を推定する精度を向上させることができる。 Specifically, the weighting unit 124 may weight the correction coefficient, which is a real number larger than 1, by multiplying the length of the period of the line-of-sight state in which the analysis result indicates that there is an utterance. Further, the weighting unit 124 may weight the correction coefficient, which is a real number smaller than 1, by multiplying the length of the period of the line-of-sight state in which the analysis result indicates that there is no utterance. In this way, the weighting unit 124 can improve the accuracy of estimating the empathy by considering the presence or absence of communication in the line-of-sight state selected by the selection unit 122.

共同作業においては、作業者がいる空間に存在する物体それぞれの重要度が異なる。例えば、2人の作業者が共同して書き込みを行っている資料は、作業者がいる空間(部屋)の壁にかけられている時計又はカレンダー等よりも重要度が高いことが考えられる。そこで、重み付け部124は、選択部122が選択した視線状態ごとに、作業の内容に応じて定められる物体(人を除く)の重要度に基づいて、共同視線状態の期間の長さに重み付けしてもよい。 In collaborative work, the importance of each object existing in the space where the worker is located is different. For example, a material written jointly by two workers may be more important than a clock or calendar hung on the wall of the space (room) where the workers are. Therefore, the weighting unit 124 weights the length of the period of the joint line-of-sight state based on the importance of the object (excluding a person) determined according to the content of the work for each line-of-sight state selected by the selection unit 122. You may.

物体の重要度は、予め設定されていてもよいし、作業者による物体への指示量、接触量、又は注視量に基づいて算出されてもよいし、2人の作業者との平均距離に基づいて算出されてもよい。このように、重み付け部124は、共同作業の内容に応じた物体の役割(重要性)を考慮することにより、共感度を推定する精度を向上させることができる。重み付け部124は、重み付けした相互視線量と、重み付けした共同視線量とを視線量算出部125に入力する。 The importance of the object may be preset, calculated based on the amount of instruction, contact, or gaze of the object by the worker, or the average distance between the two workers. It may be calculated based on. In this way, the weighting unit 124 can improve the accuracy of estimating the empathy by considering the role (importance) of the object according to the content of the collaborative work. The weighting unit 124 inputs the weighted mutual visual dose and the weighted joint visual dose to the visual dose calculation unit 125.

視線量算出部125は、作業全体の期間に対する、相互視線状態の期間と、共同視線状態の期間とを合計した合計期間の割合を示す合計視線量を算出する。具体的には、視線量算出部125は、重み付け部124が作業の内容に応じて定められる重要度に基づいて重み付けした相互視線量と、重み付け部124が作業の内容に応じて定められる重要度に基づいて重み付けした共同視線量とを合計した合計視線量を算出する。視線量算出部125は、算出した合計視線量を出力部126に入力する。 The visual dose calculation unit 125 calculates the total visual dose indicating the ratio of the total period of the period of the mutual line-of-sight state and the period of the joint line-of-sight state to the period of the entire work. Specifically, in the visual dose calculation unit 125, the mutual visual dose weighted by the weighting unit 124 based on the importance determined according to the work content and the importance of the weighting unit 124 determined according to the work content. The total visual dose is calculated by adding the weighted joint visual dose based on. The visual dose calculation unit 125 inputs the calculated total visual dose to the output unit 126.

ここで、相互視線量をM(x,y)とし、共同視線量をS(x,y)とし、相互視線状態の重要度が示す修正係数をQとし、共同視線状態の重要度が示す修正係数をRとしたとする。この場合において、視線量算出部125は、以下の式(3)を用いて合計視線量E(x,y)を算出することができる。

Figure 0006936198
Here, the mutual visual dose is M (x, y) , the joint visual dose is S (x, y) , the correction coefficient indicated by the importance of the mutual visual state is Q, and the correction indicated by the importance of the joint visual state is Q. Let the coefficient be R. In this case, the visual dose calculation unit 125 can calculate the total visual dose E (x, y) using the following equation (3).
Figure 0006936198

視線量算出部125は、相互視線状態の期間及び共同視線状態の期間それぞれの長短を示す第1統計量と、相互視線状態の期間及び共同視線状態の期間それぞれのばらつきを示す第2統計量とをさらに算出してもよい。第1統計量は、例えば、各視線状態の平均期間又は最頻値等である。第1統計量は、数値が大きいほど、作業者間の共感度が高いことを示す。第2統計量は、例えば、不偏分散又は標本分散等である。第2統計量は、数値が小さいほど、共同作業全体における共感度の変動が小さいことを示す。 The visual dose calculation unit 125 includes a first statistic showing the length of each of the period of the mutual gaze state and the period of the joint gaze state, and a second statistic showing the variation of each of the period of the mutual gaze state and the period of the joint gaze state. May be further calculated. The first statistic is, for example, the average period or mode of each line-of-sight state. The first statistic shows that the larger the value, the higher the sympathy between workers. The second statistic is, for example, unbiased variance or sample variance. The second statistic shows that the smaller the number, the smaller the variation in empathy throughout the collaboration.

視線量算出部125は、例えば、第1統計量として、相互視線状態の平均期間と、共同視線状態の平均期間をさらに算出してもよい。また、視線量算出部125は、例えば、第2統計量として、相互視線状態の不偏分散と、共同視線状態の不偏分散とをさらに算出してもよい。 The visual dose calculation unit 125 may further calculate, for example, the average period of the mutual line-of-sight state and the average period of the joint line-of-sight state as the first statistic. Further, the visual dose calculation unit 125 may further calculate, for example, the unbiased variance of the mutual line-of-sight state and the unbiased variance of the joint line-of-sight state as the second statistic.

出力部126は、視線量算出部125が算出した合計視線量に対応する指標を出力する。指標は、合計視線量に基づいて推定される作業者間の共感度を示す共感情報である。出力装置1には、例えば、複数の段階に分類された共感度の各段階に対応する共感情報が記憶されている。 The output unit 126 outputs an index corresponding to the total visual dose calculated by the visual dose calculation unit 125. The index is sympathy information indicating the sympathy between workers estimated based on the total visual dose. The output device 1 stores, for example, sympathy information corresponding to each stage of sympathy classified into a plurality of stages.

図4は、出力部126が出力した出力画面の一例を示す図である。図4に示すグラフは、2段階に分類された共感度における合計視線量の位置を示す。図4に示すように、出力部126は、出力画面において、視線量算出部125が算出した合計視線量をグラフに描画するとともに、当該合計視線量に対応する共感情報を吹き出しに表示する。出力部126は、例えば、作業者が3人以上である場合、2人1組の組み合わせごとに算出された合計視線量を図4に示すグラフに並べて表示してもよい。 FIG. 4 is a diagram showing an example of an output screen output by the output unit 126. The graph shown in FIG. 4 shows the position of the total visual dose in the empathy classified into two stages. As shown in FIG. 4, the output unit 126 draws the total visual dose calculated by the visual dose calculation unit 125 on a graph on the output screen, and displays the sympathy information corresponding to the total visual dose in a balloon. For example, when the number of workers is three or more, the output unit 126 may display the total visual dose calculated for each combination of two workers side by side in the graph shown in FIG.

出力部126は、視線量算出部125が、第1統計量及び第2統計量を算出した場合、相互視線状態及び共同視線状態それぞれに関連付けて第1統計量と第2統計量とにさらに対応する指標を出力してもよい。また、出力部126は、選択部122が選択した相互視線状態の回数と、選択部122が選択した共同視線状態の回数とにさらに対応する指標を出力してもよい。 When the visual dose calculation unit 125 calculates the first statistic and the second statistic, the output unit 126 further corresponds to the first statistic and the second statistic in association with each of the mutual line-of-sight state and the joint line-of-sight state. The index to be output may be output. Further, the output unit 126 may output an index further corresponding to the number of mutual line-of-sight states selected by the selection unit 122 and the number of joint line-of-sight states selected by the selection unit 122.

共同作業において2人の作業者に反感が生じている場合にも、相互視線状態が多くなることを本願の発明者は見出した。また、2人の作業者に反感が生じている状況における相互視線状態において、2人の作業者の発話がオーバーラップする傾向にあることを本願の発明者は見出した。そこで、出力部126は、選択部122が選択した視線状態において、2人の作業者の発話を含む音声データから発話の状況を解析することによって特定された2人の作業者それぞれの発話が重複した重複発話の期間が所定の閾値(例えば400ミリ秒)を超える場合に、作業の状況を示す情報をさらに出力してもよい。 The inventor of the present application has found that the state of mutual gaze increases even when two workers are disliked in the joint work. In addition, the inventor of the present application has found that the utterances of the two workers tend to overlap in a mutual line-of-sight state in a situation where the two workers have an antipathy. Therefore, the output unit 126 duplicates the utterances of the two workers identified by analyzing the utterance situation from the voice data including the utterances of the two workers in the line-of-sight state selected by the selection unit 122. When the period of the repeated utterances exceeds a predetermined threshold value (for example, 400 milliseconds), information indicating the work status may be further output.

所定の閾値は、共感を示す相槌及び笑い声を除外するための基準値である。出力部126は、例えば、重複発話の期間が所定の閾値を超える相互視線状態の割合が半数以上である場合に、2人の作業者に反感が生じている可能性があることを、合計視線量に対応する指標とともに出力してもよい。 The predetermined threshold value is a reference value for excluding sympathetic aizuchi and laughter. The output unit 126 indicates that, for example, when the ratio of the mutual line-of-sight state in which the period of duplicate utterance exceeds a predetermined threshold value is more than half, the two workers may have an antipathy. It may be output together with an index corresponding to the quantity.

[出力装置1の処理の流れ]
続いて、出力装置1の処理の流れについて説明する。図5は、出力装置1の処理の流れを示すフローチャートである。本フローチャートは、例えば、出力装置1を利用する利用者が、記憶部11に視線データを格納し、作業者間の共感度の推定処理を実行する操作を行ったことを契機として開始する。
[Processing flow of output device 1]
Subsequently, the processing flow of the output device 1 will be described. FIG. 5 is a flowchart showing a processing flow of the output device 1. This flowchart starts, for example, when a user who uses the output device 1 performs an operation of storing line-of-sight data in the storage unit 11 and executing an operation of estimating sympathy between workers.

特定部121は、2人の作業者それぞれの視線の向きを関連付けた視線状態を特定する(S1)。具体的には、特定部121は、視線データから、一方の作業者がいる位置を起点とした一方の作業者の視線の向きと、他方の作業者がいる位置を起点とした他方の作業者の視線の向きとを関連付けた視線状態を特定する。特定部121は、特定した複数の視線状態を選択部122に入力する。 The identification unit 121 specifies a line-of-sight state in which the directions of the line-of-sight of each of the two workers are associated (S1). Specifically, the specific unit 121 refers to the direction of the line of sight of one worker starting from the position where one worker is located and the other worker starting from the position where the other worker is located, based on the line-of-sight data. Identify the line-of-sight state associated with the direction of the line-of-sight. The specific unit 121 inputs the specified plurality of line-of-sight states to the selection unit 122.

選択部122は、特定部121が特定した結果である複数の視線状態から、相互視線状態と共同視線状態とを選択する(S2)。選択部122は、選択した各視線状態の期間と、視線状態の種類(相互視線状態又は共同視線状態)とを関連付けて重み付け部124に入力する。 The selection unit 122 selects a mutual line-of-sight state and a joint line-of-sight state from a plurality of line-of-sight states that are the results specified by the specific unit 121 (S2). The selection unit 122 inputs the period of each selected line-of-sight state to the weighting unit 124 in association with the type of line-of-sight state (mutual line-of-sight state or joint line-of-sight state).

重み付け部124は、相互視線量と共同視線量とを算出し、作業の内容に応じて定められる重要度に基づいて相互視線量と共同視線量とを重み付けする。具体的には、重み付け部124は、まず、選択部122が選択した複数の相互視線状態の期間と、選択部122が選択した複数の共同視線状態の期間とをそれぞれ合計することにより、相互視線状態の合計期間と共同視線状態の合計期間とを算出する(S3)。 The weighting unit 124 calculates the mutual visual dose and the joint visual dose, and weights the mutual visual dose and the joint visual dose based on the importance determined according to the content of the work. Specifically, the weighting unit 124 first sums the periods of the plurality of mutual line-of-sight states selected by the selection unit 122 and the periods of the plurality of joint line-of-sight states selected by the selection unit 122, respectively. The total period of the state and the total period of the joint line-of-sight state are calculated (S3).

重み付け部124は、相互視線状態の合計期間と共同視線状態の合計期間とを算出すると、相互視線状態の合計期間及び共同視線状態の合計期間それぞれを作業全体の期間で正規化することにより、相互視線量と共同視線量とを算出する(S4)。そして、重み付け部124は、係数管理データベースに記憶されている相互視線状態の重要度が示す修正係数を相互視線量に乗じ、係数管理データベースに記憶されている共同視線状態の重要度が示す修正係数を共同視線量に乗じることにより、相互視線量と共同視線量とを重み付けする(S5)。重み付け部124は、重み付けした相互視線量と、重み付けした共同視線量とを視線量算出部125に入力する。 When the weighting unit 124 calculates the total period of the mutual line-of-sight state and the total period of the joint line-of-sight state, the weighting unit 124 normalizes each of the total period of the mutual line-of-sight state and the total period of the joint line-of-sight state with the period of the entire work. The visual dose and the joint visual dose are calculated (S4). Then, the weighting unit 124 multiplies the mutual visual dose by the correction coefficient indicated by the importance of the mutual line-of-sight state stored in the coefficient management database, and the correction coefficient indicated by the importance of the joint line-of-sight state stored in the coefficient management database. Is multiplied by the joint visual dose to weight the mutual visual dose and the joint visual dose (S5). The weighting unit 124 inputs the weighted mutual visual dose and the weighted joint visual dose to the visual dose calculation unit 125.

視線量算出部125は、作業全体の期間に対する、相互視線状態の期間と、共同視線状態の期間とを合計した合計期間の割合を示す合計視線量を算出する(S6)。具体的には、視線量算出部125は、重み付け部124が作業の内容に応じて定められる重要度に基づいて重み付けした相互視線量と、重み付け部124が作業の内容に応じて定められる重要度に基づいて重み付けした共同視線量とを合計した合計視線量を算出する。視線量算出部125は、算出した合計視線量を出力部126に入力する。そして、出力部126は、視線量算出部125が算出した合計視線量に対応する指標を出力する(S7)。 The visual dose calculation unit 125 calculates the total visual dose indicating the ratio of the total period of the period of the mutual line-of-sight state and the period of the joint line-of-sight state to the period of the entire work (S6). Specifically, in the visual dose calculation unit 125, the mutual visual dose weighted by the weighting unit 124 based on the importance determined according to the work content and the importance of the weighting unit 124 determined according to the work content. The total visual dose is calculated by adding the weighted joint visual dose based on. The visual dose calculation unit 125 inputs the calculated total visual dose to the output unit 126. Then, the output unit 126 outputs an index corresponding to the total visual dose calculated by the visual dose calculation unit 125 (S7).

[本実施の形態における効果]
以上説明したとおり、出力装置1は、視線データから特定された複数の視線状態から相互視線状態と共同視線状態とを選択する。そして、出力装置1は、作業全体の期間に対する、相互視線状態の期間と、共同視線状態の期間とを合計した合計期間の割合を示す合計視線量を算出し、算出した合計視線量に対応する指標を出力する。このように、出力装置1は、共同作業中の2人の作業者の視線状態に基づいて作業者間の共感度を推定することにより、共同作業の内容による作業者間の共感度を推定する精度のばらつきを低減することができる。その結果、出力装置1は、共同作業における作業者間の共感度を推定する精度を向上することができる。出力装置1が出力した指標においては、グループ内のチームワーク評価、及び作業グループ編成のための支援等に用いることができる。
[Effects in this embodiment]
As described above, the output device 1 selects a mutual line-of-sight state and a joint line-of-sight state from a plurality of line-of-sight states specified from the line-of-sight data. Then, the output device 1 calculates the total visual dose indicating the ratio of the total period of the period of the mutual line-of-sight state and the period of the joint line-of-sight state to the period of the entire work, and corresponds to the calculated total visual dose. Output the index. In this way, the output device 1 estimates the sympathy between the workers based on the line-of-sight state of the two workers during the collaborative work, thereby estimating the sympathy between the workers according to the content of the collaborative work. Variations in accuracy can be reduced. As a result, the output device 1 can improve the accuracy of estimating the sympathy between workers in the collaborative work. The index output by the output device 1 can be used for teamwork evaluation within a group, support for forming a work group, and the like.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. be. For example, the specific embodiment of the distribution / integration of the device is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed / integrated in any unit. Can be done. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.

1 出力装置
11 記憶部
12 制御部
121 特定部
122 選択部
123 算出部
124 重み付け部
125 視線量算出部
126 出力部

1 Output device 11 Storage unit 12 Control unit 121 Specific unit 122 Selection unit 123 Calculation unit 124 Weighting unit 125 Visual dose calculation unit 126 Output unit

Claims (9)

共同して作業を行う2人の作業者それぞれの視線に関する視線データから、一方の前記作業者がいる位置を起点とした前記一方の作業者の視線の向きと、他方の前記作業者がいる位置を起点とした前記他方の作業者の視線の向きとを関連付けて特定する特定部と、
前記特定部が特定した結果である複数の視線状態から、前記2人の作業者の視線が合った状態を示す相互視線状態と、前記2人の作業者が共通の物体に視線を向けた状態を示す共同視線状態とを選択する選択部と、
前記作業全体の期間に対する、前記相互視線状態の期間と、前記共同視線状態の期間とを合計した合計期間の割合を示す合計視線量を算出する算出部と、
前記合計視線量に基づいて推定される前記2人の作業者間の共感度を示す指標を出力する出力部と、
を有する出力装置。
From the line-of-sight data regarding the line-of-sight of each of the two workers who work jointly, the direction of the line-of-sight of one worker starting from the position where one of the workers is located and the position where the other worker is located. The specific part specified by associating with the direction of the line of sight of the other worker starting from
From a plurality of line-of-sight states that are the result of the specific unit identifying, a mutual line-of-sight state indicating a state in which the lines of sight of the two workers are aligned, and a state in which the two workers direct their lines of sight to a common object. A selection unit that selects the joint line-of-sight state that indicates
A calculation unit that calculates the total visual dose, which indicates the ratio of the total period of the period of the mutual line-of-sight state and the period of the joint line-of-sight state to the period of the entire work.
An output unit that outputs an index indicating sympathy between the two workers estimated based on the total visual dose, and an output unit.
Output device with.
前記算出部は、前記作業全体の期間に対する前記相互視線状態の期間の割合を示す相互視線量と、前記作業全体の期間に対する前記共同視線状態の期間の割合を示す共同視線量とを算出し、前記作業の内容に応じて定められる重要度に基づいて重み付けした前記相互視線量と、前記作業の内容に応じて定められる重要度に基づいて重み付けした前記共同視線量とを合計した前記合計視線量を算出する、
請求項1に記載の出力装置。
The calculation unit calculates the mutual visual dose indicating the ratio of the period of the mutual line-of-sight state to the period of the entire work and the joint visual dose indicating the ratio of the period of the joint line-of-sight state to the period of the entire work. The total visual dose, which is the sum of the mutual visual dose weighted based on the importance determined according to the content of the work and the joint visual dose weighted based on the importance determined according to the content of the work. To calculate,
The output device according to claim 1.
前記算出部は、前記選択部が選択した前記視線状態ごとに、期間が長くなるほど数値が大きくなるように前記選択部が選択した前記視線状態の期間の長さに重み付けする、
請求項1又は2に記載の出力装置。
The calculation unit weights the length of the period of the line-of-sight state selected by the selection unit so that the numerical value increases as the period becomes longer for each of the line-of-sight states selected by the selection unit.
The output device according to claim 1 or 2.
前記算出部は、前記選択部が選択した前記視線状態ごとに、前記2人の作業者の発話を含む音声データから発話の状況を解析することによって特定された発話の有無に基づいて、解析された前記発話の状況に対応する前記視線状態の期間の長さに重み付けする、
請求項1から3のいずれか一項に記載の出力装置。
The calculation unit is analyzed based on the presence or absence of utterances specified by analyzing the utterance situation from the voice data including the utterances of the two workers for each of the line-of-sight states selected by the selection unit. The length of the period of the line-of-sight state corresponding to the situation of the utterance is weighted.
The output device according to any one of claims 1 to 3.
前記算出部は、前記選択部が選択した前記視線状態ごとに、前記作業の内容に応じて定められる前記物体の重要度に基づいて、前記共同視線状態の期間の長さに重み付けする、
請求項1から4のいずれか一項に記載の出力装置。
The calculation unit weights the length of the period of the joint line-of-sight state based on the importance of the object determined according to the content of the work for each of the line-of-sight states selected by the selection unit.
The output device according to any one of claims 1 to 4.
前記算出部は、前記相互視線状態の期間及び前記共同視線状態の期間それぞれの長短を示す第1統計量と、前記相互視線状態の期間及び前記共同視線状態の期間それぞれのばらつきを示す第2統計量とを算出し、
前記出力部は、前記相互視線状態及び前記共同視線状態それぞれに関連付けて前記第1統計量と前記第2統計量とにさらに基づいて推定される前記2人の作業者間の共感度を示す前記指標を出力する、
請求項1から5のいずれか一項に記載の出力装置。
The calculation unit has a first statistic showing the length of each of the period of the mutual line-of-sight state and the period of the joint line-of-sight state, and a second statistic showing the variation of each of the period of the mutual line-of-sight state and the period of the joint line-of-sight state. Calculate the amount and
The output unit shows the sympathy between the two workers estimated based on the first statistic and the second statistic in association with each of the mutual line-of-sight state and the joint line-of-sight state. Output index,
The output device according to any one of claims 1 to 5.
前記出力部は、前記選択部が選択した前記相互視線状態の回数と、前記選択部が選択した前記共同視線状態の回数とにさらに基づいて推定される前記2人の作業者間の共感度を示す前記指標を出力する、
請求項1から6のいずれか一項に記載の出力装置。
The output unit further determines the sympathy between the two workers estimated based on the number of times the mutual line-of-sight state selected by the selection unit and the number of times the joint line-of-sight state selected by the selection unit. Output the index shown
The output device according to any one of claims 1 to 6.
前記出力部は、前記選択部が選択した前記視線状態において、前記2人の作業者の発話を含む音声データから発話の状況を解析することによって特定された前記2人の作業者それぞれの発話が重複した重複発話の期間が所定の閾値を超える場合に、前記作業の状況を示す情報をさらに出力する、
請求項1から7のいずれか一項に記載の出力装置。
In the output unit, in the line-of-sight state selected by the selection unit, the utterances of the two workers identified by analyzing the utterance situation from the voice data including the utterances of the two workers are produced. When the period of duplicated duplicate utterances exceeds a predetermined threshold value, information indicating the status of the work is further output.
The output device according to any one of claims 1 to 7.
コンピュータが実行する、
共同して作業を行う2人の作業者それぞれの視線に関する視線データから、前記2人の作業者それぞれの視線を検出するステップと、
一方の前記作業者がいる位置を起点とした、検出した前記一方の作業者の視線の向きと、他方の前記作業者がいる位置を起点とした、検出した前記他方の作業者の視線の向きとを関連付けて特定するステップと、
特定した結果である複数の視線状態から、前記2人の作業者の視線が合った状態を示す相互視線状態と、前記2人の作業者が共通の物体に視線を向けた状態を示す共同視線状態とを選択するステップと、
前記作業全体の期間に対する、前記相互視線状態の期間と、前記共同視線状態の期間とを合計した合計期間の割合を示す合計視線量を算出するステップと、
前記合計視線量に基づいて推定される前記2人の作業者間の共感度を示す指標を出力するステップと、
を有する出力方法。
Computer runs,
A step of detecting the line of sight of each of the two workers from the line of sight data regarding the line of sight of each of the two workers who work jointly, and
The detected direction of the line of sight of the one worker starting from the position where one of the workers is located, and the direction of the line of sight of the detected other worker starting from the position where the other worker is located. And the steps to associate and identify
From a plurality of line-of-sight states as a result of identification, a mutual line-of-sight state indicating a state in which the lines of sight of the two workers are aligned and a joint line-of-sight state showing a state in which the two workers are looking at a common object. Steps to select the state and
A step of calculating a total visual dose indicating the ratio of the total period of the period of the mutual line-of-sight state and the period of the joint line-of-sight state to the period of the entire work.
A step of outputting an index showing the sympathy between the two workers estimated based on the total visual dose, and
Output method with.
JP2018172894A 2018-09-14 2018-09-14 Output device and output method Active JP6936198B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018172894A JP6936198B2 (en) 2018-09-14 2018-09-14 Output device and output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018172894A JP6936198B2 (en) 2018-09-14 2018-09-14 Output device and output method

Publications (2)

Publication Number Publication Date
JP2020046767A JP2020046767A (en) 2020-03-26
JP6936198B2 true JP6936198B2 (en) 2021-09-15

Family

ID=69901333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018172894A Active JP6936198B2 (en) 2018-09-14 2018-09-14 Output device and output method

Country Status (1)

Country Link
JP (1) JP6936198B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4354313B2 (en) * 2004-01-21 2009-10-28 株式会社野村総合研究所 Inter-user intimacy measurement system and inter-user intimacy measurement program
JP2006075348A (en) * 2004-09-09 2006-03-23 Fuji Xerox Co Ltd Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program
US9606621B2 (en) * 2006-07-28 2017-03-28 Philips Lighting Holding B.V. Gaze interaction for information display of gazed items
JP2009026190A (en) * 2007-07-23 2009-02-05 Toshiba Corp Device and method for determining object of interest
JP5477153B2 (en) * 2010-05-11 2014-04-23 セイコーエプソン株式会社 Service data recording apparatus, service data recording method and program
JP2013197906A (en) * 2012-03-21 2013-09-30 Hitachi Information & Telecommunication Engineering Ltd Administrator automatic notification system of call support status
JP6099342B2 (en) * 2012-09-19 2017-03-22 大学共同利用機関法人情報・システム研究機構 Interactive information search device using gaze interface
JP6560137B2 (en) * 2016-02-08 2019-08-14 Kddi株式会社 Concentration estimation device

Also Published As

Publication number Publication date
JP2020046767A (en) 2020-03-26

Similar Documents

Publication Publication Date Title
JP4717934B2 (en) Relational analysis method, relational analysis program, and relational analysis apparatus
JP6596899B2 (en) Service data processing apparatus and service data processing method
Lee et al. New signal detection theory-based framework for eyewitness performance in lineups.
US20180032818A1 (en) Providing a personalized fitting room experience
JP2018010501A (en) Interview system
US20240144306A1 (en) Systems and methods for assessing implicit associations
CN108846724A (en) Data analysing method and system
JP2018032164A (en) Interview system
Bernin et al. Towards more robust automatic facial expression recognition in smart environments
JP7364187B2 (en) Accounting audit support device, accounting audit support method, and accounting audit support program
JP7214372B2 (en) Conference productivity visualization system, conference productivity visualization device, visualization method and program
JP6936198B2 (en) Output device and output method
WO2019146405A1 (en) Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique
Rhue Beauty’s in the AI of the beholder: how AI anchors subjective and objective predictions
CA3104919A1 (en) Automatic emotion response detection
US20220129821A1 (en) Retail traffic analysis statistics to actionable intelligence
JP2019105972A (en) Information processing apparatus and program
WO2022024274A1 (en) Image processing device, image processing method, and recording medium
WO2022168180A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
JP7041046B2 (en) Group estimation device and group estimation method
JP7003883B2 (en) A system for assessing the degree of similarity in psychological states between audiences
JP6966404B2 (en) Output device and output method
US10878339B2 (en) Leveraging machine learning to predict user generated content
Akash et al. Monitoring and Analysis of Students’ Live Behaviour using Machine Learning
US20220408011A1 (en) User characteristic-based display presentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210826

R150 Certificate of patent or registration of utility model

Ref document number: 6936198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150