JP2016062084A - Work management device, feeling analysis terminal, work management program and work management method - Google Patents

Work management device, feeling analysis terminal, work management program and work management method Download PDF

Info

Publication number
JP2016062084A
JP2016062084A JP2014192713A JP2014192713A JP2016062084A JP 2016062084 A JP2016062084 A JP 2016062084A JP 2014192713 A JP2014192713 A JP 2014192713A JP 2014192713 A JP2014192713 A JP 2014192713A JP 2016062084 A JP2016062084 A JP 2016062084A
Authority
JP
Japan
Prior art keywords
work
information
unit
emotion
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014192713A
Other languages
Japanese (ja)
Other versions
JP6556436B2 (en
Inventor
健太郎 大西
Kentaro Onishi
健太郎 大西
大介 勝又
Daisuke Katsumata
大介 勝又
亨 杉本
Toru Sugimoto
亨 杉本
直人 村山
Naoto Murayama
直人 村山
宣広 井堀
Nobuhiro IHORI
宣広 井堀
直人 宮尾
Naoto MIYAO
直人 宮尾
尚義 吉本
Hisayoshi Yoshimoto
尚義 吉本
宏明 高月
Hiroaki Takatsuki
宏明 高月
貴之 藤原
Takayuki Fujiwara
貴之 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2014192713A priority Critical patent/JP6556436B2/en
Publication of JP2016062084A publication Critical patent/JP2016062084A/en
Application granted granted Critical
Publication of JP6556436B2 publication Critical patent/JP6556436B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of correctly evaluating a worker.SOLUTION: A work management device 200 comprises: a communication part 140 for receiving a voice code obtained by encoding a voice related to work with a predetermined method from another device; and a work evaluation part 234 for evaluating a feeling of the voice using the received voice code, and using the evaluation for evaluating the work related to the voice code. When there is information of an image related to the work, the work evaluation part 234 modifies the evaluation of the feeling of the voice using the feeling specified by a facial expression processing part 232, and evaluates the work.SELECTED DRAWING: Figure 1

Description

本発明は、作業管理装置、感情解析端末、作業管理プログラムおよび作業管理方法に関するものである。   The present invention relates to a work management device, an emotion analysis terminal, a work management program, and a work management method.

特許文献1には、「対象テキストデータの形態素解析結果と構文解析結果との少なくとも一方を用いて、前記対象テキストデータ内にどの程度その意味内容が明示されているかを表す明示性特徴量を推定する明示性推定部と、怒りの感情が表現されているか否かを示す教師信号付きの学習用テキストデータの明示性特徴量から予め学習された識別器を用いて、前記対象テキストデータ内に怒りの感情が表現されているか否かを、前記明示性推定部で推定された前記対象テキストデータの明示性特徴量から識別する感情識別部と、を備える、感情推定装置」と記載されている。   Patent Document 1 states that “an explicit feature amount indicating how much the content of meaning is clearly specified in the target text data is estimated using at least one of the morphological analysis result and the syntax analysis result of the target text data. Angry in the target text data using an explicitness estimation unit and a discriminator previously learned from the explicit feature quantity of learning text data with a teacher signal indicating whether or not an angry emotion is expressed It is described that the emotion estimation device includes an emotion identification unit that identifies whether or not the emotion is expressed from the explicit feature amount of the target text data estimated by the explicit estimation unit.

特開2012−113542号公報JP 2012-113542 A

上記技術では、文字に起こされた言語情報に基づいて感情を識別することはできても、発話時の声の質を加味した感情評価を行うことは難しい。例えば、訪問先の作業担当者の指揮の下で作業者が作業を行う場合等において、作業担当者に与えた心証を考慮した作業者の評価を行う場合、発話時の言語情報だけを用いたのでは作業者を正確に評価することは難しい。言い換えると、作業担当者の心証は、必ずしも言語情報の変化として表出するわけではないため、作業担当者との会話音声の質を無視した言語情報のみを用いて作業者を評価すると、評価に正確さを欠くおそれが大きい。   In the above technique, although it is possible to identify emotions based on linguistic information caused by characters, it is difficult to perform emotion evaluation that takes into account the quality of the voice during speech. For example, when the worker performs work under the direction of the worker in charge of visit, when evaluating the worker considering the mind given to the worker, only the language information at the time of utterance is used. Therefore, it is difficult to accurately evaluate workers. In other words, since the mentality of the worker is not necessarily expressed as a change in linguistic information, evaluating the worker using only language information ignoring the quality of conversational speech with the worker is useful. There is a high risk of lack of accuracy.

本発明の目的は、より正確に作業者を評価する技術を提供することにある。   An object of the present invention is to provide a technique for more accurately evaluating an operator.

本願は上記、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明に係る作業管理装置は、他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信部と、受け付けた上記音声コードを用いて該音声の感情の評価を行い、上記評価を該音声コードに関する作業を評価するのに用いる作業評価部と、を備える。   The present application includes a plurality of means for solving at least a part of the above-described problems. Examples of such means are as follows. In order to solve the above-described problem, the work management device according to the present invention includes a communication unit that receives a voice code obtained by coding a voice related to work from another device by a predetermined method, and uses the received voice code. A work evaluation unit that performs evaluation of emotion and uses the evaluation to evaluate work related to the voice code.

また、上記の作業管理装置においては、上記作業評価部は、上記音声の感情の評価を、上記音声コードを用いて特定した感情の良否の経時変化により構成される波形の幾何情報を用いて行うものであってもよい。   Further, in the work management apparatus, the work evaluation unit performs the evaluation of the emotion of the voice using the geometric information of the waveform constituted by the temporal change of the quality of the emotion specified using the voice code. It may be a thing.

また、上記の作業管理装置においては、上記波形において、感情の良否に所定の度合いを超える変化が有る場合に、該変化のあった時刻よりも所定の時間分過去を起点として上記音声を再生する原因探索部を備えるものであってもよい。   Further, in the work management apparatus, when the waveform has a change exceeding a predetermined degree in the quality of the emotion, the sound is reproduced starting from the past for a predetermined time from the time of the change. A cause search unit may be provided.

また、上記の作業管理装置においては、上記作業評価部は、上記作業に関する難易度に応じて上記感情の評価を行い、上記感情の評価に上記難易度による修正を加えて上記作業を評価する、ものであってもよい。   Further, in the work management apparatus, the work evaluation unit evaluates the emotion according to the degree of difficulty related to the work, and evaluates the work by adding correction based on the difficulty to the evaluation of the emotion. It may be a thing.

また、上記の作業管理装置においては、上記作業評価部は、上記作業に関する管理を行う担当者に応じて上記感情の評価を行い、上記感情の評価に上記担当者の特性による修正を加えて上記作業を評価するものであってもよい。   Further, in the work management device, the work evaluation unit evaluates the emotion according to a person in charge of managing the work, and adds the correction based on the characteristic of the person in charge to the evaluation of the emotion. The work may be evaluated.

また、上記の作業管理装置においては、上記通信部は、上記音声コードを受け付けると共に、上記音声コードに関する画像情報を受け付け、上記画像情報に含まれる顔の表情が示す感情を特定する表情処理部を備え、上記作業評価部は、上記音声の感情の評価に上記表情処理部により特定された感情による修正を加えて上記作業を評価するものであってもよい。   Further, in the work management apparatus, the communication unit receives the voice code, receives image information related to the voice code, and includes an expression processing unit that identifies an emotion represented by a facial expression included in the image information. The work evaluation unit may evaluate the work by adding a correction based on the emotion specified by the facial expression processing unit to the evaluation of the emotion of the voice.

また、上記の作業管理装置においては、上記通信部が上記作業に関する音声コードに関連付けて受信したナレッジ情報を格納する記憶部と、ナレッジ管理部と、を備え、上記通信部は、上記作業を特定する情報を受け付け、上記ナレッジ管理部は、受け付けた上記作業に関する音声コードと関連付けられたナレッジ情報を特定し出力するものであってもよい。   In addition, the work management apparatus includes a storage unit that stores knowledge information received by the communication unit in association with a voice code related to the work, and a knowledge management unit, and the communication unit identifies the work. The knowledge management unit may identify and output knowledge information associated with the received voice code related to the work.

また、本願に係る感情解析端末は、作業に関する音声情報を取得する音声取得部と、上記音声情報が備える属性に応じて感情の良否を示す音声コード情報を特定する音声分析部と、上記音声コード情報を上記作業に関連付ける感情分析部と、上記音声コード情報を、関連付けられた上記作業の情報と共に他の装置へ出力する通信部と、を備える。   Also, the emotion analysis terminal according to the present application includes a voice acquisition unit that acquires voice information related to work, a voice analysis unit that specifies voice code information indicating the quality of emotion according to an attribute included in the voice information, and the voice code An emotion analysis unit for associating information with the work, and a communication unit for outputting the voice code information to another apparatus together with the information on the work associated therewith.

また、上記の感情解析端末においては、上記音声情報に対応する画像情報を取得する画像取得部と、上記画像情報に含まれる顔の表情を特定する表情分析部と、上記感情分析部は、上記作業に、上記音声コード情報と上記表情と、の情報を関連付けるものであってもよい。   In the emotion analysis terminal, the image acquisition unit that acquires image information corresponding to the audio information, the facial expression analysis unit that specifies facial expressions included in the image information, and the emotion analysis unit include: Information of the voice code information and the facial expression may be associated with the work.

また、本願に係る作業管理プログラムは、コンピューターに、作業の管理を行う手順を実行させる作業管理プログラムであって、上記コンピューターを、制御手段として機能させ、上記制御手段に対して、他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信ステップと、受け付けた上記音声コードを用いて該音声の感情の評価を行い、上記評価を該音声コードに関する作業を評価するのに用いる作業評価ステップと、を実行させる。   Further, the work management program according to the present application is a work management program for causing a computer to execute a procedure for managing work. The work management program causes the computer to function as control means, and causes the control means to be transmitted from another device. A communication step for receiving a voice code obtained by coding a voice related to a work by a predetermined method, and evaluating the emotion of the voice using the received voice code, and using the evaluation to evaluate a work related to the voice code. And an operation evaluation step.

また、本願に係る作業管理方法は、コンピューターを用いて作業管理の手順を行う作業管理方法であって、上記コンピューターは、制御部を備え、上記制御部は、他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信ステップと、受け付けた上記音声コードを用いて該音声の感情の評価を行い、上記評価を該音声コードに関する作業を評価するのに用いる作業評価ステップと、を実行する。   Further, the work management method according to the present application is a work management method for performing a work management procedure using a computer, wherein the computer includes a control unit, and the control unit is configured to output a sound related to the work from another device. A communication step for accepting a voice code encoded by the method, a work evaluation step for evaluating the emotion of the voice using the received voice code, and using the evaluation to evaluate a work related to the voice code, Execute.

本発明によると、より正確に作業者を評価する技術を提供することができる。ただし、上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。   According to the present invention, it is possible to provide a technique for more accurately evaluating an operator. However, problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

実施形態に係る作業管理システムの構成例を示す図である。It is a figure showing an example of composition of a work management system concerning an embodiment. 感情分析記憶部に格納されるデータ構造の例を示す図である。It is a figure which shows the example of the data structure stored in an emotion analysis memory | storage part. 感情基準記憶部に格納されるデータ構造の例を示す図である。It is a figure which shows the example of the data structure stored in an emotion reference | standard memory | storage part. 作業実績記憶部に格納されるデータ構造の例を示す図である。It is a figure which shows the example of the data structure stored in a work performance memory | storage part. 評価基礎情報記憶部に格納されるデータ構造の例を示す図である。It is a figure which shows the example of the data structure stored in an evaluation basic information storage part. 対人応対記憶部に格納されるデータ構造の例を示す図である。It is a figure which shows the example of the data structure stored in a personal reception memory | storage part. 作業情報記憶部に格納されるデータ構造の例を示す図である。It is a figure which shows the example of the data structure stored in a work information storage part. 感情解析端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of an emotion analysis terminal. 作業管理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a work management apparatus. 感情評価処理のフローを示す図である。It is a figure which shows the flow of an emotion evaluation process. 作業評価処理のフローを示す図である。It is a figure which shows the flow of a work evaluation process. 顧客の感情変動グラフの例を示す図である。It is a figure which shows the example of a customer's emotion fluctuation graph. 作業評価処理において表示される作業評価結果画面の例を示す図である。It is a figure which shows the example of the work evaluation result screen displayed in a work evaluation process. 原因探索処理のフローを示す図である。It is a figure which shows the flow of a cause search process. 原因探索処理において表示される原因表示画面の例を示す図である。It is a figure which shows the example of the cause display screen displayed in a cause search process. クレーム予防情報記憶部の構成例を示す図である。It is a figure which shows the structural example of a complaint prevention information storage part. クレーム予防処理のフローを示す図である。It is a figure which shows the flow of a claim prevention process. クレーム予防処理において表示される予防情報表示画面の例を示す図である。It is a figure which shows the example of the prevention information display screen displayed in a claim prevention process. クレーム予防処理において表示される予防情報表示画面の別の例を示す図である。It is a figure which shows another example of the prevention information display screen displayed in a claim prevention process.

以下に、本発明に係る第一の実施形態を適用した作業管理システム1を用いた実施形態について、図面を参照して説明する。   Hereinafter, an embodiment using a work management system 1 to which a first embodiment according to the present invention is applied will be described with reference to the drawings.

図1は、本発明の第一の実施形態に係る作業管理システム1の構成例を示す図である。本実施形態において想定する作業管理システム1においては、感情解析端末100と、作業管理装置200と、が含まれる。該システムにおいては、作業者10は、感情解析端末100を身体(例えば、感情解析端末100が眼鏡型装置、いわゆるスマートグラス等である場合には、顔)に装着した状態で作業対象機器300に対して所定の作業を行う。例えば、作業対象機器300のメンテナンス作業や、設置作業、棚卸作業等の作業を行う。   FIG. 1 is a diagram showing a configuration example of a work management system 1 according to the first embodiment of the present invention. The work management system 1 assumed in the present embodiment includes an emotion analysis terminal 100 and a work management apparatus 200. In this system, the worker 10 attaches the emotion analysis terminal 100 to the work target device 300 while wearing the emotion analysis terminal 100 on the body (for example, the face when the emotion analysis terminal 100 is a glasses-type device, so-called smart glasses). On the other hand, a predetermined work is performed. For example, maintenance work, installation work, inventory work, and the like of the work target device 300 are performed.

感情解析端末100は、作業者10が身体の一部に着脱可能に取り付け可能な計算機全般を含む、いわゆるウェアラブルデバイスとも呼ばれる装置である。望ましくは、感情解析端末100は、作業者に装着され、作業者の視野と同様あるいはより広角な画像情報を取得可能であり、作業者の知覚する音声情報、すなわち作業者10自身が発した声、あるいは作業者10に聞こえる声の情報を得ることができる。スマートグラスは、そのようないわゆるウェアラブルデバイスの一つであり、装着時に作業者の両手が拘束されにくいものであるため、作業品質向上等を狙う作業者の支援をより効率よく行うことができる。なお、感情解析端末100は、作業管理システム1に複数含まれる。   The emotion analysis terminal 100 is an apparatus called a so-called wearable device including an entire computer that can be detachably attached to a part of the body of the worker 10. Desirably, the emotion analysis terminal 100 is worn by the worker and can acquire image information that is similar to or wider than the worker's field of view. Voice information perceived by the worker, that is, voice generated by the worker 10 itself. Alternatively, voice information that can be heard by the operator 10 can be obtained. The smart glass is one of such so-called wearable devices, and since it is difficult for the operator's hands to be restrained at the time of wearing, the support of the worker aiming at improving the work quality can be performed more efficiently. A plurality of emotion analysis terminals 100 are included in the work management system 1.

なお、感情解析端末100は、作業者10が所有する端末であってもよいし、作業者10が属する組織から作業者に貸与される端末であってもよい。作業管理装置200は、作業者10が行う作業を評価する処理と、作業者10が作業先の担当者の感情を大きく変化させた場合にその原因となる要因を洗い出す支援処理と、他の作業者10等も含めて作業先の担当者に対する対応上の注意点を事前に作業者10へ知らせる処理を行う。   The emotion analysis terminal 100 may be a terminal owned by the worker 10 or a terminal lent to the worker from an organization to which the worker 10 belongs. The work management apparatus 200 includes a process for evaluating work performed by the worker 10, a support process for identifying factors that cause the worker 10 to significantly change the feeling of the person in charge at the work destination, and other work. A process for notifying the worker 10 in advance of points to note when dealing with the person in charge of the work destination, including the worker 10 and the like.

感情解析端末100と、作業管理装置200との間は、公衆無線網や携帯電話網等のネットワークを介して接続される。作業管理装置200は、例えばサーバー装置、パーソナルコンピューター、いわゆるスマートフォンやタブレット端末等を含む携帯電話装置であり、他の装置と通信可能な処理装置である。   The emotion analysis terminal 100 and the work management apparatus 200 are connected via a network such as a public wireless network or a mobile phone network. The work management device 200 is a mobile phone device including, for example, a server device, a personal computer, a so-called smart phone, a tablet terminal, and the like, and is a processing device that can communicate with other devices.

感情解析端末100は、表示制御部110と、位置特定部120と、音声取得部130と、通信部140と、画像処理部150と、音声分析部160と、表情分析部170と、感情分析記憶部180と、感情基準記憶部181と、作業実績記憶部182と、評価基礎情報記憶部183と、対人応対記憶部184と、感情分析部190と、を含む。   The emotion analysis terminal 100 includes a display control unit 110, a position specifying unit 120, a voice acquisition unit 130, a communication unit 140, an image processing unit 150, a voice analysis unit 160, a facial expression analysis unit 170, and an emotion analysis storage. Unit 180, emotion criteria storage unit 181, work performance storage unit 182, basic evaluation information storage unit 183, personal interaction storage unit 184, and emotion analysis unit 190.

表示制御部110は、装着者表示部111と、通知出力部112と、を含む。装着者表示部111は、感情解析端末100の装着者すなわち作業者10に対して、表示を行う。いわば、装着者表示部111は、内側の表示部であり、例えば視覚表示情報を眼鏡の装着者側に近いレンズ面に像を投影させることで装着者にレンズ越しの光学映像に重畳させて情報を表示させる。   The display control unit 110 includes a wearer display unit 111 and a notification output unit 112. The wearer display unit 111 performs display for the wearer of the emotion analysis terminal 100, that is, the worker 10. In other words, the wearer display unit 111 is an inner display unit. For example, the visual display information is projected onto a lens surface close to the wearer side of the glasses so that the wearer can superimpose the information on the optical image through the lens. Is displayed.

通知出力部112は、感情解析端末100の装着者すなわち作業者10以外の者に対して、表示を行う。通知出力部112は、例えばLED(Light Emitted Diode)等の発光体の明滅を制御することにより、装着者を外部から視覚的に認識しうる者等に対して、感情解析端末100が稼働中であることを示す、いわば外側の表示部である。   The notification output unit 112 performs display for a wearer of the emotion analysis terminal 100, that is, a person other than the worker 10. The notification output unit 112 controls the blinking of a light emitter such as an LED (Light Emitted Diode), for example, so that the emotion analysis terminal 100 is operating for a person who can visually recognize the wearer from the outside. That is, it is an outer display portion that indicates that there is.

位置特定部120は、衛星波を受信して現在地の3次元座標を、感情解析端末100が存在する位置として特定する。具体的には、位置特定部120は、GPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)等の3つ以上の人工衛星から送信された衛星波をアンテナを用いて受信し、受信した情報に基づき現在地の3次元座標を割り出した位置情報を用いて、感情解析端末100が存在する位置を特定する。   The position specifying unit 120 receives the satellite wave and specifies the three-dimensional coordinates of the current location as the position where the emotion analysis terminal 100 exists. Specifically, the position specifying unit 120 receives satellite waves transmitted from three or more artificial satellites such as GPS (Global Positioning System), GLONASS (Global Navigation Satellite System), and the like using the antenna. The position where the emotion analysis terminal 100 exists is specified using the position information obtained by determining the three-dimensional coordinates of the current location based on the above.

音声取得部130は、作業に関する音声情報を取得する。具体的には、音声取得部130は、感情解析端末100の外部の音声情報を取得し、音声記録ファイルとして作業実績記憶部182に格納する。通信部140は、他の装置との通信を制御する。具体的には、通信部140は、音声コード情報を、関連付けられた作業の情報と共に他の装置である作業管理装置200へ出力する。通信部140は、例えばBluetooth、無線LAN、NFC(Near Field Communication)等による近距離電波通信を制御するものであることが望ましい。しかし、USB等の所定の有線通信を制御するものであってもよい。   The voice acquisition unit 130 acquires voice information regarding work. Specifically, the voice acquisition unit 130 acquires voice information outside the emotion analysis terminal 100 and stores it in the work record storage unit 182 as a voice recording file. The communication unit 140 controls communication with other devices. Specifically, the communication unit 140 outputs the voice code information to the work management apparatus 200 which is another apparatus together with the associated work information. The communication unit 140 is preferably a unit that controls short-range radio communication using, for example, Bluetooth, wireless LAN, NFC (Near Field Communication), or the like. However, it may control predetermined wired communication such as USB.

画像処理部150には、画像取得部151と、画像重畳部152と、が含まれる。画像取得部151は、感情解析端末100により取得した外部の画像、すなわち作業者の視界に関連する画像情報を取得する。より理想的には、画像取得部151は、作業者の視界をすべて含む範囲の画像を取得する。   The image processing unit 150 includes an image acquisition unit 151 and an image superimposing unit 152. The image acquisition unit 151 acquires an external image acquired by the emotion analysis terminal 100, that is, image information related to the worker's field of view. More ideally, the image acquisition unit 151 acquires an image in a range including all of the worker's field of view.

画像重畳部152は、作業管理装置200等から重畳表示する画像やテキスト等の情報を受け付けると、作業者10に対して、作業者10の視界に重畳させるように当該情報を出力する。すなわち、画像重畳部152は、撮像した画像を液晶画像等により作業者10の視界を覆うように出力するヘッドセット端末等のウェアラブルデバイスの場合には撮像した画像に透過レイヤーを設けて情報を表示する。ウェアラブルデバイスが作業者10の視界を一部半透過するように出力する眼鏡型のウェアラブルデバイスの場合には、当該情報を表示する。   When the image superimposing unit 152 receives information such as an image or text to be superimposed and displayed from the work management apparatus 200 or the like, the image superimposing unit 152 outputs the information to the worker 10 so as to be superimposed on the field of view of the worker 10. That is, in the case of a wearable device such as a headset terminal that outputs a captured image so as to cover the field of view of the worker 10 with a liquid crystal image or the like, the image superimposing unit 152 displays information by providing a transmission layer on the captured image. To do. When the wearable device is a spectacle-type wearable device that outputs a part of the field of view of the worker 10, the information is displayed.

音声分析部160は、音声取得部130が取得した音声情報を分析する。具体的には、音声分析部160は、音声情報を所定の種類の属性ごとに所定の基準に沿ってコード化する。例えば、音声分析部160は、音程、声量、発話速度、音声内容等の属性ごとに定量化し、定量化した属性の量に応じて、コード化を行い、作業に関連付ける。   The voice analysis unit 160 analyzes the voice information acquired by the voice acquisition unit 130. Specifically, the voice analysis unit 160 encodes the voice information according to a predetermined standard for each predetermined type of attribute. For example, the voice analysis unit 160 quantifies each attribute such as pitch, voice volume, speech rate, voice content, etc., performs coding according to the quantified attribute amount, and associates it with the work.

表情分析部170は、画像取得部151が取得した画像情報を分析する。具体的には、表情分析部170は、画像情報に含まれる顔の領域を認識し、所定の特徴点の配置に基づいて笑顔の度合いを特定する。例えば、満面の笑みを笑顔100%として、無表情に近づくほど笑顔の割合が下がるように笑顔の度合いを特定する。なお、表情分析部170は、上記の分析に限らず、例えば顔色の変化を加味して笑みを特定するものであってもよい。   The facial expression analysis unit 170 analyzes the image information acquired by the image acquisition unit 151. Specifically, the facial expression analysis unit 170 recognizes the face area included in the image information and specifies the degree of smile based on the arrangement of predetermined feature points. For example, assuming that a full smile is 100% smile, the degree of smile is specified such that the smile rate decreases as the expression becomes closer. Note that the facial expression analysis unit 170 is not limited to the above analysis, and for example, a facial expression may be specified in consideration of changes in facial color.

感情分析記憶部180は、感情分析を行った結果を格納する。具体的には、感情分析記憶部180は、音声分析部160が分析した結果であるコードと、表情分析部170が分析した笑みの度合いと、を用いた感情分析の結果を格納する。   The emotion analysis storage unit 180 stores the result of emotion analysis. Specifically, emotion analysis storage unit 180 stores a result of emotion analysis using a code that is a result of analysis by voice analysis unit 160 and a degree of smile that is analyzed by facial expression analysis unit 170.

図2は、感情分析記憶部180のデータ構造を示す図である。感情分析記憶部180には、実施日180Aと、時刻180Bと、音程180Cと、声量180Dと、発話速度180Eと、音声180Fと、スマイル180Gと、総合判定180Hと、が含まれる。   FIG. 2 is a diagram illustrating a data structure of the emotion analysis storage unit 180. The emotion analysis storage unit 180 includes an implementation date 180A, a time 180B, a pitch 180C, a voice volume 180D, an utterance speed 180E, a voice 180F, a smile 180G, and a comprehensive determination 180H.

実施日180Aは、作業者10が作業を実施した日を特定する情報である。時刻180Bは、作業を実施した時刻を特定する情報である。音程180Cは、実施日180Aの時刻180Bにおいて取得された音声情報の属性のうち、所定期間についての音程の平均をコード化した情報である。声量180Dは、実施日180Aの時刻180Bにおいて取得された音声情報の属性のうち、所定期間についての音量の平均をコード化した情報である。   The implementation date 180A is information that identifies the date on which the operator 10 performed the operation. The time 180B is information for specifying the time when the work is performed. The pitch 180C is information obtained by coding the average pitch for a predetermined period among the attributes of the voice information acquired at the time 180B on the implementation date 180A. The voice volume 180D is information obtained by coding the average of the volume for a predetermined period among the attributes of the voice information acquired at the time 180B on the implementation date 180A.

発話速度180Eは、実施日180Aの時刻180Bにおいて取得された音声情報の属性のうち、所定期間についての発話速度の平均をコード化した情報である。   The speech rate 180E is information obtained by coding the average speech rate for a predetermined period among the attributes of the voice information acquired at the time 180B on the implementation date 180A.

音声180Fは、実施日180Aの時刻180Bにおいて取得された音声情報の属性のうち、発話内容に含まれる所定のフレーズごとに予め定められた点数により計算しコード化した情報である。   The voice 180F is information calculated and coded according to a predetermined score for each predetermined phrase included in the utterance content among the attributes of the voice information acquired at the time 180B of the implementation date 180A.

スマイル180Gは、実施日180Aの時刻180Bにおいて取得された画像情報に含まれる顔の笑みの度合いのうち、所定期間についての笑みの度合いの平均をコード化した情報である。   The smile 180G is information obtained by coding the average smile degree for a predetermined period among the smile degrees of the face included in the image information acquired at the time 180B on the implementation date 180A.

総合判定180Hは、実施日180Aの時刻180Bにおいて取得された画像情報に含まれる顔の笑みの度合いと、実施日180Aの時刻180Bにおいて取得された音声情報に含まれる音声のコードの情報とを用いて算出した情報である。   Comprehensive determination 180H uses the degree of smile of the face included in the image information acquired at time 180B on the implementation date 180A and the information of the voice code included in the audio information acquired at time 180B on the implementation date 180A. It is the information calculated.

感情基準記憶部181は、感情分析を行う際の、音声情報をコード化する際に用いる基準となる情報を格納する。   The emotion reference storage unit 181 stores information serving as a reference used when coding voice information when performing emotion analysis.

図3は、感情基準記憶部181のデータ構造を示す図である。感情基準記憶部181は、音声情報の属性ごとに、感情を特定するための基準となる範囲とコード値とを対応付ける情報を格納する。具体的には、感情基準記憶部181には、種類181Aと、度合い181Bと、範囲181Cと、感情コード(男声)181Dと、感情コード(女声)181Eと、が対応付けられて格納されている。   FIG. 3 is a diagram illustrating a data structure of the emotion criterion storage unit 181. The emotion reference storage unit 181 stores information for associating a code range with a reference range for specifying an emotion for each attribute of audio information. Specifically, the type 181A, the degree 181B, the range 181C, the emotion code (male voice) 181D, and the emotion code (female voice) 181E are stored in the emotion reference storage unit 181 in association with each other. .

種類181Aは、音声情報の属性の種類を特定する情報である。例えば、種類181Aには、音程(Octabe)、声量(decibel)、発話速度(pitch)、音声等の種類が含まれる。度合い181Bは、種類181Aで特定される種類ごとに、定量化した量の多寡を判定する基準となる表現である。範囲181Cは、度合い181Bごとにとりうる量の範囲である。例えば、音程の度合いが「低」となる範囲は、1度から3度の間であり、「普通」となる範囲は、4度から6度の間、「高」となる範囲は、7度から9度、のような範囲である。感情コード(男声)181Dは、分析対象の音声が男性の声の場合のコード値である。感情コード(女声)181Eは、分析対象の音声が女性の声の場合のコード値である。分析対象の音声を男女で分けているのは、例えば同じ音程であったとしても、男声としては高い音程であるが女声としては低い音程である場合等、相対的にコード化するためである。あるいは、快適を感じる際に、男性と女性とでは音程の上下の変化が逆になる場合等も考えられるため、異なったコードを与えられるよう分けている。   The type 181A is information that specifies the type of attribute of audio information. For example, the type 181A includes types such as a pitch (Octabe), a voice volume (decibel), a speech rate (pitch), and voice. The degree 181B is an expression serving as a reference for determining the amount of the quantified amount for each type specified by the type 181A. The range 181C is a range of amounts that can be taken for each degree 181B. For example, the range where the degree of pitch is “low” is between 1 degree and 3 degrees, the range where “normal” is between 4 degrees and 6 degrees, and the range where “high” is 7 degrees. The range is from 9 degrees to 9 degrees. The emotion code (male voice) 181D is a code value when the analysis target voice is a male voice. The emotion code (female voice) 181E is a code value when the analysis target voice is a female voice. The reason why the analysis target speech is divided between males and females is that, for example, even if they have the same pitch, they are encoded relatively when, for example, they have a high pitch as a male voice but a low pitch as a female voice. Or, when feeling comfortable, there may be cases where the vertical change in pitch is reversed between men and women, so that different codes are given.

作業実績記憶部182は、作業者10の作業の実績、すなわち実際に作業を行った際に記録した音声や画像の情報を格納する。   The work record storage unit 182 stores the work record of the worker 10, that is, the voice and image information recorded when the work is actually performed.

図4は、作業実績記憶部182のデータ構造を示す図である。作業実績記憶部182は、作業ごとに、使用するマニュアルと、実際の作業において収集した音声や映像等のファイルを特定する情報と、該音声や映像のコード量についての満足量、不満量、差分量と、を対応付けて格納する。具体的には、作業実績記憶部182には、機器識別子182Aと、実施日182Bと、録画開始時刻182Cと、作業識別子182Dと、作業マニュアル182Eと、記録情報種別182Fと、記録ファイル名182Gと、閾値超過回数182Hと、満足量182Jと、不満量182Kと、差分182Lと、気づき182Mと、が対応付けられて格納されている。   FIG. 4 is a diagram illustrating a data structure of the work record storage unit 182. As illustrated in FIG. The work result storage unit 182 stores, for each work, a manual to be used, information for identifying files such as audio and video collected in the actual work, and a satisfaction amount, a dissatisfaction amount, a difference with respect to the code amount of the audio and video. The amount is stored in association with each other. Specifically, the work record storage unit 182 includes a device identifier 182A, an implementation date 182B, a recording start time 182C, a work identifier 182D, a work manual 182E, a recording information type 182F, and a recording file name 182G. The threshold excess count 182H, the satisfaction amount 182J, the dissatisfaction amount 182K, the difference 182L, and the notice 182M are stored in association with each other.

機器識別子182Aは、作業対象機器300を特定する情報である。実施日182Bは、実際に作業を行った日を特定する情報である。録画開始時刻182Cは、作業時の画像取得を開始した時刻を特定する情報である。作業識別子182Dは、作業の内容を特定する情報である。作業マニュアル182Eは、作業の詳細が記載されたマニュアルを特定する情報である。   The device identifier 182A is information for specifying the work target device 300. The implementation date 182B is information that identifies the date on which the work was actually performed. The recording start time 182C is information for specifying the time when the image acquisition at the time of work is started. The work identifier 182D is information that identifies the content of the work. The work manual 182E is information for specifying a manual in which details of work are described.

記録情報種別182Fは、記録された情報が音声、画像のいずれの種別であるのかを特定する情報である。記録ファイル名182Gは、音声、画像のいずれかまたは両方が記録されたファイルを特定する情報である。閾値超過回数182Hは、作業の記録の中で、満足あるいは不満足の度合いが所定の閾値を超えた回数が何度あるかを特定する情報である。満足量182Jは、作業の記録の中で合計した満足度合いを特定する情報である。不満量182Kは、作業の記録の中で合計した不満足の度合いを特定する情報である。差分182Lは、作業記録開始時の総合判定と作業記録終了時の総合判定との差分である。気づき182Mは、当該作業において気づきのあった事項を示す情報である。例えば、気づき182Mには、作業マニュアルの補足事項、作業対象機器300固有の注意点等を含む。   The recorded information type 182F is information for specifying whether the recorded information is a sound or an image. The recording file name 182G is information for specifying a file in which one or both of sound and image are recorded. The threshold excess count 182H is information for specifying how many times the degree of satisfaction or dissatisfaction exceeds a predetermined threshold in the work recording. The satisfaction amount 182J is information for specifying the satisfaction degree totaled in the work record. The dissatisfaction amount 182K is information for specifying the degree of dissatisfaction totaled in the work records. The difference 182L is the difference between the comprehensive determination at the start of work recording and the comprehensive determination at the end of work recording. The notice 182M is information indicating a matter noticed in the work. For example, the notice 182M includes supplementary items of the work manual, cautions specific to the work target device 300, and the like.

評価基礎情報記憶部183は、作業者10の作業ごとに、評価に用いる情報が格納される。   The evaluation basic information storage unit 183 stores information used for evaluation for each work of the worker 10.

図5は、評価基礎情報記憶部183のデータ構造を示す図である。評価基礎情報記憶部183は、作業者の作業ごとに、音声の情報と、顧客の評価基準のばらつきを調整するための顧客係数と、作業の難易度のばらつきを調整するための作業係数と、を対応付けて格納する。具体的には、評価基礎情報記憶部183には、作業者識別子183Aと、実施日183Bと、開始時刻183Cと、閾値超過回数183Dと、満足量183Eと、不満量183Fと、顧客係数183Gと、作業係数183Hと、差分183Jと、が対応付けられて格納されている。   FIG. 5 is a diagram illustrating a data structure of the evaluation basic information storage unit 183. The evaluation basic information storage unit 183 includes, for each worker's work, voice information, a customer coefficient for adjusting the variation of the customer's evaluation standard, a work coefficient for adjusting the variation of the work difficulty level, Are stored in association with each other. Specifically, the evaluation basic information storage unit 183 includes an operator identifier 183A, an implementation date 183B, a start time 183C, a threshold excess count 183D, a satisfaction amount 183E, a dissatisfaction amount 183F, and a customer coefficient 183G. The work coefficient 183H and the difference 183J are stored in association with each other.

作業者識別子183Aは、作業者10を特定する情報である。実施日183Bは、実際に作業を行った日を特定する情報である。開始時刻183Cは、作業時の画像あるいは音声の取得を開始した時刻のうち最早の時刻を特定する情報である。閾値超過回数183Dは、作業の記録の中で、満足あるいは不満足の度合いが所定の閾値を超えた回数が何度あるかを特定する情報である。満足量183Eは、作業の記録の中で合計した満足度合いを特定する情報である。不満量183Fは、作業の記録の中で合計した不満足の度合いを特定する情報である。   The worker identifier 183A is information that identifies the worker 10. The implementation date 183B is information that identifies the date on which the work was actually performed. The start time 183C is information for specifying the earliest time among the times when the acquisition of the image or sound during work is started. The threshold excess count 183D is information that specifies how many times the degree of satisfaction or dissatisfaction exceeds a predetermined threshold in the work recording. The satisfaction amount 183E is information for specifying the satisfaction degree totaled in the work record. The dissatisfaction amount 183F is information for specifying the degree of dissatisfaction added up in the work record.

顧客係数183Gは、作業に関する管理を行う担当者の評価基準のばらつきを調整するための係数である。一般に、同じ作業を同じ内容で行っても、作業を管理する担当者が異なれば担当者からの評価は異なったものとなる場合が多い。比較的容易に好評価をつける担当者の元で多く作業を行う作業者と、そうでない担当者の元で多く作業を行う作業者との間で評価が大きく異なるものとならないよう、当該係数により調整可能である。   The customer coefficient 183G is a coefficient for adjusting variation in evaluation criteria of a person in charge who performs management related to work. In general, even if the same work is performed with the same content, the evaluation from the person in charge often differs depending on the person in charge of managing the work. The coefficient is used so that the evaluation does not differ greatly between workers who perform a lot of work under the person in charge who makes a good evaluation relatively easily and workers who do a lot of work under the person in charge who does not. It can be adjusted.

作業係数183Hは、作業の難易度のばらつきを調整するための係数である。一般に、作業技能に優れる者は、より難易度の高い作業を実施し、そうでない者は、より難易度の低い作業を実施することが多い。難易度の低い作業を事故なく行った者が、難易度の高い作業において小さな事故を発生させてしまった者よりも評価が著しく高くなることは、妥当ではないことから、作業係数は、これを調整する係数である。   The work coefficient 183H is a coefficient for adjusting variation in the difficulty level of work. In general, those who are excellent in work skills often perform work with higher difficulty, and those who do not often perform work with lower difficulty. Since it is not appropriate that a person who has performed a low-level work without an accident has a significantly higher evaluation than a person who has generated a small accident in a high-level work, the work factor is The coefficient to adjust.

差分183Jは、作業記録開始時の総合判定から作業記録終了時の総合判定の間の差分である。   The difference 183J is a difference between the comprehensive determination at the start of work recording and the comprehensive determination at the end of work recording.

対人応対記憶部184は、作業時の対人応対、すなわち作業を管理する担当者との会話に関して、実際に作業を行った際に記録した音声や画像の情報を格納する。   The personal interaction storage unit 184 stores voice and image information recorded when the actual work is performed regarding the personal interaction during the work, that is, the conversation with the person in charge of the work.

図6は、対人応対記憶部184のデータ構造を示す図である。対人応対記憶部184は、作業ごとに、実際の作業において収集した音声や映像等のファイルを特定する情報と、該音声や映像のコード量についての満足量、不満量、差分量と、を対応付けて格納する。具体的には、対人応対記憶部184には、実施日184Aと、録画開始時刻184Bと、作業識別子184Cと、記録情報種別184Dと、記録ファイル名184Eと、閾値超過回数184Fと、満足量184Gと、不満量184Hと、差分184Jと、気づき184Kと、が対応付けられて格納されている。   FIG. 6 is a diagram illustrating a data structure of the personal reception storage unit 184. The personal interaction storage unit 184 associates information for identifying files such as audio and video collected in actual work with satisfaction, dissatisfaction, and difference for the code amount of the audio and video for each work. Store with attachments. Specifically, in the personal reception storage unit 184, the execution date 184A, the recording start time 184B, the work identifier 184C, the recording information type 184D, the recording file name 184E, the threshold excess count 184F, and the satisfaction amount 184G. , The dissatisfaction amount 184H, the difference 184J, and the notice 184K are stored in association with each other.

実施日184Aは、実際に作業を行った日を特定する情報である。録画開始時刻184Bは、会話時の画像取得を開始した時刻を特定する情報である。作業識別子184Cは、作業の内容を特定する情報である。   The implementation date 184A is information that identifies the date on which the work was actually performed. The recording start time 184B is information for specifying the time when image acquisition at the time of conversation is started. The work identifier 184C is information that identifies the content of the work.

記録情報種別184Dは、記録された情報が音声、画像のいずれの種別であるのかを特定する情報である。記録ファイル名184Eは、音声、画像のいずれかまたは両方が記録されたファイルを特定する情報である。閾値超過回数184Fは、会話の記録の中で、満足あるいは不満足の度合いが所定の閾値を超えた回数が何度あるかを特定する情報である。満足量184Gは、会話の記録の中で合計した満足度合いを特定する情報である。不満量184Hは、会話の記録の中で合計した不満足の度合いを特定する情報である。差分184Jは、作業記録開始時の総合判定と作業記録終了時の総合判定との差分である。気づき184Kは、当該会話において気づきのあった事項を示す情報である。例えば、気づき184Kには、作業を管理する担当者が好む話し方、作業を管理する担当者が所属する組織のポリシー等、固有の注意点等を含む。   The recorded information type 184D is information that specifies whether the recorded information is a sound or an image. The recording file name 184E is information for specifying a file in which either or both of sound and image are recorded. The threshold excess count 184F is information for specifying how many times the degree of satisfaction or dissatisfaction exceeds a predetermined threshold in the conversation recording. The satisfaction amount 184G is information for specifying the satisfaction degree totaled in the conversation record. The dissatisfaction amount 184H is information for specifying the degree of dissatisfaction added up in the conversation record. The difference 184J is a difference between the comprehensive determination at the start of work recording and the comprehensive determination at the end of work recording. The notice 184K is information indicating a matter noticed in the conversation. For example, the notice 184K includes unique cautions such as a speech style preferred by a person in charge of managing work, a policy of an organization to which the person in charge of managing work belongs, and the like.

感情分析部190は、音声分析部160が分析した音声情報と、表情分析部が分析した表情と、のいずれかまたは両方を用いて、感情を分析する。具体的には、感情分析部190は、作業について、音声分析部160が分析した結果得られた音声のコード情報と、表情分析部170が分析した表情の情報とを関連付けて、感情の良否を特定する。   The emotion analysis unit 190 analyzes emotion using either or both of the voice information analyzed by the voice analysis unit 160 and the facial expression analyzed by the facial expression analysis unit. Specifically, the emotion analysis unit 190 associates the voice code information obtained as a result of the analysis by the voice analysis unit 160 with the facial expression information analyzed by the facial expression analysis unit 170 to determine whether the emotion is good or bad. Identify.

作業管理装置200は、感情解析端末100とネットワークを介して接続される。作業管理装置200には、表示部210と、通信部220と、音声処理部231と、表情処理部232と、原因探索部233と、作業評価部234と、ナレッジ管理部235と、記憶部250と、が含まれる。   The work management apparatus 200 is connected to the emotion analysis terminal 100 via a network. The work management apparatus 200 includes a display unit 210, a communication unit 220, a voice processing unit 231, a facial expression processing unit 232, a cause search unit 233, a work evaluation unit 234, a knowledge management unit 235, and a storage unit 250. And are included.

表示部210は、作業管理装置200の操作等に用いられる表示出力を行う。   The display unit 210 performs display output used for operations of the work management apparatus 200.

通信部220は、他の装置である感情解析端末100から、作業に関する音声を所定の方法でコード化した音声コードを受け付ける。また、通信部220は、音声コードを受け付けると共に、音声コードに関する画像情報をも受け付ける。   The communication unit 220 receives a voice code obtained by coding a voice related to work by a predetermined method from the emotion analysis terminal 100 which is another device. The communication unit 220 receives a voice code and also receives image information related to the voice code.

音声処理部231は、作業管理装置200の操作等に用いられる音声入力を受け付けると、受け付けた音声を音声ファイルとして記憶部250に格納する。   When the voice processing unit 231 receives a voice input used for the operation of the work management apparatus 200, the voice processing unit 231 stores the received voice in the storage unit 250 as a voice file.

表情処理部232は、画像情報に含まれる顔を示す画像の表情を解析処理する。表情処理部232は、画像上に含まれる表示物の形状に基づいて顔を認識し、顔のパターンマッチング処理等を行い、表情が示す笑みの度合いを特定する。   The facial expression processing unit 232 analyzes the facial expression of the image indicating the face included in the image information. The facial expression processing unit 232 recognizes the face based on the shape of the display object included in the image, performs face pattern matching processing, and the like, and specifies the degree of smile indicated by the facial expression.

原因探索部233は、作業評価部234が行った作業評価の結果において、感情の良否に所定の度合いを超える変化が有る場合に、該変化のあった時刻よりも所定の時間分過去(例えば、2分前)を起点として音声情報および関連する画像情報を再生する。   In the result of the work evaluation performed by the work evaluation unit 234, the cause search unit 233, when there is a change exceeding a predetermined degree in the quality of the emotion, is past a predetermined time (for example, for example) Audio information and related image information are reproduced starting from 2 minutes ago.

作業評価部234は、他の装置である感情解析端末100から受け付けた作業に関する音声情報に基づく音声コードを用いて音声の感情の評価を行い、感情の評価を音声コードに関する作業を評価するのに用いる。また、作業評価部234は、音声の感情の評価を、音声コードを用いて特定した感情の良否の経時変化により構成される波形の幾何情報を用いて行う。なお、作業評価部234は、作業に関する難易度に応じて感情の評価を行い、感情の評価に難易度による修正を加えて作業を評価する。また、作業評価部234は、作業に関する管理を行う担当者に応じて感情の評価を行い、感情の評価に担当者の特性による修正を加えて作業を評価する。   The work evaluation unit 234 evaluates a voice emotion using a voice code based on the voice information related to the work received from the emotion analysis terminal 100 which is another device, and evaluates the emotion evaluation to evaluate the work related to the voice code. Use. In addition, the work evaluation unit 234 evaluates the emotion of the voice using the geometric information of the waveform formed by the temporal change of the quality of the emotion specified using the voice code. The work evaluation unit 234 evaluates emotions according to the degree of difficulty related to the work, and evaluates the work by adding corrections based on the difficulty level to the evaluation of emotions. In addition, the work evaluation unit 234 evaluates emotions according to the person in charge who manages the work, and evaluates the work by adding corrections based on the characteristics of the person in charge to the evaluation of emotions.

また、作業評価部234は、作業に関連付けられた画像の情報がある場合には、音声の感情の評価に、表情処理部232により特定された感情による修正を加えて、作業を評価する。具体的には、表情が所定以上の度合いの笑みである場合には、感情を良方向に増加させるようにしても良いし、音程等の所定の音声の属性の感情コードを良方向に増加させるようにしても良い。   In addition, when there is image information associated with the work, the work evaluation unit 234 evaluates the work by adding correction based on the emotion specified by the facial expression processing unit 232 to the evaluation of the voice emotion. Specifically, when the facial expression is a smile of a predetermined level or more, the emotion may be increased in a good direction, or the emotion code of a predetermined voice attribute such as a pitch is increased in the good direction. You may do it.

ナレッジ管理部235は、作業に関する音声コードと関連付けられたナレッジ情報を、後述する作業実績記憶部252と、対人応対記憶部254とから読み出して特定し出力する。   The knowledge management unit 235 reads knowledge information associated with the work-related voice code from the work result storage unit 252 and the personal interaction storage unit 254 described later, and specifies and outputs them.

記憶部250には、作業情報記憶部251と、作業実績記憶部252と、評価基礎情報記憶部253と、対人応対記憶部254と、が含まれる。   The storage unit 250 includes a work information storage unit 251, a work record storage unit 252, an evaluation basic information storage unit 253, and a personal interaction storage unit 254.

作業情報記憶部251は、作業の実施予定に関する情報を格納する。   The work information storage unit 251 stores information related to work schedules.

図7は、作業情報記憶部251のデータ構造を示す図である。作業情報記憶部251は、作業対象機器300ごとに、作業の日時と、作業で使用するマニュアルと、作業を実施する担当者である作業者と、を特定する情報を対応付けて格納する。具体的には、作業情報記憶部251には、機器識別子251Aと、実施日251Bと、作業開始時刻251Cと、作業識別子251Dと、作業マニュアル251Eと、担当者251Fと、が対応付けられて格納されている。   FIG. 7 is a diagram showing a data structure of the work information storage unit 251. As shown in FIG. The work information storage unit 251 stores, for each work target device 300, information specifying the date and time of the work, the manual used in the work, and the worker who is the person in charge of the work in association with each other. Specifically, the work information storage unit 251 stores the device identifier 251A, the execution date 251B, the work start time 251C, the work identifier 251D, the work manual 251E, and the person in charge 251F in association with each other. Has been.

機器識別子251Aは、作業対象機器300を特定する情報である。実施日251Bは、実際に作業を行う日を特定する情報である。作業開始時刻251Cは、作業を開始する時刻を特定する情報である。作業識別子251Dは、作業の内容を特定する情報である。作業マニュアル251Eは、作業の詳細が記載されたマニュアルを特定する情報である。担当者251Fは、作業を管理する担当者を特定する情報である。例えば、作業の依頼主側あるいは作業対象機器300の管理担当者を特定する情報である。   The device identifier 251A is information for specifying the work target device 300. The implementation date 251 </ b> B is information that identifies the date on which work is actually performed. The work start time 251 </ b> C is information for specifying the time to start work. The work identifier 251D is information that identifies the content of the work. The work manual 251E is information for specifying a manual in which details of work are described. The person in charge 251F is information for specifying a person in charge who manages the work. For example, it is information that identifies the work requester or the person in charge of managing the work target device 300.

作業実績記憶部252、評価基礎情報記憶部253、対人応対記憶部254のそれぞれは、感情解析端末100の作業実績記憶部182、評価基礎情報記憶部183、対人応対記憶部184と同様のデータ構造を備える。そのため、説明は省略する。   Each of the work performance storage unit 252, the basic evaluation information storage unit 253, and the personal interaction storage unit 254 has the same data structure as the work performance storage unit 182, the basic evaluation information storage unit 183, and the personal interaction storage unit 184 of the emotion analysis terminal 100. Is provided. Therefore, explanation is omitted.

図8は、感情解析端末100のハードウェア構成を示す図である。感情解析端末100は、音声受付装置101と、演算装置102と、外部出力装置103と、主記憶装置104と、撮像装置105と、装着者出力装置106と、通信装置107と、加速度センサ装置108と、外部記憶装置109と、各装置をつなぐバス100bと、を少なくとも備える。また、他に、感情解析端末100は、接触入力装置を備えるものであってもよい。なお、接触入力装置は、例えば眼鏡型のウェアラブルデバイスの場合には、眼鏡のつる部分への接触をクリック入力として受け付け、接触状態で摺動させる方向をスクロール入力として受け付けるものであってよいが、これに限られるものではない。   FIG. 8 is a diagram illustrating a hardware configuration of the emotion analysis terminal 100. The emotion analysis terminal 100 includes a voice reception device 101, a calculation device 102, an external output device 103, a main storage device 104, an imaging device 105, a wearer output device 106, a communication device 107, and an acceleration sensor device 108. And an external storage device 109 and a bus 100b for connecting the devices. In addition, the emotion analysis terminal 100 may include a contact input device. In the case of a glasses-type wearable device, for example, the contact input device may accept a contact to the vine portion of the glasses as a click input, and may accept a direction of sliding in the contact state as a scroll input. It is not limited to this.

音声受付装置101は、感情解析端末100を装着した作業者10による発話音声と、周囲の音と、を含む集音を行う。例えば、一つあるいは複数のマイクロフォンである。   The voice reception device 101 collects sound including speech uttered by the worker 10 wearing the emotion analysis terminal 100 and surrounding sounds. For example, one or more microphones.

演算装置102は、例えばCPU(Central Processing Unit)などの演算装置である。   The arithmetic device 102 is an arithmetic device such as a CPU (Central Processing Unit).

外部出力装置103は、感情解析端末100を装着している場合に、装着者の外部から視認可能な態様で、具体的には外部から視認可能に発光することで、LEDランプ等の出力を行う。   When the emotion output terminal 100 is worn, the external output device 103 emits light such as an LED lamp by emitting light so that it can be seen from the outside of the wearer, specifically, from the outside. .

主記憶装置104は、例えばRAM(Random Access Memory)などのメモリ装置である。   The main storage device 104 is a memory device such as a RAM (Random Access Memory).

撮像装置105は、感情解析端末100を装着した作業者の視野と同様あるいはより広角な映像情報を取得するカメラ装置である。   The imaging device 105 is a camera device that acquires video information similar to or wider than the field of view of the worker wearing the emotion analysis terminal 100.

装着者出力装置106は、装着者から視認可能なように光学レンズ面に画像を投影するプロジェクション装置、あるいは光学レンズ面に応じて設けられた半透過型のディスプレイ装置等の表示装置である。しかし、これに限定されるものではなく、例えば作業者の網膜に結像させる光を照射可能な表示装置であってもよい。   The wearer output device 106 is a display device such as a projection device that projects an image on an optical lens surface so as to be visible to the wearer, or a transflective display device provided according to the optical lens surface. However, the present invention is not limited to this, and for example, a display device capable of irradiating light to be imaged on the retina of the worker may be used.

通信装置107は、無線ネットワーク等を介して作業管理装置200等の他の装置と通信経路を確立し、情報を送受信する装置である。   The communication device 107 is a device that establishes a communication path with other devices such as the work management device 200 via a wireless network and transmits / receives information.

加速度センサ装置108は、所定の次元の加速度を取得して加速方向と加速の大きさとを特定することで、装着者である作業者10の移動や姿勢の変化を検出する装置である。   The acceleration sensor device 108 is a device that detects a movement or posture change of the wearer 10 by acquiring a predetermined dimension of acceleration and specifying the acceleration direction and the magnitude of the acceleration.

外部記憶装置109は、デジタル情報を記憶可能な、いわゆるハードディスク(Hard Disk Drive)やSSD(Solid State Drive)あるいはフラッシュメモリなどの不揮発性記憶装置である。   The external storage device 109 is a non-volatile storage device that can store digital information, such as a so-called hard disk (Hard Disk Drive), SSD (Solid State Drive), or flash memory.

上記した感情解析端末100の表示制御部110は、外部出力装置103、装着者出力装置106によって実現される。また、位置特定部120は、図示しない位置検出装置によって実現される。また、音声取得部130は、演算装置102に処理を行わせるプログラムおよび音声受付装置101により実現される。このプログラムは、主記憶装置104または図示しないROM装置内に記憶され、実行にあたって主記憶装置104上にロードされ、演算装置102により実行される。   The display control unit 110 of the emotion analysis terminal 100 described above is realized by the external output device 103 and the wearer output device 106. The position specifying unit 120 is realized by a position detection device (not shown). The voice acquisition unit 130 is realized by a program that causes the arithmetic device 102 to perform processing and the voice reception device 101. This program is stored in the main storage device 104 or a ROM device (not shown), loaded onto the main storage device 104 for execution, and executed by the arithmetic device 102.

通信部140は、通信装置107により実現される。また、画像処理部150、音声分析部160、表情分析部170、感情分析部190のそれぞれは、演算装置102に処理を行わせるプログラムおよび撮像装置105により実現される。このプログラムは、主記憶装置104または図示しないROM装置内に記憶され、実行にあたって主記憶装置104上にロードされ、演算装置102により実行される。   The communication unit 140 is realized by the communication device 107. In addition, each of the image processing unit 150, the voice analysis unit 160, the facial expression analysis unit 170, and the emotion analysis unit 190 is realized by a program that causes the calculation device 102 to perform processing and the imaging device 105. This program is stored in the main storage device 104 or a ROM device (not shown), loaded onto the main storage device 104 for execution, and executed by the arithmetic device 102.

感情分析記憶部180、感情基準記憶部181、作業実績記憶部182、評価基礎情報記憶部183、対人応対記憶部184のそれぞれは、主記憶装置104および外部記憶装置109によって実現される。   The emotion analysis storage unit 180, the emotion reference storage unit 181, the work performance storage unit 182, the evaluation basic information storage unit 183, and the personal response storage unit 184 are each realized by the main storage device 104 and the external storage device 109.

以上が、感情解析端末100のハードウェア構成である。   The hardware configuration of the emotion analysis terminal 100 has been described above.

図9は、作業管理装置200のハードウェア構成を示す図である。作業管理装置200は、入力受付装置201と、演算装置202と、外部記憶装置203と、主記憶装置204と、通信装置205と、出力装置206と、各装置をつなぐバス211と、を少なくとも備える。   FIG. 9 is a diagram illustrating a hardware configuration of the work management apparatus 200. The work management device 200 includes at least an input receiving device 201, a computing device 202, an external storage device 203, a main storage device 204, a communication device 205, an output device 206, and a bus 211 that connects the devices. .

入力受付装置201は、キーボードやマウス、タッチパネル等の各種入力装置である。   The input reception device 201 is various input devices such as a keyboard, a mouse, and a touch panel.

演算装置202は、例えばCPUなどの演算装置である。   The arithmetic device 202 is an arithmetic device such as a CPU.

外部記憶装置203は、デジタル情報を記憶可能な、いわゆるハードディスクやSSDあるいはフラッシュメモリなどの不揮発性記憶装置である。   The external storage device 203 is a non-volatile storage device such as a so-called hard disk, SSD, or flash memory that can store digital information.

主記憶装置204は、例えばRAMなどのメモリ装置である。   The main storage device 204 is a memory device such as a RAM.

通信装置205は、ネットワーク等を介して感情解析端末100等の他の装置と通信経路を確立し、情報を送受信するネットワークカード等の装置である。   The communication device 205 is a device such as a network card that establishes a communication path with other devices such as the emotion analysis terminal 100 via a network or the like and transmits / receives information.

出力装置206は、例えば液晶ディスプレイや、有機EL(Electro Luminescence)ディスプレイ等の表示装置である。   The output device 206 is a display device such as a liquid crystal display or an organic EL (Electro Luminescence) display.

上記した作業管理装置200の表示部210は、出力装置206によって実現される。また、通信部220は、通信装置205により実現される。また、音声処理部231と、表情処理部232と、原因探索部233と、作業評価部234と、ナレッジ管理部235とは、演算装置202に処理を行わせるプログラムによって実現される。このプログラムは、主記憶装置204または図示しないROM装置内に記憶され、実行にあたって主記憶装置204上にロードされ、演算装置202により実行される。   The display unit 210 of the work management device 200 described above is realized by the output device 206. The communication unit 220 is realized by the communication device 205. The voice processing unit 231, the facial expression processing unit 232, the cause searching unit 233, the work evaluation unit 234, and the knowledge management unit 235 are realized by a program that causes the arithmetic device 202 to perform processing. This program is stored in the main storage device 204 or a ROM device (not shown), loaded onto the main storage device 204 for execution, and executed by the arithmetic device 202.

また、記憶部250は、外部記憶装置203および主記憶装置204によって実現される。以上が、作業管理装置200のハードウェア構成である。   The storage unit 250 is realized by the external storage device 203 and the main storage device 204. The hardware configuration of the work management apparatus 200 has been described above.

なお、感情解析端末100、作業管理装置200のそれぞれの構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。   Note that the configurations of the emotion analysis terminal 100 and the work management device 200 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes.

また、各制御部は、ハードウェア(ASIC、GPUなど)により構築されてもよい。また、各制御部の処理が一つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   Each control unit may be constructed by hardware (ASIC, GPU, etc.). Further, the processing of each control unit may be executed by one hardware, or may be executed by a plurality of hardware.

[動作の説明]次に、本実施形態における作業管理システム1の動作を説明する。図10は、本実施形態における感情評価処理のフロー図である。   [Description of Operation] Next, the operation of the work management system 1 in the present embodiment will be described. FIG. 10 is a flowchart of emotion evaluation processing in the present embodiment.

感情評価処理は、感情解析端末100と、作業管理装置200とが起動状態にあり、感情解析端末100において所定の起動指示を受け付けると、開始される。   The emotion evaluation process is started when the emotion analysis terminal 100 and the work management apparatus 200 are in an activated state and the emotion analysis terminal 100 receives a predetermined activation instruction.

まず、感情分析部190は、作業情報を取得する(ステップS001)。具体的には、感情分析部190は、予め配信されている作業情報のうち、次に行う作業の情報を取得する。例えば、現日時に対応する作業の情報、あるいは未実施の作業であって現日時よりも以前に実施し終わる予定であるが未だ実施し終わっていない作業の情報、いずれも存在しない場合には現日時以降に実施する予定で未だ実施し終わっていない作業の情報を、作業管理装置200等に要求して取得する。   First, the emotion analysis unit 190 acquires work information (step S001). Specifically, emotion analysis unit 190 acquires information on the next work to be performed among the work information distributed in advance. For example, if there is no information on work corresponding to the current date or time, or information on work that has not been carried out but is scheduled to finish before the current date and time but has not yet been carried out, the current information Information on work that is scheduled to be performed after the date and time but has not yet been performed is requested and acquired from the work management apparatus 200 or the like.

そして、音声取得部130および画像取得部151は、それぞれ音声情報、映像情報を取得する(ステップS002)。   Then, the audio acquisition unit 130 and the image acquisition unit 151 acquire audio information and video information, respectively (step S002).

そして、音声分析部160は、音声情報の音程、声量、発話速度、内容、を基準に応じ採点し、映像情報から笑顔度合いを特定する(ステップS003)。具体的には、音声分析部160は、音声情報の各属性について定量的に計測し、計測値が感情基準記憶部181のいずれの範囲181Cに含まれるか判定し、該範囲に対応する感情コードを特定する。そして、表情分析部170は、映像情報の映像上に含まれる顔の領域を特定し、笑顔の度合いを特定する。当該笑顔の度合いを特定する方法は、様々な方法が考えられるが、例えば予め用意した被写体の笑顔の度合いに応じた基準画像とのパターンマッチングにより笑顔の度合いを推定する物であってもよいし、口角の上がり具合、目尻の下がり具合等に応じて笑顔の度合いを推定するものであってもよい。   Then, the voice analysis unit 160 scores the pitch, voice volume, speech rate, and content of the voice information according to the standard, and specifies the smile degree from the video information (step S003). Specifically, the voice analysis unit 160 quantitatively measures each attribute of the voice information, determines which range 181C of the emotion reference storage unit 181 includes the measured value, and the emotion code corresponding to the range Is identified. Then, the facial expression analysis unit 170 specifies a face area included on the video of the video information, and specifies the degree of smile. There are various methods for specifying the smile level. For example, the smile level may be estimated by pattern matching with a reference image corresponding to the prepared smile level of the subject. Alternatively, the degree of smile may be estimated according to how the corners of the mouth rise and how the eyes turn down.

そして、感情分析部190は、採点結果を作業管理装置200へ送信する(ステップS004)。   Then, emotion analysis unit 190 transmits the scoring result to work management device 200 (step S004).

感情分析部190は、当日の作業が終了したか否かを判定する。具体的には、感情分析部190は、ステップS001にて取得した当日の作業の情報を参照し、当日の作業がすべて終了しているか否かを判定する。当日の作業が未だ終了していない場合には、感情分析部190は、制御をステップS002に戻す。   The emotion analysis unit 190 determines whether or not the day's work has been completed. Specifically, emotion analysis unit 190 refers to the information on the current day's work acquired in step S001, and determines whether or not the current day's work has been completed. If the current day's work is not yet finished, emotion analysis unit 190 returns control to step S002.

当日の作業が終了している場合(ステップS005において「Yes」の場合)には、感情分析部190は、評価結果を作業管理装置200へ要求する(ステップS006)。なお、感情分析部190は、当日の作業に関する音声情報と映像情報について、所定のファイル形式にエクスポートして、作業管理装置200へ送信する。   If the current day's work has been completed (“Yes” in step S005), emotion analysis unit 190 requests work management apparatus 200 for an evaluation result (step S006). Note that the emotion analysis unit 190 exports audio information and video information related to the current day's work to a predetermined file format and transmits them to the work management apparatus 200.

そして、感情分析部190は、評価結果を示す表示情報を受信し、出力する(ステップS007)。具体的には、感情分析部190は、ステップS006にて要求した評価結果を作業管理装置200から受信すると、画像重畳部152に受け渡して出力画像を構成させ、装着者表示部111へ出力画像を表示するよう指示する。   Then, emotion analyzer 190 receives and outputs display information indicating the evaluation result (step S007). Specifically, when the emotion analysis unit 190 receives the evaluation result requested in step S006 from the work management apparatus 200, the emotion analysis unit 190 passes the evaluation result to the image superimposing unit 152 to form an output image, and the output image is sent to the wearer display unit 111. Instruct to display.

以上が、感情評価処理の処理フローである。感情評価処理によれば、作業者10は、感情評価の情報を収集してコード化した結果を作業管理装置200へ送信し、作業管理装置200から送信された評価を受け取ることができる。   The above is the process flow of the emotion evaluation process. According to the emotion evaluation process, the worker 10 can collect the emotion evaluation information and transmit the encoded result to the work management apparatus 200 and receive the evaluation transmitted from the work management apparatus 200.

図11は、本実施形態における作業評価処理のフロー図である。作業評価処理は、感情評価処理において作業管理装置200へ採点結果が送信されると、開始される。   FIG. 11 is a flowchart of the work evaluation process in the present embodiment. The work evaluation process is started when a scoring result is transmitted to the work management apparatus 200 in the emotion evaluation process.

通信部220は、採点結果と笑顔の度合いを受信する(ステップS101)。具体的には、通信部220は、外部の装置である感情解析端末100から、感情を採点した結果と、笑顔の度合いと、を受信する。   The communication unit 220 receives the scoring result and the smile level (step S101). Specifically, the communication unit 220 receives the result of scoring emotion and the degree of smile from the emotion analysis terminal 100 which is an external device.

そして、作業評価部234は、採点結果と笑顔の度合いを評価基礎情報記憶部253および対人応対記憶部254へ格納する(ステップS102)。具体的には、作業評価部234は、ステップS001にて受信した評価結果に含まれるコードのうち、実施日、開始時刻、閾値超過回数、満足量、不満量、差分のそれぞれを評価基礎情報記憶部253に格納する。また、作業評価部234は、ステップS001にて受信した評価結果に含まれるコードのうち、実施日、開始時刻、作業識別子、記録ファイル名、閾値超過回数、満足量、不満量、差分のそれぞれを対人応対記憶部254に格納する。なお、作業評価部234は、対人応対記憶部254に格納する際に、開始時刻を録画開始時刻として格納する。   Then, the work evaluation unit 234 stores the scoring result and the degree of smile in the evaluation basic information storage unit 253 and the personal reception storage unit 254 (step S102). Specifically, the work evaluation unit 234 stores each of the implementation date, the start time, the number of times exceeding the threshold, the satisfaction amount, the dissatisfaction amount, and the difference among the codes included in the evaluation result received in step S001. Stored in the unit 253. In addition, the work evaluation unit 234, among the codes included in the evaluation result received in step S001, each of the execution date, the start time, the work identifier, the recording file name, the number of times the threshold is exceeded, the satisfaction amount, the dissatisfaction amount, and the difference. Stored in the personal interaction storage unit 254. Note that the work evaluation unit 234 stores the start time as the recording start time when storing it in the personal interaction storage unit 254.

そして、作業評価部234は、ステップS101にて受信したデータの送信元である感情解析端末100を使用する作業者を特定し、該作業者の当日の作業が終了したか否かを判定する(ステップS103)。具体的には、作業評価部234は、作業者の作業情報記憶部251を参照して、作業実施日当日の作業として未実施の作業が無い場合に、当日の作業は終了したと判定する。当日の作業が終了していない場合(ステップS103にて「No」の場合)には、作業評価部234は、ステップS101へ制御を戻す。   Then, the work evaluation unit 234 identifies a worker who uses the emotion analysis terminal 100 that is the transmission source of the data received in step S101, and determines whether or not the work of the worker on that day has been completed ( Step S103). Specifically, the work evaluation unit 234 refers to the work information storage unit 251 of the worker, and determines that the work on the current day has been completed when there is no work that has not been performed as the work on the current work day. If the current day's work is not finished (“No” in step S103), the work evaluation unit 234 returns control to step S101.

当日の作業が終了した場合(ステップS103にて「Yes」の場合)には、作業評価部234は、作業に関する管理を行う担当者の特性に応じた顧客係数を特定する(ステップS104)。具体的には、作業評価部234は、作業に関する管理を行う担当者の特性に応じた修正を加えて作業を評価するために、顧客係数を特定する。例えば、作業評価部234は、担当者に関する作業であって過去に実施済みの作業に関する満足量と不満量とを対人応対記憶部254から読み出して、所定以上の度合いで不満量が大きい場合には、顧客係数を高く設定する(すなわち、評価点が高くなるようにする)。逆に、作業評価部234は、所定以上の度合いで満足量が大きい場合には、顧客係数を低く設定する(すなわち、評価点が低くなるようにする)。   When the current day's work is completed (“Yes” in step S103), the work evaluation unit 234 identifies a customer coefficient corresponding to the characteristics of the person in charge who manages the work (step S104). Specifically, the work evaluation unit 234 specifies a customer coefficient in order to evaluate the work by making corrections according to the characteristics of the person in charge who manages the work. For example, the work evaluation unit 234 reads the satisfaction amount and dissatisfaction amount related to the person in charge who has been performed in the past from the personal interaction storage unit 254, and when the dissatisfaction amount is greater than a predetermined level, , Set the customer coefficient high (that is, make the evaluation score high). Conversely, the work evaluation unit 234 sets the customer coefficient low when the satisfaction amount is large at a predetermined level or higher (that is, the evaluation score is lowered).

そして、作業評価部234は、作業内容に応じて、作業係数を特定する(ステップS105)。具体的には、作業評価部234は、予め作業ごとに定められた難易度に応じて、難易度に相当する作業係数を特定する。例えば、作業評価部234は、平易な作業については作業係数を低く設定し、難解な作業については作業係数を高く設定する。   Then, the work evaluation unit 234 specifies a work coefficient in accordance with the work content (step S105). Specifically, the work evaluation unit 234 specifies a work coefficient corresponding to the difficulty level according to the difficulty level predetermined for each work. For example, the work evaluation unit 234 sets the work coefficient low for easy work and sets the work coefficient high for difficult work.

そして、作業評価部234は、評価結果を算出して出力情報を生成して感情解析端末100へ送信する(ステップS106)。具体的には、作業評価部234は、作業単位で算出した満足量から不満量を差し引き、顧客係数と作業係数とを積算して評価結果として算出する。そして、作業評価部234は、作業者ごとに評価結果を集計して、出力情報を生成する。例えば、第一の作業が5点、第二の作業が10点、第三の作業が6点の場合、当該作業者の出力情報では、5+10+6=21点という情報が生成される。そして、作業評価部234は、感情解析端末100から要求を受け付けると、感情解析端末100ごとに出力情報を特定し送信する。   Then, the work evaluation unit 234 calculates an evaluation result, generates output information, and transmits the output information to the emotion analysis terminal 100 (step S106). Specifically, the work evaluation unit 234 subtracts the dissatisfaction amount from the satisfaction amount calculated in the work unit, adds the customer coefficient and the work coefficient, and calculates the evaluation result. Then, the work evaluation unit 234 aggregates the evaluation results for each worker and generates output information. For example, when the first work is 5 points, the second work is 10 points, and the third work is 6 points, information of 5 + 10 + 6 = 21 points is generated in the output information of the worker. And work evaluation part 234 will specify and transmit output information for every emotion analysis terminal 100, if a request is received from emotion analysis terminal 100. FIG.

以上が、作業評価処理のフローである。作業評価処理によれば、作業者ごとに、実施日を通した作業の評価値を得ることが可能となる。また、その評価値には、作業を管理する担当者の特性と、作業の難易度とが加味されているため、妥当性の高い評価値を得ることができる。   The above is the flow of the work evaluation process. According to the work evaluation process, it is possible to obtain an evaluation value of work through the implementation date for each worker. Moreover, since the evaluation value takes into account the characteristics of the person in charge who manages the work and the difficulty level of the work, a highly valid evaluation value can be obtained.

図12は、顧客の感情変動グラフ400の例を示す図である。顧客の感情変動グラフ400は、縦軸401に満足に関する感情の度合いがプロットされ、横軸402に時間経過がプロットされる。そして、ある時点での顧客すなわち作業管理担当者の感情の度合いが記録されていくことで、定量的な感情の把握が可能となる。感情解析端末100の感情分析部190および作業管理装置200の作業評価部234のそれぞれは、基準の感情度合いを上回った部分について、当該グラフ上の点を連続的とみなした幾何的な面積により満足度を特定する。また、感情解析端末100の感情分析部190および作業管理装置200の作業評価部234のそれぞれは、基準の感情度合いを下回った部分について、当該グラフ上の点を連続的とみなした幾何的な面積により不満度を特定する。また、感情分析部190および作業評価部234のそれぞれは、記録開始時点の感情の度合いと、記録終了時点の感情の度合いとの差を求め、差分を特定する。   FIG. 12 is a diagram illustrating an example of a customer emotion fluctuation graph 400. In the customer emotion fluctuation graph 400, the vertical axis 401 plots the degree of satisfaction regarding satisfaction, and the horizontal axis 402 plots the passage of time. Then, by recording the degree of emotion of the customer, that is, the person in charge of work management at a certain point in time, it becomes possible to quantitatively grasp the emotion. Each of the emotion analysis unit 190 of the emotion analysis terminal 100 and the work evaluation unit 234 of the work management device 200 is satisfied with a geometric area in which the points on the graph are considered to be continuous with respect to a portion exceeding the reference emotion level. Specify the degree. In addition, each of the emotion analysis unit 190 of the emotion analysis terminal 100 and the work evaluation unit 234 of the work management apparatus 200 has a geometric area in which the points on the graph are regarded as continuous with respect to a portion below the standard emotion level. To identify the degree of dissatisfaction. In addition, each of the emotion analysis unit 190 and the work evaluation unit 234 obtains the difference between the emotion level at the start of recording and the emotion level at the end of recording, and specifies the difference.

図13は、作業評価処理において表示される作業評価結果画面500の例を示す図である。作業評価結果画面500には、評価結果である講評表示領域501と、バロメーター表示領域502と、が含まれる。講評表示領域501には、評価値に応じてあらかじめ定められたテキストが表示される。バロメーター表示領域502には、当日の評価値が表示される。当該バロメーター表示領域502においては、全作業を満点とする点数に占める評価値の割合が表示される。   FIG. 13 is a diagram illustrating an example of a work evaluation result screen 500 displayed in the work evaluation process. The work evaluation result screen 500 includes a review display area 501 that is an evaluation result and a barometer display area 502. In the comment display area 501, text predetermined according to the evaluation value is displayed. In the barometer display area 502, the evaluation value of the day is displayed. In the barometer display area 502, the ratio of the evaluation value to the total score of all work is displayed.

図14は、本実施形態における原因探索処理のフロー図である。   FIG. 14 is a flowchart of cause search processing in the present embodiment.

原因探索処理は、作業管理装置200が起動状態にあり、作業管理装置200において所定の起動指示を受け付けると、開始される。   The cause search process is started when the work management apparatus 200 is in an activated state and the work management apparatus 200 receives a predetermined activation instruction.

まず、原因探索部233は、対象作業の日時と感情値とを特定する(ステップS201)。具体的には、原因探索部233は、外部から対象作業の開始日時と、当該作業における感情値の情報とを受け付けることで、原因探索の対象となる対象を特定する。   First, the cause search unit 233 specifies the date and emotion value of the target work (step S201). Specifically, the cause search unit 233 specifies a target to be a cause search target by receiving the start date and time of the target work and emotion value information in the work from the outside.

そして、原因探索部233は、感情値が悪化した時刻を特定する(ステップS202)。具体的には、原因探索部233は、ステップS201にて特定した感情値を経時順にプロットし、所定の期間において感情値が悪化している場合に、該変動を感情値の悪化として特定する。   And the cause search part 233 specifies the time when the emotion value deteriorated (step S202). Specifically, the cause search unit 233 plots the emotion values identified in step S201 in order of time, and identifies the fluctuation as a deterioration of the emotion value when the emotion value has deteriorated during a predetermined period.

そして、原因探索部233は、感情値の悪化の度合いが所定以上であるか否かを判定する(ステップS203)。具体的には、原因探索部233は、ステップS202にて特定した時刻を基準とする所定の時間について、感情値の単位時間あたりの悪化量を特定し、所定の閾値を超える悪化があるか否かを判定する。悪化の度合いが所定以上であるものがない場合(ステップS203にて「No」である場合)には、原因探索部233は、原因探索処理を終了させる。   And the cause search part 233 determines whether the degree of deterioration of an emotion value is more than predetermined (step S203). Specifically, the cause search unit 233 specifies the deterioration amount per unit time of the emotion value for the predetermined time with the time specified in step S202 as a reference, and whether there is a deterioration exceeding a predetermined threshold value. Determine whether. If none of the deterioration levels is greater than or equal to the predetermined level (if “No” in step S203), the cause search unit 233 ends the cause search process.

感情値の悪化の度合いが所定以上である場合(ステップS203にて「Yes」である場合)には、原因探索部233は、悪化した時刻の所定時間前の音声と映像情報を特定する(ステップS204)。一般に、感情値の悪化の度合いが所定以上である場合には、その原因となる何らかの行為がその直前に含まれていることが多いと考えられるため、例えば悪化がみられた期間が開始する時刻の2分程度過去の時点から音声あるいは映像の再生を行うことで、悪化の理由となった行為を発見することが容易となる可能性がある。そのため、原因探索部233は、悪化した時刻の所定時間前の音声と映像情報を特定する。当該処理においては、原因探索部233は、対人応対記憶部254に含まれる記録ファイルを特定して読み出し、悪化した時刻の所定時間前(例えば、2分前)を示す時刻以降、悪化した時刻までの情報を特定する。   If the degree of deterioration of the emotion value is greater than or equal to a predetermined value (if “Yes” in step S203), the cause search unit 233 identifies audio and video information a predetermined time before the deteriorated time (step S203). S204). In general, when the degree of deterioration of the emotion value is greater than or equal to a predetermined level, it is considered that some act that causes it is often included immediately before that, for example, the time when the period in which the deterioration is observed starts If the audio or video is reproduced from about 2 minutes in the past, it may be easy to find the act that caused the deterioration. Therefore, the cause search unit 233 identifies audio and video information a predetermined time before the deteriorated time. In the processing, the cause search unit 233 identifies and reads the recording file included in the personal interaction storage unit 254, and after the time indicating a predetermined time before the deteriorated time (for example, 2 minutes before), until the deteriorated time Identify the information.

そして、原因探索部233は、音声と映像情報とを再生させる(ステップS205)。具体的には、原因探索部233は、ステップS204において特定した音声および映像情報について、再生する。   And the cause search part 233 reproduces | regenerates an audio | voice and video information (step S205). Specifically, the cause search unit 233 reproduces the audio and video information specified in step S204.

以上が、原因探索処理のフローである。原因探索処理によれば、感情が急激に悪化した記録を特定し、その原因が記録されていると考えられる直前の記録について再生させることができる。   The above is the flow of the cause search process. According to the cause search process, it is possible to identify a record in which emotions have deteriorated sharply and reproduce the record immediately before the cause is considered to be recorded.

図15は、原因探索処理において表示される原因表示画面600の例を示す図である。原因表示画面600には、原因説明文章表示領域601と、感情変化表示領域602と、関連動画再生指示受付領域603と、が含まれる。原因説明文章表示領域601には、感情の悪化の原因と考えられるテキスト情報が表示される。感情変化表示領域602には、感情の変化が時系列に沿って表示される。関連動画再生指示受付領域603には、原因となる事象が記録されているファイルから音声あるいは映像情報を再生する指示を受け付ける。関連動画再生指示受付領域603に入力を受け付けると、原因探索部233は、関連動画として当該作業の記録ファイルを引き当てて、関連動画表示画面610において、該当する時刻から再生が始まるように再生するとともに、原因説明文章を音声出力する。   FIG. 15 is a diagram illustrating an example of a cause display screen 600 displayed in the cause search process. The cause display screen 600 includes a cause explanation text display area 601, an emotion change display area 602, and a related moving image reproduction instruction reception area 603. In the cause explanation text display area 601, text information that is considered to be the cause of emotional deterioration is displayed. In the emotion change display area 602, emotion changes are displayed in time series. The related moving image reproduction instruction reception area 603 receives an instruction to reproduce audio or video information from a file in which a causal event is recorded. When the input is received in the related video playback instruction receiving area 603, the cause searching unit 233 allocates the recording file of the work as the related video and plays back the related video display screen 610 so that playback starts from the corresponding time. , Cause explanation sentence is output as voice.

以上が、第一の実施形態に係る作業管理システム1である。第一の実施形態によれば、より正確に作業者を評価する作業を支援することができる。   The above is the work management system 1 according to the first embodiment. According to the first embodiment, it is possible to support the work of evaluating the worker more accurately.

本発明は、上記の第一の実施形態に制限されない。上記の第一の実施形態は、本発明の技術的思想の範囲内で様々な変形が可能である。例えば、上記の第一の実施形態においては、感情解析端末100は眼鏡型ウェアラブル装置を想定しているが、これに限られない。例えば、頭部をより広く覆うヘルメット型のウェアラブル装置であってもよいし、片眼のみに取り付けるウェアラブル装置であってもよい。また、感情解析端末100と作業管理装置200とが一体化したものであってもよい。   The present invention is not limited to the first embodiment described above. The first embodiment described above can be variously modified within the scope of the technical idea of the present invention. For example, in the first embodiment described above, the emotion analysis terminal 100 is assumed to be a glasses-type wearable device, but is not limited thereto. For example, it may be a helmet-type wearable device that covers the head more widely, or a wearable device that is attached to only one eye. Moreover, the emotion analysis terminal 100 and the work management apparatus 200 may be integrated.

図16〜図19は、このような変形例のうち、作業の実施前等、作業者10に作業に関するナレッジを提供する第二の実施形態に係る作業管理システムの構成例を示す図である。第二の実施形態においては、作業管理装置200に、感情解析端末100へナレッジ情報を提供する構成を備える。このような第二の実施形態について、説明する。なお、第二の実施形態は、基本的には第一の実施形態と同様であるため、相違する構成を中心に説明する。   FIGS. 16-19 is a figure which shows the structural example of the work management system which concerns on 2nd embodiment which provides the knowledge regarding work to the operator 10 before implementation of work among such modifications. In the second embodiment, the work management apparatus 200 has a configuration for providing knowledge information to the emotion analysis terminal 100. Such a second embodiment will be described. Note that the second embodiment is basically the same as the first embodiment, and therefore, a description will be given focusing on different configurations.

図16は、作業管理装置200が備えるクレーム予防情報記憶部255の構成例を示す図である。クレーム予防情報記憶部255は、作業の担当者あるいは依頼者から必要以上のクレームが発生しないようにあらかじめ作業者が心得ておくべきクレーム予防情報を格納する。クレーム予防情報記憶部255には、作業識別子255Aと、実施日255Bと、開始時刻255Cと、作業マニュアル255Dと、差分255Eと、注意事項255Fと、ナレッジ映像255Gと、が含まれる。   FIG. 16 is a diagram illustrating a configuration example of the complaint prevention information storage unit 255 provided in the work management apparatus 200. The complaint prevention information storage unit 255 stores complaint prevention information that the worker should know in advance so as not to generate unnecessary complaints from the person in charge of the work or the client. The complaint prevention information storage unit 255 includes a work identifier 255A, an execution date 255B, a start time 255C, a work manual 255D, a difference 255E, a caution item 255F, and a knowledge video 255G.

作業識別子255Aは、作業の内容を特定する情報である。実施日255Bは、実際に作業を行う日を特定する情報である。開始時刻255Cは、作業を開始する時刻を特定する情報である。作業マニュアル255Dは、作業の詳細が記載されたマニュアルを特定する情報である。差分255Eは、作業の管理の担当者の作業終了時点の感情値から、作業開始時点の感情値を引いた差分である。注意事項255Fには、ナレッジとして注意すべき事項が任意で格納される。また、ナレッジ映像255Gには、ナレッジとしてまとまった映像や画像、音声の情報等が作業識別子255Aごとに表示される。   The work identifier 255A is information that identifies the content of the work. The implementation date 255B is information that identifies the date on which work is actually performed. The start time 255C is information for specifying the time to start work. The work manual 255D is information for identifying a manual in which details of work are described. The difference 255E is a difference obtained by subtracting the emotion value at the work start time from the emotion value at the work end time of the person in charge of work management. In the notes 255F, items to be noted as knowledge are arbitrarily stored. In the knowledge video 255G, video, images, audio information, and the like collected as knowledge are displayed for each work identifier 255A.

図17は、クレーム予防処理の処理フローを示す図である。作業管理装置200は、作業管理装置200の外部の装置からクレーム予防処理の実行の要求を受け付けると、クレーム予防処理を開始する。   FIG. 17 is a diagram illustrating a processing flow of the complaint prevention processing. When the work management apparatus 200 receives a request for execution of the complaint prevention process from a device external to the work management apparatus 200, the work management apparatus 200 starts the complaint prevention process.

まず、クレーム予防情報記憶部255は、クレーム予防処理の実行を要求した外部の装置から、作業マニュアルを特定する情報と、作業を管理する担当者を特定する情報を受け付ける(ステップS301)。具体的には、クレーム予防情報記憶部255は、作業マニュアルを特定する識別子と、担当者の所属組織および氏名と、を受け付ける。   First, the complaint prevention information storage unit 255 receives information for identifying a work manual and information for identifying a person in charge of managing work from an external device that has requested execution of the complaint prevention process (step S301). Specifically, the complaint prevention information storage unit 255 receives an identifier for specifying a work manual, an organization and name of a person in charge.

そして、クレーム予防情報記憶部255は、作業マニュアルを特定する情報と、作業を管理する担当者を特定する情報と、に対応する注意項目とナレッジ映像とを特定する(ステップS302)。具体的には、クレーム予防情報記憶部255は、作業マニュアルを特定する情報によって作業実績記憶部252の作業マニュアル252Eを検索し、対応するレコードに係る気づき252Mを読み出すことで、注意事項を特定する。また、クレーム予防情報記憶部255は、作業マニュアルを特定する情報および作業の管理担当者を特定する情報の組み合わせが、作業情報記憶部251の作業マニュアル251Eと担当者251Fの組み合わせとなるレコードを特定し、対応する作業識別子251Dを読み出す。そして、クレーム予防情報記憶部255は、読み出した作業識別子251Dにより対人応対記憶部254の作業識別子254Cを検索し、対応するレコードに係る気づき254Kを読み出すことで、注意項目とナレッジ映像とを特定する。   Then, the complaint prevention information storage unit 255 identifies the attention item and knowledge video corresponding to the information for identifying the work manual and the information for identifying the person in charge of managing the work (step S302). Specifically, the complaint prevention information storage unit 255 searches for the work manual 252E of the work record storage unit 252 based on the information for specifying the work manual, and reads the notice 252M related to the corresponding record, thereby specifying the precautions. . Further, the complaint prevention information storage unit 255 specifies a record in which a combination of information for specifying a work manual and information for specifying a person in charge of work is a combination of the work manual 251E and the person in charge 251F of the work information storage unit 251. The corresponding work identifier 251D is read out. Then, the complaint prevention information storage unit 255 searches the work identifier 254C of the personal interaction storage unit 254 with the read work identifier 251D, and reads the notice 254K related to the corresponding record, thereby specifying the caution item and the knowledge video. .

そして、クレーム予防情報記憶部255は、注意項目とナレッジ映像とを送信する(ステップS303)。具体的には、クレーム予防情報記憶部255は、クレーム予防処理の実行を要求した外部の装置へ、ステップS302において特定した注意項目とナレッジ映像とを含めた出力情報を送信する。   Then, the complaint prevention information storage unit 255 transmits the caution item and the knowledge video (step S303). Specifically, the complaint prevention information storage unit 255 transmits output information including the attention item specified in step S302 and the knowledge video to an external device that has requested execution of the complaint prevention process.

以上が、クレーム予防処理のフローである。クレーム予防処理によれば、作業内容と、作業を管理する担当者と、の情報を受け付けて、実施する作業に関するナレッジを他の作業者と共有することができるため、作業を管理する担当者からのクレームの発生を予防することができる。   The above is the flow of complaint prevention processing. According to the complaint prevention process, it is possible to receive information on the work content and the person in charge of managing the work, and share knowledge about the work to be performed with other workers. Can be prevented from occurring.

図18は、クレーム予防処理において表示される予防情報表示画面700の例を示す図である。予防情報表示画面700には、注意項目表示領域701が含まれる。注意項目表示領域701には、作業および作業管理担当者についての注意事項がテキスト表示される。例えば、「本件の顧客は、顧客への挨拶忘れに注意。」および「本件の顧客は、時間厳守で作業しないとクレームが来る傾向が高い。」等の情報が表示される。   FIG. 18 is a diagram illustrating an example of a prevention information display screen 700 displayed in the complaint prevention process. The preventive information display screen 700 includes a caution item display area 701. In the caution item display area 701, cautions regarding the work and the work manager are displayed in text. For example, information such as “this customer is careful about forgetting to say hello to the customer” and “this customer is more likely to receive complaints if not working on time” is displayed.

図19は、クレーム予防処理において表示される画面の別の例である予防情報表示画面750の例を示す図である。予防情報表示画面750には、注意項目表示領域751と、ノウハウ画像表示領域752と、が含まれる。注意項目表示領域751には、作業および作業管理担当者についての注意事項がテキスト表示される。例えば、「対象機器の接続は、下記の作業方法で対処する事。やり方を間違えると故障の原因になる。」等の情報が表示される。また、ノウハウ画像表示領域752には、機器の接続部位の拡大写真等、作業を実際に行った際の記録映像等が画像あるいは動画像として表示される。   FIG. 19 is a diagram illustrating an example of a prevention information display screen 750 that is another example of a screen displayed in the complaint prevention processing. The prevention information display screen 750 includes a caution item display area 751 and a know-how image display area 752. In the caution item display area 751, cautions regarding the work and the work manager are displayed in text. For example, information such as “the connection of the target device should be dealt with by the following work method. If the method is mistaken, it causes a failure.” Is displayed. Also, in the know-how image display area 752, a recorded video or the like when the work is actually performed, such as an enlarged photograph of the connection part of the device, is displayed as an image or a moving image.

以上が、第二の実施形態である。第二の実施形態によれば、他の作業者10が蓄積させた作業や作業管理の担当者に関する気づきや工夫、ノウハウの情報を、作業者10が作業を開始する前に作業者10に知らせることができるため、作業者10の作業効率を高められると共に、容易にノウハウ情報を取得することができ、そのためクレームの発生も効率よく回避することができる。   The above is the second embodiment. According to the second embodiment, the worker 10 notifies the worker 10 of the information accumulated by other workers 10 regarding the work and the person in charge of work management, information on know-how, and know-how before the worker 10 starts the work. Therefore, the work efficiency of the worker 10 can be improved, and know-how information can be easily acquired, so that the generation of complaints can be avoided efficiently.

以上、第一の実施形態および第二の実施形態を用いて説明した。上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。   In the above, it demonstrated using 1st embodiment and 2nd embodiment. The technical elements of the above-described embodiments may be applied independently, or may be applied by being divided into a plurality of parts such as program parts and hardware parts.

以上、本発明について、実施形態を中心に説明した。   In the above, this invention was demonstrated centering on embodiment.

1・・・作業管理システム、10・・・作業者、100・・・感情解析端末、110・・・表示制御部、120・・・位置特定部、130・・・音声取得部、140・・・通信部、150・・・画像処理部、160・・・音声処理部、170・・・表情分析部、180・・・感情分析記憶部、181・・・感情基準記憶部、182・・・作業実績記憶部、183・・・評価基礎情報記憶部、184・・・対人応対記憶部、190・・・感情分析部、200・・・作業管理装置、210・・・表示部、220・・・通信部、231・・・音声処理部、232・・・表情処理部、233・・・原因探索部、234・・・作業評価部、235・・・ナレッジ管理部、250・・・記憶部、251・・・作業情報記憶部、252・・・作業実績記憶部、253・・・評価基礎情報記憶部、254・・・対人応対記憶部、300・・・作業対象機器 DESCRIPTION OF SYMBOLS 1 ... Work management system, 10 ... Worker, 100 ... Emotion analysis terminal, 110 ... Display control part, 120 ... Position specification part, 130 ... Voice acquisition part, 140 ... Communication unit 150 Image processing unit 160 Voice processing unit 170 Expression analysis unit 180 Emotion analysis storage unit 181 Emotion reference storage unit 182 Work result storage unit, 183 ... basic evaluation information storage unit, 184 ... personal interaction storage unit, 190 ... emotion analysis unit, 200 ... work management device, 210 ... display unit, 220 ... Communication unit, 231 ... voice processing unit, 232 ... expression processing unit, 233 ... cause search unit, 234 ... work evaluation unit, 235 ... knowledge management unit, 250 ... storage unit 251 ... Work information storage unit 252 ... Work result storage unit 253 ... evaluation basic information storage unit, 254 ... interpersonal answering storage unit, 300 ... work target device

Claims (11)

他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信部と、
受け付けた前記音声コードを用いて該音声の感情の評価を行い、前記評価を該音声コードに関する作業を評価するのに用いる作業評価部と、
を備える作業管理装置。
A communication unit that receives a voice code obtained by coding a voice related to work from another device by a predetermined method;
Using the received voice code to evaluate the emotion of the voice, and using the evaluation to evaluate the work related to the voice code, the work evaluation unit,
A work management apparatus comprising:
請求項1に記載の作業管理装置であって、
前記作業評価部は、前記音声の感情の評価を、前記音声コードを用いて特定した感情の良否の経時変化により構成される波形の幾何情報を用いて行う、
作業管理装置。
The work management apparatus according to claim 1,
The work evaluation unit performs the evaluation of the emotion of the voice using geometric information of a waveform constituted by a temporal change in the quality of the emotion identified using the voice code.
Work management device.
請求項2に記載の作業管理装置であって、
前記波形において、感情の良否に所定の度合いを超える変化が有る場合に、該変化のあった時刻よりも所定の時間分過去を起点として前記音声を再生する原因探索部、
を備える作業管理装置。
The work management device according to claim 2,
In the waveform, when there is a change exceeding a predetermined degree in the quality of the emotion, a cause search unit that reproduces the sound starting from the past by a predetermined time from the time when the change occurred,
A work management apparatus comprising:
請求項1〜3のいずれか一項に記載の作業管理装置であって、
前記作業評価部は、
前記作業に関する難易度に応じて前記感情の評価を行い、前記感情の評価に前記難易度による修正を加えて前記作業を評価する、
作業管理装置。
The work management device according to any one of claims 1 to 3,
The work evaluation unit
The evaluation of the emotion is performed according to the degree of difficulty related to the work, and the work is evaluated by adding correction according to the difficulty level to the evaluation of the emotion.
Work management device.
請求項1〜4のいずれか一項に記載の作業管理装置であって、
前記作業評価部は、
前記作業に関する管理を行う担当者に応じて前記感情の評価を行い、前記感情の評価に前記担当者の特性による修正を加えて前記作業を評価する、
作業管理装置。
The work management device according to any one of claims 1 to 4,
The work evaluation unit
Performing the evaluation of the emotion according to a person in charge of managing the work, and evaluating the work by adding a correction according to the characteristics of the person in charge to the evaluation of the emotion
Work management device.
請求項1〜5のいずれか一項に記載の作業管理装置であって、
前記通信部は、前記音声コードを受け付けると共に、前記音声コードに関する画像情報を受け付け、
前記画像情報に含まれる顔の表情が示す感情を特定する表情処理部を備え、
前記作業評価部は、前記音声の感情の評価に前記表情処理部により特定された感情による修正を加えて前記作業を評価する、
作業管理装置。
The work management device according to any one of claims 1 to 5,
The communication unit receives the audio code and also receives image information related to the audio code,
A facial expression processing unit that identifies emotions represented by facial expressions included in the image information;
The work evaluation unit evaluates the work by adding a correction by the emotion specified by the facial expression processing unit to the evaluation of the emotion of the voice.
Work management device.
請求項1〜6のいずれか一項に記載の作業管理装置であって、
前記通信部が前記作業に関する音声コードに関連付けて受信したナレッジ情報を格納する記憶部と、
ナレッジ管理部と、を備え、
前記通信部は、前記作業を特定する情報を受け付け、
前記ナレッジ管理部は、受け付けた前記作業に関する音声コードと関連付けられたナレッジ情報を特定し出力する、
作業管理装置。
The work management device according to any one of claims 1 to 6,
A storage unit for storing knowledge information received by the communication unit in association with a voice code related to the work;
A knowledge management department,
The communication unit accepts information specifying the work,
The knowledge management unit specifies and outputs knowledge information associated with a voice code related to the received work;
Work management device.
作業に関する音声情報を取得する音声取得部と、
前記音声情報が備える属性に応じて感情の良否を示す音声コード情報を特定する音声分析部と、
前記音声コード情報を前記作業に関連付ける感情分析部と、
前記音声コード情報を、関連付けられた前記作業の情報と共に他の装置へ出力する通信部と、
を備える感情解析端末。
An audio acquisition unit for acquiring audio information about the work;
A voice analysis unit that specifies voice code information indicating the quality of emotion according to the attribute of the voice information;
An emotion analysis unit associating the voice code information with the work;
A communication unit for outputting the voice code information to the other device together with the information of the associated work;
Emotion analysis terminal equipped with.
請求項8に記載の感情解析端末であって、
前記音声情報に対応する画像情報を取得する画像取得部と、
前記画像情報に含まれる顔の表情を特定する表情分析部と、を備え、
前記感情分析部は、前記作業に対して、前記音声コード情報と、前記表情の情報と、を関連付ける、
感情解析端末。
The emotion analysis terminal according to claim 8,
An image acquisition unit for acquiring image information corresponding to the audio information;
A facial expression analysis unit that identifies facial expressions included in the image information,
The emotion analysis unit associates the voice code information with the facial expression information for the work;
Emotion analysis terminal.
コンピューターに、作業の管理を行う手順を実行させる作業管理プログラムであって、
前記コンピューターを、制御手段として機能させ、
前記制御手段に対して、
他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信ステップと、
受け付けた前記音声コードを用いて該音声の感情の評価を行い、前記評価を該音声コードに関する作業を評価するのに用いる作業評価ステップと、
を実行させる作業管理プログラム。
A work management program that causes a computer to execute procedures for managing work,
Causing the computer to function as control means;
For the control means,
A communication step for receiving a voice code obtained by coding a voice related to work from another device by a predetermined method;
A work evaluation step for evaluating the emotion of the voice using the received voice code, and using the evaluation to evaluate a work related to the voice code;
Work management program to execute
コンピューターを用いて作業管理の手順を行う作業管理方法であって、
前記コンピューターは、制御部を備え、
前記制御部は、
他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信ステップと、
受け付けた前記音声コードを用いて該音声の感情の評価を行い、前記評価を該音声コードに関する作業を評価するのに用いる作業評価ステップと、
を実行する作業管理方法。
A work management method for performing work management procedures using a computer,
The computer includes a control unit,
The controller is
A communication step for receiving a voice code obtained by coding a voice related to work from another device by a predetermined method;
A work evaluation step for evaluating the emotion of the voice using the received voice code, and using the evaluation to evaluate a work related to the voice code;
Work management method to execute.
JP2014192713A 2014-09-22 2014-09-22 Work management device, emotion analysis terminal, work management program, and work management method Active JP6556436B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014192713A JP6556436B2 (en) 2014-09-22 2014-09-22 Work management device, emotion analysis terminal, work management program, and work management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014192713A JP6556436B2 (en) 2014-09-22 2014-09-22 Work management device, emotion analysis terminal, work management program, and work management method

Publications (2)

Publication Number Publication Date
JP2016062084A true JP2016062084A (en) 2016-04-25
JP6556436B2 JP6556436B2 (en) 2019-08-07

Family

ID=55796010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014192713A Active JP6556436B2 (en) 2014-09-22 2014-09-22 Work management device, emotion analysis terminal, work management program, and work management method

Country Status (1)

Country Link
JP (1) JP6556436B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106992012A (en) * 2017-03-24 2017-07-28 联想(北京)有限公司 Method of speech processing and electronic equipment
CN109890289A (en) * 2016-12-27 2019-06-14 欧姆龙株式会社 Mood estimates equipment, methods and procedures
JP2019105972A (en) * 2017-12-12 2019-06-27 富士ゼロックス株式会社 Information processing apparatus and program
JP2020154922A (en) * 2019-03-22 2020-09-24 本田技研工業株式会社 Service provision apparatus, settlement information processing apparatus and service provision method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006012171A (en) * 2004-06-24 2006-01-12 Hitachi Ltd System and method for using biometrics to manage review
JP2006267464A (en) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The Emotion analyzer, emotion analysis program and program storage medium
JP2007286377A (en) * 2006-04-18 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> Answer evaluating device and method thereof, and program and recording medium therefor
JP2009151766A (en) * 2007-11-30 2009-07-09 Nec Corp Life adviser support system, adviser side terminal system, authentication server, server, support method and program
JP2009159558A (en) * 2007-12-28 2009-07-16 Fujitsu Fsas Inc Operator reception monitoring and switching system
JP2011029688A (en) * 2009-07-21 2011-02-10 Oki Networks Co Ltd Method of recording and reproducing call and call recorder
JP2011123579A (en) * 2009-12-09 2011-06-23 Daiwa Securities Group Inc Method and system for management of employee behavior
JP2011238029A (en) * 2010-05-11 2011-11-24 Seiko Epson Corp Customer service data recording device, customer service data recording method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006012171A (en) * 2004-06-24 2006-01-12 Hitachi Ltd System and method for using biometrics to manage review
JP2006267464A (en) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The Emotion analyzer, emotion analysis program and program storage medium
JP2007286377A (en) * 2006-04-18 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> Answer evaluating device and method thereof, and program and recording medium therefor
JP2009151766A (en) * 2007-11-30 2009-07-09 Nec Corp Life adviser support system, adviser side terminal system, authentication server, server, support method and program
JP2009159558A (en) * 2007-12-28 2009-07-16 Fujitsu Fsas Inc Operator reception monitoring and switching system
JP2011029688A (en) * 2009-07-21 2011-02-10 Oki Networks Co Ltd Method of recording and reproducing call and call recorder
JP2011123579A (en) * 2009-12-09 2011-06-23 Daiwa Securities Group Inc Method and system for management of employee behavior
JP2011238029A (en) * 2010-05-11 2011-11-24 Seiko Epson Corp Customer service data recording device, customer service data recording method and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109890289A (en) * 2016-12-27 2019-06-14 欧姆龙株式会社 Mood estimates equipment, methods and procedures
CN106992012A (en) * 2017-03-24 2017-07-28 联想(北京)有限公司 Method of speech processing and electronic equipment
US10796689B2 (en) 2017-03-24 2020-10-06 Lenovo (Beijing) Co., Ltd. Voice processing methods and electronic devices
JP2019105972A (en) * 2017-12-12 2019-06-27 富士ゼロックス株式会社 Information processing apparatus and program
US11295459B2 (en) 2017-12-12 2022-04-05 Fujifilm Business Innovation Corp. Information processing apparatus
JP2020154922A (en) * 2019-03-22 2020-09-24 本田技研工業株式会社 Service provision apparatus, settlement information processing apparatus and service provision method
JP7364348B2 (en) 2019-03-22 2023-10-18 本田技研工業株式会社 Service providing device, service providing system, and service providing method

Also Published As

Publication number Publication date
JP6556436B2 (en) 2019-08-07

Similar Documents

Publication Publication Date Title
US10347254B2 (en) Leveraging head mounted displays to enable person-to-person interactions
CN110415306B (en) Face synthesis using generation of confrontational networks
US11503197B2 (en) Retrieving and displaying key words from prior conversations
US10223832B2 (en) Providing location occupancy analysis via a mixed reality device
KR101632819B1 (en) Method and apparatus for unattended image capture
JP6556436B2 (en) Work management device, emotion analysis terminal, work management program, and work management method
US9798517B2 (en) Tap to initiate a next action for user requests
US10599980B2 (en) Technologies for cognitive cuing based on knowledge and context
CN110326300B (en) Information processing apparatus, information processing method, and computer-readable storage medium
CN117991885A (en) Display system
US20200236070A1 (en) Information processing system and information processing method
US10996741B2 (en) Augmented reality conversation feedback
US20160277707A1 (en) Message transmission system, message transmission method, and program for wearable terminal
US20180054688A1 (en) Personal Audio Lifestyle Analytics and Behavior Modification Feedback
US11164341B2 (en) Identifying objects of interest in augmented reality
JP2015132878A (en) Information processing device, information processing method and program
US20160111019A1 (en) Method and system for providing feedback of an audio conversation
US11632346B1 (en) System for selective presentation of notifications
JP2022531161A (en) Systems and methods for socially relevant user engagement indicators in augmented reality devices
EP4323853A1 (en) User suggestions based on engagement
CN115082980A (en) Image recognition method, device and computer storage medium
CN118020046A (en) Information processing apparatus, information processing method, and program
KR20230114666A (en) Method and Electronic apparatus for controlling outputting device
IL266333A (en) System and method for socially relevant user engagement indicator in reality devices
CN105721401A (en) Communication method and communication system between wearable devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190710

R150 Certificate of patent or registration of utility model

Ref document number: 6556436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250