JP2016062084A - Work management device, feeling analysis terminal, work management program and work management method - Google Patents
Work management device, feeling analysis terminal, work management program and work management method Download PDFInfo
- Publication number
- JP2016062084A JP2016062084A JP2014192713A JP2014192713A JP2016062084A JP 2016062084 A JP2016062084 A JP 2016062084A JP 2014192713 A JP2014192713 A JP 2014192713A JP 2014192713 A JP2014192713 A JP 2014192713A JP 2016062084 A JP2016062084 A JP 2016062084A
- Authority
- JP
- Japan
- Prior art keywords
- work
- information
- unit
- emotion
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、作業管理装置、感情解析端末、作業管理プログラムおよび作業管理方法に関するものである。 The present invention relates to a work management device, an emotion analysis terminal, a work management program, and a work management method.
特許文献1には、「対象テキストデータの形態素解析結果と構文解析結果との少なくとも一方を用いて、前記対象テキストデータ内にどの程度その意味内容が明示されているかを表す明示性特徴量を推定する明示性推定部と、怒りの感情が表現されているか否かを示す教師信号付きの学習用テキストデータの明示性特徴量から予め学習された識別器を用いて、前記対象テキストデータ内に怒りの感情が表現されているか否かを、前記明示性推定部で推定された前記対象テキストデータの明示性特徴量から識別する感情識別部と、を備える、感情推定装置」と記載されている。
上記技術では、文字に起こされた言語情報に基づいて感情を識別することはできても、発話時の声の質を加味した感情評価を行うことは難しい。例えば、訪問先の作業担当者の指揮の下で作業者が作業を行う場合等において、作業担当者に与えた心証を考慮した作業者の評価を行う場合、発話時の言語情報だけを用いたのでは作業者を正確に評価することは難しい。言い換えると、作業担当者の心証は、必ずしも言語情報の変化として表出するわけではないため、作業担当者との会話音声の質を無視した言語情報のみを用いて作業者を評価すると、評価に正確さを欠くおそれが大きい。 In the above technique, although it is possible to identify emotions based on linguistic information caused by characters, it is difficult to perform emotion evaluation that takes into account the quality of the voice during speech. For example, when the worker performs work under the direction of the worker in charge of visit, when evaluating the worker considering the mind given to the worker, only the language information at the time of utterance is used. Therefore, it is difficult to accurately evaluate workers. In other words, since the mentality of the worker is not necessarily expressed as a change in linguistic information, evaluating the worker using only language information ignoring the quality of conversational speech with the worker is useful. There is a high risk of lack of accuracy.
本発明の目的は、より正確に作業者を評価する技術を提供することにある。 An object of the present invention is to provide a technique for more accurately evaluating an operator.
本願は上記、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明に係る作業管理装置は、他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信部と、受け付けた上記音声コードを用いて該音声の感情の評価を行い、上記評価を該音声コードに関する作業を評価するのに用いる作業評価部と、を備える。 The present application includes a plurality of means for solving at least a part of the above-described problems. Examples of such means are as follows. In order to solve the above-described problem, the work management device according to the present invention includes a communication unit that receives a voice code obtained by coding a voice related to work from another device by a predetermined method, and uses the received voice code. A work evaluation unit that performs evaluation of emotion and uses the evaluation to evaluate work related to the voice code.
また、上記の作業管理装置においては、上記作業評価部は、上記音声の感情の評価を、上記音声コードを用いて特定した感情の良否の経時変化により構成される波形の幾何情報を用いて行うものであってもよい。 Further, in the work management apparatus, the work evaluation unit performs the evaluation of the emotion of the voice using the geometric information of the waveform constituted by the temporal change of the quality of the emotion specified using the voice code. It may be a thing.
また、上記の作業管理装置においては、上記波形において、感情の良否に所定の度合いを超える変化が有る場合に、該変化のあった時刻よりも所定の時間分過去を起点として上記音声を再生する原因探索部を備えるものであってもよい。 Further, in the work management apparatus, when the waveform has a change exceeding a predetermined degree in the quality of the emotion, the sound is reproduced starting from the past for a predetermined time from the time of the change. A cause search unit may be provided.
また、上記の作業管理装置においては、上記作業評価部は、上記作業に関する難易度に応じて上記感情の評価を行い、上記感情の評価に上記難易度による修正を加えて上記作業を評価する、ものであってもよい。 Further, in the work management apparatus, the work evaluation unit evaluates the emotion according to the degree of difficulty related to the work, and evaluates the work by adding correction based on the difficulty to the evaluation of the emotion. It may be a thing.
また、上記の作業管理装置においては、上記作業評価部は、上記作業に関する管理を行う担当者に応じて上記感情の評価を行い、上記感情の評価に上記担当者の特性による修正を加えて上記作業を評価するものであってもよい。 Further, in the work management device, the work evaluation unit evaluates the emotion according to a person in charge of managing the work, and adds the correction based on the characteristic of the person in charge to the evaluation of the emotion. The work may be evaluated.
また、上記の作業管理装置においては、上記通信部は、上記音声コードを受け付けると共に、上記音声コードに関する画像情報を受け付け、上記画像情報に含まれる顔の表情が示す感情を特定する表情処理部を備え、上記作業評価部は、上記音声の感情の評価に上記表情処理部により特定された感情による修正を加えて上記作業を評価するものであってもよい。 Further, in the work management apparatus, the communication unit receives the voice code, receives image information related to the voice code, and includes an expression processing unit that identifies an emotion represented by a facial expression included in the image information. The work evaluation unit may evaluate the work by adding a correction based on the emotion specified by the facial expression processing unit to the evaluation of the emotion of the voice.
また、上記の作業管理装置においては、上記通信部が上記作業に関する音声コードに関連付けて受信したナレッジ情報を格納する記憶部と、ナレッジ管理部と、を備え、上記通信部は、上記作業を特定する情報を受け付け、上記ナレッジ管理部は、受け付けた上記作業に関する音声コードと関連付けられたナレッジ情報を特定し出力するものであってもよい。 In addition, the work management apparatus includes a storage unit that stores knowledge information received by the communication unit in association with a voice code related to the work, and a knowledge management unit, and the communication unit identifies the work. The knowledge management unit may identify and output knowledge information associated with the received voice code related to the work.
また、本願に係る感情解析端末は、作業に関する音声情報を取得する音声取得部と、上記音声情報が備える属性に応じて感情の良否を示す音声コード情報を特定する音声分析部と、上記音声コード情報を上記作業に関連付ける感情分析部と、上記音声コード情報を、関連付けられた上記作業の情報と共に他の装置へ出力する通信部と、を備える。 Also, the emotion analysis terminal according to the present application includes a voice acquisition unit that acquires voice information related to work, a voice analysis unit that specifies voice code information indicating the quality of emotion according to an attribute included in the voice information, and the voice code An emotion analysis unit for associating information with the work, and a communication unit for outputting the voice code information to another apparatus together with the information on the work associated therewith.
また、上記の感情解析端末においては、上記音声情報に対応する画像情報を取得する画像取得部と、上記画像情報に含まれる顔の表情を特定する表情分析部と、上記感情分析部は、上記作業に、上記音声コード情報と上記表情と、の情報を関連付けるものであってもよい。 In the emotion analysis terminal, the image acquisition unit that acquires image information corresponding to the audio information, the facial expression analysis unit that specifies facial expressions included in the image information, and the emotion analysis unit include: Information of the voice code information and the facial expression may be associated with the work.
また、本願に係る作業管理プログラムは、コンピューターに、作業の管理を行う手順を実行させる作業管理プログラムであって、上記コンピューターを、制御手段として機能させ、上記制御手段に対して、他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信ステップと、受け付けた上記音声コードを用いて該音声の感情の評価を行い、上記評価を該音声コードに関する作業を評価するのに用いる作業評価ステップと、を実行させる。 Further, the work management program according to the present application is a work management program for causing a computer to execute a procedure for managing work. The work management program causes the computer to function as control means, and causes the control means to be transmitted from another device. A communication step for receiving a voice code obtained by coding a voice related to a work by a predetermined method, and evaluating the emotion of the voice using the received voice code, and using the evaluation to evaluate a work related to the voice code. And an operation evaluation step.
また、本願に係る作業管理方法は、コンピューターを用いて作業管理の手順を行う作業管理方法であって、上記コンピューターは、制御部を備え、上記制御部は、他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信ステップと、受け付けた上記音声コードを用いて該音声の感情の評価を行い、上記評価を該音声コードに関する作業を評価するのに用いる作業評価ステップと、を実行する。 Further, the work management method according to the present application is a work management method for performing a work management procedure using a computer, wherein the computer includes a control unit, and the control unit is configured to output a sound related to the work from another device. A communication step for accepting a voice code encoded by the method, a work evaluation step for evaluating the emotion of the voice using the received voice code, and using the evaluation to evaluate a work related to the voice code, Execute.
本発明によると、より正確に作業者を評価する技術を提供することができる。ただし、上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, it is possible to provide a technique for more accurately evaluating an operator. However, problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
以下に、本発明に係る第一の実施形態を適用した作業管理システム1を用いた実施形態について、図面を参照して説明する。
Hereinafter, an embodiment using a
図1は、本発明の第一の実施形態に係る作業管理システム1の構成例を示す図である。本実施形態において想定する作業管理システム1においては、感情解析端末100と、作業管理装置200と、が含まれる。該システムにおいては、作業者10は、感情解析端末100を身体(例えば、感情解析端末100が眼鏡型装置、いわゆるスマートグラス等である場合には、顔)に装着した状態で作業対象機器300に対して所定の作業を行う。例えば、作業対象機器300のメンテナンス作業や、設置作業、棚卸作業等の作業を行う。
FIG. 1 is a diagram showing a configuration example of a
感情解析端末100は、作業者10が身体の一部に着脱可能に取り付け可能な計算機全般を含む、いわゆるウェアラブルデバイスとも呼ばれる装置である。望ましくは、感情解析端末100は、作業者に装着され、作業者の視野と同様あるいはより広角な画像情報を取得可能であり、作業者の知覚する音声情報、すなわち作業者10自身が発した声、あるいは作業者10に聞こえる声の情報を得ることができる。スマートグラスは、そのようないわゆるウェアラブルデバイスの一つであり、装着時に作業者の両手が拘束されにくいものであるため、作業品質向上等を狙う作業者の支援をより効率よく行うことができる。なお、感情解析端末100は、作業管理システム1に複数含まれる。
The
なお、感情解析端末100は、作業者10が所有する端末であってもよいし、作業者10が属する組織から作業者に貸与される端末であってもよい。作業管理装置200は、作業者10が行う作業を評価する処理と、作業者10が作業先の担当者の感情を大きく変化させた場合にその原因となる要因を洗い出す支援処理と、他の作業者10等も含めて作業先の担当者に対する対応上の注意点を事前に作業者10へ知らせる処理を行う。
The
感情解析端末100と、作業管理装置200との間は、公衆無線網や携帯電話網等のネットワークを介して接続される。作業管理装置200は、例えばサーバー装置、パーソナルコンピューター、いわゆるスマートフォンやタブレット端末等を含む携帯電話装置であり、他の装置と通信可能な処理装置である。
The
感情解析端末100は、表示制御部110と、位置特定部120と、音声取得部130と、通信部140と、画像処理部150と、音声分析部160と、表情分析部170と、感情分析記憶部180と、感情基準記憶部181と、作業実績記憶部182と、評価基礎情報記憶部183と、対人応対記憶部184と、感情分析部190と、を含む。
The
表示制御部110は、装着者表示部111と、通知出力部112と、を含む。装着者表示部111は、感情解析端末100の装着者すなわち作業者10に対して、表示を行う。いわば、装着者表示部111は、内側の表示部であり、例えば視覚表示情報を眼鏡の装着者側に近いレンズ面に像を投影させることで装着者にレンズ越しの光学映像に重畳させて情報を表示させる。
The display control unit 110 includes a wearer display unit 111 and a notification output unit 112. The wearer display unit 111 performs display for the wearer of the
通知出力部112は、感情解析端末100の装着者すなわち作業者10以外の者に対して、表示を行う。通知出力部112は、例えばLED(Light Emitted Diode)等の発光体の明滅を制御することにより、装着者を外部から視覚的に認識しうる者等に対して、感情解析端末100が稼働中であることを示す、いわば外側の表示部である。
The notification output unit 112 performs display for a wearer of the
位置特定部120は、衛星波を受信して現在地の3次元座標を、感情解析端末100が存在する位置として特定する。具体的には、位置特定部120は、GPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)等の3つ以上の人工衛星から送信された衛星波をアンテナを用いて受信し、受信した情報に基づき現在地の3次元座標を割り出した位置情報を用いて、感情解析端末100が存在する位置を特定する。
The
音声取得部130は、作業に関する音声情報を取得する。具体的には、音声取得部130は、感情解析端末100の外部の音声情報を取得し、音声記録ファイルとして作業実績記憶部182に格納する。通信部140は、他の装置との通信を制御する。具体的には、通信部140は、音声コード情報を、関連付けられた作業の情報と共に他の装置である作業管理装置200へ出力する。通信部140は、例えばBluetooth、無線LAN、NFC(Near Field Communication)等による近距離電波通信を制御するものであることが望ましい。しかし、USB等の所定の有線通信を制御するものであってもよい。
The voice acquisition unit 130 acquires voice information regarding work. Specifically, the voice acquisition unit 130 acquires voice information outside the
画像処理部150には、画像取得部151と、画像重畳部152と、が含まれる。画像取得部151は、感情解析端末100により取得した外部の画像、すなわち作業者の視界に関連する画像情報を取得する。より理想的には、画像取得部151は、作業者の視界をすべて含む範囲の画像を取得する。
The image processing unit 150 includes an image acquisition unit 151 and an
画像重畳部152は、作業管理装置200等から重畳表示する画像やテキスト等の情報を受け付けると、作業者10に対して、作業者10の視界に重畳させるように当該情報を出力する。すなわち、画像重畳部152は、撮像した画像を液晶画像等により作業者10の視界を覆うように出力するヘッドセット端末等のウェアラブルデバイスの場合には撮像した画像に透過レイヤーを設けて情報を表示する。ウェアラブルデバイスが作業者10の視界を一部半透過するように出力する眼鏡型のウェアラブルデバイスの場合には、当該情報を表示する。
When the
音声分析部160は、音声取得部130が取得した音声情報を分析する。具体的には、音声分析部160は、音声情報を所定の種類の属性ごとに所定の基準に沿ってコード化する。例えば、音声分析部160は、音程、声量、発話速度、音声内容等の属性ごとに定量化し、定量化した属性の量に応じて、コード化を行い、作業に関連付ける。 The voice analysis unit 160 analyzes the voice information acquired by the voice acquisition unit 130. Specifically, the voice analysis unit 160 encodes the voice information according to a predetermined standard for each predetermined type of attribute. For example, the voice analysis unit 160 quantifies each attribute such as pitch, voice volume, speech rate, voice content, etc., performs coding according to the quantified attribute amount, and associates it with the work.
表情分析部170は、画像取得部151が取得した画像情報を分析する。具体的には、表情分析部170は、画像情報に含まれる顔の領域を認識し、所定の特徴点の配置に基づいて笑顔の度合いを特定する。例えば、満面の笑みを笑顔100%として、無表情に近づくほど笑顔の割合が下がるように笑顔の度合いを特定する。なお、表情分析部170は、上記の分析に限らず、例えば顔色の変化を加味して笑みを特定するものであってもよい。
The facial
感情分析記憶部180は、感情分析を行った結果を格納する。具体的には、感情分析記憶部180は、音声分析部160が分析した結果であるコードと、表情分析部170が分析した笑みの度合いと、を用いた感情分析の結果を格納する。
The emotion
図2は、感情分析記憶部180のデータ構造を示す図である。感情分析記憶部180には、実施日180Aと、時刻180Bと、音程180Cと、声量180Dと、発話速度180Eと、音声180Fと、スマイル180Gと、総合判定180Hと、が含まれる。
FIG. 2 is a diagram illustrating a data structure of the emotion
実施日180Aは、作業者10が作業を実施した日を特定する情報である。時刻180Bは、作業を実施した時刻を特定する情報である。音程180Cは、実施日180Aの時刻180Bにおいて取得された音声情報の属性のうち、所定期間についての音程の平均をコード化した情報である。声量180Dは、実施日180Aの時刻180Bにおいて取得された音声情報の属性のうち、所定期間についての音量の平均をコード化した情報である。
The implementation date 180A is information that identifies the date on which the
発話速度180Eは、実施日180Aの時刻180Bにおいて取得された音声情報の属性のうち、所定期間についての発話速度の平均をコード化した情報である。 The speech rate 180E is information obtained by coding the average speech rate for a predetermined period among the attributes of the voice information acquired at the time 180B on the implementation date 180A.
音声180Fは、実施日180Aの時刻180Bにおいて取得された音声情報の属性のうち、発話内容に含まれる所定のフレーズごとに予め定められた点数により計算しコード化した情報である。
The
スマイル180Gは、実施日180Aの時刻180Bにおいて取得された画像情報に含まれる顔の笑みの度合いのうち、所定期間についての笑みの度合いの平均をコード化した情報である。 The smile 180G is information obtained by coding the average smile degree for a predetermined period among the smile degrees of the face included in the image information acquired at the time 180B on the implementation date 180A.
総合判定180Hは、実施日180Aの時刻180Bにおいて取得された画像情報に含まれる顔の笑みの度合いと、実施日180Aの時刻180Bにおいて取得された音声情報に含まれる音声のコードの情報とを用いて算出した情報である。 Comprehensive determination 180H uses the degree of smile of the face included in the image information acquired at time 180B on the implementation date 180A and the information of the voice code included in the audio information acquired at time 180B on the implementation date 180A. It is the information calculated.
感情基準記憶部181は、感情分析を行う際の、音声情報をコード化する際に用いる基準となる情報を格納する。 The emotion reference storage unit 181 stores information serving as a reference used when coding voice information when performing emotion analysis.
図3は、感情基準記憶部181のデータ構造を示す図である。感情基準記憶部181は、音声情報の属性ごとに、感情を特定するための基準となる範囲とコード値とを対応付ける情報を格納する。具体的には、感情基準記憶部181には、種類181Aと、度合い181Bと、範囲181Cと、感情コード(男声)181Dと、感情コード(女声)181Eと、が対応付けられて格納されている。
FIG. 3 is a diagram illustrating a data structure of the emotion criterion storage unit 181. The emotion reference storage unit 181 stores information for associating a code range with a reference range for specifying an emotion for each attribute of audio information. Specifically, the
種類181Aは、音声情報の属性の種類を特定する情報である。例えば、種類181Aには、音程(Octabe)、声量(decibel)、発話速度(pitch)、音声等の種類が含まれる。度合い181Bは、種類181Aで特定される種類ごとに、定量化した量の多寡を判定する基準となる表現である。範囲181Cは、度合い181Bごとにとりうる量の範囲である。例えば、音程の度合いが「低」となる範囲は、1度から3度の間であり、「普通」となる範囲は、4度から6度の間、「高」となる範囲は、7度から9度、のような範囲である。感情コード(男声)181Dは、分析対象の音声が男性の声の場合のコード値である。感情コード(女声)181Eは、分析対象の音声が女性の声の場合のコード値である。分析対象の音声を男女で分けているのは、例えば同じ音程であったとしても、男声としては高い音程であるが女声としては低い音程である場合等、相対的にコード化するためである。あるいは、快適を感じる際に、男性と女性とでは音程の上下の変化が逆になる場合等も考えられるため、異なったコードを与えられるよう分けている。
The
作業実績記憶部182は、作業者10の作業の実績、すなわち実際に作業を行った際に記録した音声や画像の情報を格納する。
The work
図4は、作業実績記憶部182のデータ構造を示す図である。作業実績記憶部182は、作業ごとに、使用するマニュアルと、実際の作業において収集した音声や映像等のファイルを特定する情報と、該音声や映像のコード量についての満足量、不満量、差分量と、を対応付けて格納する。具体的には、作業実績記憶部182には、機器識別子182Aと、実施日182Bと、録画開始時刻182Cと、作業識別子182Dと、作業マニュアル182Eと、記録情報種別182Fと、記録ファイル名182Gと、閾値超過回数182Hと、満足量182Jと、不満量182Kと、差分182Lと、気づき182Mと、が対応付けられて格納されている。
FIG. 4 is a diagram illustrating a data structure of the work
機器識別子182Aは、作業対象機器300を特定する情報である。実施日182Bは、実際に作業を行った日を特定する情報である。録画開始時刻182Cは、作業時の画像取得を開始した時刻を特定する情報である。作業識別子182Dは、作業の内容を特定する情報である。作業マニュアル182Eは、作業の詳細が記載されたマニュアルを特定する情報である。
The device identifier 182A is information for specifying the
記録情報種別182Fは、記録された情報が音声、画像のいずれの種別であるのかを特定する情報である。記録ファイル名182Gは、音声、画像のいずれかまたは両方が記録されたファイルを特定する情報である。閾値超過回数182Hは、作業の記録の中で、満足あるいは不満足の度合いが所定の閾値を超えた回数が何度あるかを特定する情報である。満足量182Jは、作業の記録の中で合計した満足度合いを特定する情報である。不満量182Kは、作業の記録の中で合計した不満足の度合いを特定する情報である。差分182Lは、作業記録開始時の総合判定と作業記録終了時の総合判定との差分である。気づき182Mは、当該作業において気づきのあった事項を示す情報である。例えば、気づき182Mには、作業マニュアルの補足事項、作業対象機器300固有の注意点等を含む。
The recorded information type 182F is information for specifying whether the recorded information is a sound or an image. The recording file name 182G is information for specifying a file in which one or both of sound and image are recorded. The threshold excess count 182H is information for specifying how many times the degree of satisfaction or dissatisfaction exceeds a predetermined threshold in the work recording. The satisfaction amount 182J is information for specifying the satisfaction degree totaled in the work record. The dissatisfaction amount 182K is information for specifying the degree of dissatisfaction totaled in the work records. The
評価基礎情報記憶部183は、作業者10の作業ごとに、評価に用いる情報が格納される。
The evaluation basic
図5は、評価基礎情報記憶部183のデータ構造を示す図である。評価基礎情報記憶部183は、作業者の作業ごとに、音声の情報と、顧客の評価基準のばらつきを調整するための顧客係数と、作業の難易度のばらつきを調整するための作業係数と、を対応付けて格納する。具体的には、評価基礎情報記憶部183には、作業者識別子183Aと、実施日183Bと、開始時刻183Cと、閾値超過回数183Dと、満足量183Eと、不満量183Fと、顧客係数183Gと、作業係数183Hと、差分183Jと、が対応付けられて格納されている。
FIG. 5 is a diagram illustrating a data structure of the evaluation basic
作業者識別子183Aは、作業者10を特定する情報である。実施日183Bは、実際に作業を行った日を特定する情報である。開始時刻183Cは、作業時の画像あるいは音声の取得を開始した時刻のうち最早の時刻を特定する情報である。閾値超過回数183Dは、作業の記録の中で、満足あるいは不満足の度合いが所定の閾値を超えた回数が何度あるかを特定する情報である。満足量183Eは、作業の記録の中で合計した満足度合いを特定する情報である。不満量183Fは、作業の記録の中で合計した不満足の度合いを特定する情報である。
The worker identifier 183A is information that identifies the
顧客係数183Gは、作業に関する管理を行う担当者の評価基準のばらつきを調整するための係数である。一般に、同じ作業を同じ内容で行っても、作業を管理する担当者が異なれば担当者からの評価は異なったものとなる場合が多い。比較的容易に好評価をつける担当者の元で多く作業を行う作業者と、そうでない担当者の元で多く作業を行う作業者との間で評価が大きく異なるものとならないよう、当該係数により調整可能である。 The customer coefficient 183G is a coefficient for adjusting variation in evaluation criteria of a person in charge who performs management related to work. In general, even if the same work is performed with the same content, the evaluation from the person in charge often differs depending on the person in charge of managing the work. The coefficient is used so that the evaluation does not differ greatly between workers who perform a lot of work under the person in charge who makes a good evaluation relatively easily and workers who do a lot of work under the person in charge who does not. It can be adjusted.
作業係数183Hは、作業の難易度のばらつきを調整するための係数である。一般に、作業技能に優れる者は、より難易度の高い作業を実施し、そうでない者は、より難易度の低い作業を実施することが多い。難易度の低い作業を事故なく行った者が、難易度の高い作業において小さな事故を発生させてしまった者よりも評価が著しく高くなることは、妥当ではないことから、作業係数は、これを調整する係数である。 The work coefficient 183H is a coefficient for adjusting variation in the difficulty level of work. In general, those who are excellent in work skills often perform work with higher difficulty, and those who do not often perform work with lower difficulty. Since it is not appropriate that a person who has performed a low-level work without an accident has a significantly higher evaluation than a person who has generated a small accident in a high-level work, the work factor is The coefficient to adjust.
差分183Jは、作業記録開始時の総合判定から作業記録終了時の総合判定の間の差分である。 The difference 183J is a difference between the comprehensive determination at the start of work recording and the comprehensive determination at the end of work recording.
対人応対記憶部184は、作業時の対人応対、すなわち作業を管理する担当者との会話に関して、実際に作業を行った際に記録した音声や画像の情報を格納する。
The personal
図6は、対人応対記憶部184のデータ構造を示す図である。対人応対記憶部184は、作業ごとに、実際の作業において収集した音声や映像等のファイルを特定する情報と、該音声や映像のコード量についての満足量、不満量、差分量と、を対応付けて格納する。具体的には、対人応対記憶部184には、実施日184Aと、録画開始時刻184Bと、作業識別子184Cと、記録情報種別184Dと、記録ファイル名184Eと、閾値超過回数184Fと、満足量184Gと、不満量184Hと、差分184Jと、気づき184Kと、が対応付けられて格納されている。
FIG. 6 is a diagram illustrating a data structure of the personal
実施日184Aは、実際に作業を行った日を特定する情報である。録画開始時刻184Bは、会話時の画像取得を開始した時刻を特定する情報である。作業識別子184Cは、作業の内容を特定する情報である。 The implementation date 184A is information that identifies the date on which the work was actually performed. The recording start time 184B is information for specifying the time when image acquisition at the time of conversation is started. The work identifier 184C is information that identifies the content of the work.
記録情報種別184Dは、記録された情報が音声、画像のいずれの種別であるのかを特定する情報である。記録ファイル名184Eは、音声、画像のいずれかまたは両方が記録されたファイルを特定する情報である。閾値超過回数184Fは、会話の記録の中で、満足あるいは不満足の度合いが所定の閾値を超えた回数が何度あるかを特定する情報である。満足量184Gは、会話の記録の中で合計した満足度合いを特定する情報である。不満量184Hは、会話の記録の中で合計した不満足の度合いを特定する情報である。差分184Jは、作業記録開始時の総合判定と作業記録終了時の総合判定との差分である。気づき184Kは、当該会話において気づきのあった事項を示す情報である。例えば、気づき184Kには、作業を管理する担当者が好む話し方、作業を管理する担当者が所属する組織のポリシー等、固有の注意点等を含む。 The recorded information type 184D is information that specifies whether the recorded information is a sound or an image. The recording file name 184E is information for specifying a file in which either or both of sound and image are recorded. The threshold excess count 184F is information for specifying how many times the degree of satisfaction or dissatisfaction exceeds a predetermined threshold in the conversation recording. The satisfaction amount 184G is information for specifying the satisfaction degree totaled in the conversation record. The dissatisfaction amount 184H is information for specifying the degree of dissatisfaction added up in the conversation record. The difference 184J is a difference between the comprehensive determination at the start of work recording and the comprehensive determination at the end of work recording. The notice 184K is information indicating a matter noticed in the conversation. For example, the notice 184K includes unique cautions such as a speech style preferred by a person in charge of managing work, a policy of an organization to which the person in charge of managing work belongs, and the like.
感情分析部190は、音声分析部160が分析した音声情報と、表情分析部が分析した表情と、のいずれかまたは両方を用いて、感情を分析する。具体的には、感情分析部190は、作業について、音声分析部160が分析した結果得られた音声のコード情報と、表情分析部170が分析した表情の情報とを関連付けて、感情の良否を特定する。
The
作業管理装置200は、感情解析端末100とネットワークを介して接続される。作業管理装置200には、表示部210と、通信部220と、音声処理部231と、表情処理部232と、原因探索部233と、作業評価部234と、ナレッジ管理部235と、記憶部250と、が含まれる。
The
表示部210は、作業管理装置200の操作等に用いられる表示出力を行う。
The
通信部220は、他の装置である感情解析端末100から、作業に関する音声を所定の方法でコード化した音声コードを受け付ける。また、通信部220は、音声コードを受け付けると共に、音声コードに関する画像情報をも受け付ける。
The
音声処理部231は、作業管理装置200の操作等に用いられる音声入力を受け付けると、受け付けた音声を音声ファイルとして記憶部250に格納する。
When the voice processing unit 231 receives a voice input used for the operation of the
表情処理部232は、画像情報に含まれる顔を示す画像の表情を解析処理する。表情処理部232は、画像上に含まれる表示物の形状に基づいて顔を認識し、顔のパターンマッチング処理等を行い、表情が示す笑みの度合いを特定する。
The facial
原因探索部233は、作業評価部234が行った作業評価の結果において、感情の良否に所定の度合いを超える変化が有る場合に、該変化のあった時刻よりも所定の時間分過去(例えば、2分前)を起点として音声情報および関連する画像情報を再生する。
In the result of the work evaluation performed by the
作業評価部234は、他の装置である感情解析端末100から受け付けた作業に関する音声情報に基づく音声コードを用いて音声の感情の評価を行い、感情の評価を音声コードに関する作業を評価するのに用いる。また、作業評価部234は、音声の感情の評価を、音声コードを用いて特定した感情の良否の経時変化により構成される波形の幾何情報を用いて行う。なお、作業評価部234は、作業に関する難易度に応じて感情の評価を行い、感情の評価に難易度による修正を加えて作業を評価する。また、作業評価部234は、作業に関する管理を行う担当者に応じて感情の評価を行い、感情の評価に担当者の特性による修正を加えて作業を評価する。
The
また、作業評価部234は、作業に関連付けられた画像の情報がある場合には、音声の感情の評価に、表情処理部232により特定された感情による修正を加えて、作業を評価する。具体的には、表情が所定以上の度合いの笑みである場合には、感情を良方向に増加させるようにしても良いし、音程等の所定の音声の属性の感情コードを良方向に増加させるようにしても良い。
In addition, when there is image information associated with the work, the
ナレッジ管理部235は、作業に関する音声コードと関連付けられたナレッジ情報を、後述する作業実績記憶部252と、対人応対記憶部254とから読み出して特定し出力する。
The
記憶部250には、作業情報記憶部251と、作業実績記憶部252と、評価基礎情報記憶部253と、対人応対記憶部254と、が含まれる。
The
作業情報記憶部251は、作業の実施予定に関する情報を格納する。
The work
図7は、作業情報記憶部251のデータ構造を示す図である。作業情報記憶部251は、作業対象機器300ごとに、作業の日時と、作業で使用するマニュアルと、作業を実施する担当者である作業者と、を特定する情報を対応付けて格納する。具体的には、作業情報記憶部251には、機器識別子251Aと、実施日251Bと、作業開始時刻251Cと、作業識別子251Dと、作業マニュアル251Eと、担当者251Fと、が対応付けられて格納されている。
FIG. 7 is a diagram showing a data structure of the work
機器識別子251Aは、作業対象機器300を特定する情報である。実施日251Bは、実際に作業を行う日を特定する情報である。作業開始時刻251Cは、作業を開始する時刻を特定する情報である。作業識別子251Dは、作業の内容を特定する情報である。作業マニュアル251Eは、作業の詳細が記載されたマニュアルを特定する情報である。担当者251Fは、作業を管理する担当者を特定する情報である。例えば、作業の依頼主側あるいは作業対象機器300の管理担当者を特定する情報である。
The
作業実績記憶部252、評価基礎情報記憶部253、対人応対記憶部254のそれぞれは、感情解析端末100の作業実績記憶部182、評価基礎情報記憶部183、対人応対記憶部184と同様のデータ構造を備える。そのため、説明は省略する。
Each of the work performance storage unit 252, the basic evaluation information storage unit 253, and the personal
図8は、感情解析端末100のハードウェア構成を示す図である。感情解析端末100は、音声受付装置101と、演算装置102と、外部出力装置103と、主記憶装置104と、撮像装置105と、装着者出力装置106と、通信装置107と、加速度センサ装置108と、外部記憶装置109と、各装置をつなぐバス100bと、を少なくとも備える。また、他に、感情解析端末100は、接触入力装置を備えるものであってもよい。なお、接触入力装置は、例えば眼鏡型のウェアラブルデバイスの場合には、眼鏡のつる部分への接触をクリック入力として受け付け、接触状態で摺動させる方向をスクロール入力として受け付けるものであってよいが、これに限られるものではない。
FIG. 8 is a diagram illustrating a hardware configuration of the
音声受付装置101は、感情解析端末100を装着した作業者10による発話音声と、周囲の音と、を含む集音を行う。例えば、一つあるいは複数のマイクロフォンである。
The
演算装置102は、例えばCPU(Central Processing Unit)などの演算装置である。
The
外部出力装置103は、感情解析端末100を装着している場合に、装着者の外部から視認可能な態様で、具体的には外部から視認可能に発光することで、LEDランプ等の出力を行う。
When the
主記憶装置104は、例えばRAM(Random Access Memory)などのメモリ装置である。
The
撮像装置105は、感情解析端末100を装着した作業者の視野と同様あるいはより広角な映像情報を取得するカメラ装置である。
The
装着者出力装置106は、装着者から視認可能なように光学レンズ面に画像を投影するプロジェクション装置、あるいは光学レンズ面に応じて設けられた半透過型のディスプレイ装置等の表示装置である。しかし、これに限定されるものではなく、例えば作業者の網膜に結像させる光を照射可能な表示装置であってもよい。
The
通信装置107は、無線ネットワーク等を介して作業管理装置200等の他の装置と通信経路を確立し、情報を送受信する装置である。
The
加速度センサ装置108は、所定の次元の加速度を取得して加速方向と加速の大きさとを特定することで、装着者である作業者10の移動や姿勢の変化を検出する装置である。
The
外部記憶装置109は、デジタル情報を記憶可能な、いわゆるハードディスク(Hard Disk Drive)やSSD(Solid State Drive)あるいはフラッシュメモリなどの不揮発性記憶装置である。
The
上記した感情解析端末100の表示制御部110は、外部出力装置103、装着者出力装置106によって実現される。また、位置特定部120は、図示しない位置検出装置によって実現される。また、音声取得部130は、演算装置102に処理を行わせるプログラムおよび音声受付装置101により実現される。このプログラムは、主記憶装置104または図示しないROM装置内に記憶され、実行にあたって主記憶装置104上にロードされ、演算装置102により実行される。
The display control unit 110 of the
通信部140は、通信装置107により実現される。また、画像処理部150、音声分析部160、表情分析部170、感情分析部190のそれぞれは、演算装置102に処理を行わせるプログラムおよび撮像装置105により実現される。このプログラムは、主記憶装置104または図示しないROM装置内に記憶され、実行にあたって主記憶装置104上にロードされ、演算装置102により実行される。
The
感情分析記憶部180、感情基準記憶部181、作業実績記憶部182、評価基礎情報記憶部183、対人応対記憶部184のそれぞれは、主記憶装置104および外部記憶装置109によって実現される。
The emotion
以上が、感情解析端末100のハードウェア構成である。
The hardware configuration of the
図9は、作業管理装置200のハードウェア構成を示す図である。作業管理装置200は、入力受付装置201と、演算装置202と、外部記憶装置203と、主記憶装置204と、通信装置205と、出力装置206と、各装置をつなぐバス211と、を少なくとも備える。
FIG. 9 is a diagram illustrating a hardware configuration of the
入力受付装置201は、キーボードやマウス、タッチパネル等の各種入力装置である。
The
演算装置202は、例えばCPUなどの演算装置である。
The
外部記憶装置203は、デジタル情報を記憶可能な、いわゆるハードディスクやSSDあるいはフラッシュメモリなどの不揮発性記憶装置である。
The
主記憶装置204は、例えばRAMなどのメモリ装置である。
The
通信装置205は、ネットワーク等を介して感情解析端末100等の他の装置と通信経路を確立し、情報を送受信するネットワークカード等の装置である。
The
出力装置206は、例えば液晶ディスプレイや、有機EL(Electro Luminescence)ディスプレイ等の表示装置である。
The
上記した作業管理装置200の表示部210は、出力装置206によって実現される。また、通信部220は、通信装置205により実現される。また、音声処理部231と、表情処理部232と、原因探索部233と、作業評価部234と、ナレッジ管理部235とは、演算装置202に処理を行わせるプログラムによって実現される。このプログラムは、主記憶装置204または図示しないROM装置内に記憶され、実行にあたって主記憶装置204上にロードされ、演算装置202により実行される。
The
また、記憶部250は、外部記憶装置203および主記憶装置204によって実現される。以上が、作業管理装置200のハードウェア構成である。
The
なお、感情解析端末100、作業管理装置200のそれぞれの構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
Note that the configurations of the
また、各制御部は、ハードウェア(ASIC、GPUなど)により構築されてもよい。また、各制御部の処理が一つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。 Each control unit may be constructed by hardware (ASIC, GPU, etc.). Further, the processing of each control unit may be executed by one hardware, or may be executed by a plurality of hardware.
[動作の説明]次に、本実施形態における作業管理システム1の動作を説明する。図10は、本実施形態における感情評価処理のフロー図である。
[Description of Operation] Next, the operation of the
感情評価処理は、感情解析端末100と、作業管理装置200とが起動状態にあり、感情解析端末100において所定の起動指示を受け付けると、開始される。
The emotion evaluation process is started when the
まず、感情分析部190は、作業情報を取得する(ステップS001)。具体的には、感情分析部190は、予め配信されている作業情報のうち、次に行う作業の情報を取得する。例えば、現日時に対応する作業の情報、あるいは未実施の作業であって現日時よりも以前に実施し終わる予定であるが未だ実施し終わっていない作業の情報、いずれも存在しない場合には現日時以降に実施する予定で未だ実施し終わっていない作業の情報を、作業管理装置200等に要求して取得する。
First, the
そして、音声取得部130および画像取得部151は、それぞれ音声情報、映像情報を取得する(ステップS002)。 Then, the audio acquisition unit 130 and the image acquisition unit 151 acquire audio information and video information, respectively (step S002).
そして、音声分析部160は、音声情報の音程、声量、発話速度、内容、を基準に応じ採点し、映像情報から笑顔度合いを特定する(ステップS003)。具体的には、音声分析部160は、音声情報の各属性について定量的に計測し、計測値が感情基準記憶部181のいずれの範囲181Cに含まれるか判定し、該範囲に対応する感情コードを特定する。そして、表情分析部170は、映像情報の映像上に含まれる顔の領域を特定し、笑顔の度合いを特定する。当該笑顔の度合いを特定する方法は、様々な方法が考えられるが、例えば予め用意した被写体の笑顔の度合いに応じた基準画像とのパターンマッチングにより笑顔の度合いを推定する物であってもよいし、口角の上がり具合、目尻の下がり具合等に応じて笑顔の度合いを推定するものであってもよい。
Then, the voice analysis unit 160 scores the pitch, voice volume, speech rate, and content of the voice information according to the standard, and specifies the smile degree from the video information (step S003). Specifically, the voice analysis unit 160 quantitatively measures each attribute of the voice information, determines which range 181C of the emotion reference storage unit 181 includes the measured value, and the emotion code corresponding to the range Is identified. Then, the facial
そして、感情分析部190は、採点結果を作業管理装置200へ送信する(ステップS004)。
Then,
感情分析部190は、当日の作業が終了したか否かを判定する。具体的には、感情分析部190は、ステップS001にて取得した当日の作業の情報を参照し、当日の作業がすべて終了しているか否かを判定する。当日の作業が未だ終了していない場合には、感情分析部190は、制御をステップS002に戻す。
The
当日の作業が終了している場合(ステップS005において「Yes」の場合)には、感情分析部190は、評価結果を作業管理装置200へ要求する(ステップS006)。なお、感情分析部190は、当日の作業に関する音声情報と映像情報について、所定のファイル形式にエクスポートして、作業管理装置200へ送信する。
If the current day's work has been completed (“Yes” in step S005),
そして、感情分析部190は、評価結果を示す表示情報を受信し、出力する(ステップS007)。具体的には、感情分析部190は、ステップS006にて要求した評価結果を作業管理装置200から受信すると、画像重畳部152に受け渡して出力画像を構成させ、装着者表示部111へ出力画像を表示するよう指示する。
Then,
以上が、感情評価処理の処理フローである。感情評価処理によれば、作業者10は、感情評価の情報を収集してコード化した結果を作業管理装置200へ送信し、作業管理装置200から送信された評価を受け取ることができる。
The above is the process flow of the emotion evaluation process. According to the emotion evaluation process, the
図11は、本実施形態における作業評価処理のフロー図である。作業評価処理は、感情評価処理において作業管理装置200へ採点結果が送信されると、開始される。
FIG. 11 is a flowchart of the work evaluation process in the present embodiment. The work evaluation process is started when a scoring result is transmitted to the
通信部220は、採点結果と笑顔の度合いを受信する(ステップS101)。具体的には、通信部220は、外部の装置である感情解析端末100から、感情を採点した結果と、笑顔の度合いと、を受信する。
The
そして、作業評価部234は、採点結果と笑顔の度合いを評価基礎情報記憶部253および対人応対記憶部254へ格納する(ステップS102)。具体的には、作業評価部234は、ステップS001にて受信した評価結果に含まれるコードのうち、実施日、開始時刻、閾値超過回数、満足量、不満量、差分のそれぞれを評価基礎情報記憶部253に格納する。また、作業評価部234は、ステップS001にて受信した評価結果に含まれるコードのうち、実施日、開始時刻、作業識別子、記録ファイル名、閾値超過回数、満足量、不満量、差分のそれぞれを対人応対記憶部254に格納する。なお、作業評価部234は、対人応対記憶部254に格納する際に、開始時刻を録画開始時刻として格納する。
Then, the
そして、作業評価部234は、ステップS101にて受信したデータの送信元である感情解析端末100を使用する作業者を特定し、該作業者の当日の作業が終了したか否かを判定する(ステップS103)。具体的には、作業評価部234は、作業者の作業情報記憶部251を参照して、作業実施日当日の作業として未実施の作業が無い場合に、当日の作業は終了したと判定する。当日の作業が終了していない場合(ステップS103にて「No」の場合)には、作業評価部234は、ステップS101へ制御を戻す。
Then, the
当日の作業が終了した場合(ステップS103にて「Yes」の場合)には、作業評価部234は、作業に関する管理を行う担当者の特性に応じた顧客係数を特定する(ステップS104)。具体的には、作業評価部234は、作業に関する管理を行う担当者の特性に応じた修正を加えて作業を評価するために、顧客係数を特定する。例えば、作業評価部234は、担当者に関する作業であって過去に実施済みの作業に関する満足量と不満量とを対人応対記憶部254から読み出して、所定以上の度合いで不満量が大きい場合には、顧客係数を高く設定する(すなわち、評価点が高くなるようにする)。逆に、作業評価部234は、所定以上の度合いで満足量が大きい場合には、顧客係数を低く設定する(すなわち、評価点が低くなるようにする)。
When the current day's work is completed (“Yes” in step S103), the
そして、作業評価部234は、作業内容に応じて、作業係数を特定する(ステップS105)。具体的には、作業評価部234は、予め作業ごとに定められた難易度に応じて、難易度に相当する作業係数を特定する。例えば、作業評価部234は、平易な作業については作業係数を低く設定し、難解な作業については作業係数を高く設定する。
Then, the
そして、作業評価部234は、評価結果を算出して出力情報を生成して感情解析端末100へ送信する(ステップS106)。具体的には、作業評価部234は、作業単位で算出した満足量から不満量を差し引き、顧客係数と作業係数とを積算して評価結果として算出する。そして、作業評価部234は、作業者ごとに評価結果を集計して、出力情報を生成する。例えば、第一の作業が5点、第二の作業が10点、第三の作業が6点の場合、当該作業者の出力情報では、5+10+6=21点という情報が生成される。そして、作業評価部234は、感情解析端末100から要求を受け付けると、感情解析端末100ごとに出力情報を特定し送信する。
Then, the
以上が、作業評価処理のフローである。作業評価処理によれば、作業者ごとに、実施日を通した作業の評価値を得ることが可能となる。また、その評価値には、作業を管理する担当者の特性と、作業の難易度とが加味されているため、妥当性の高い評価値を得ることができる。 The above is the flow of the work evaluation process. According to the work evaluation process, it is possible to obtain an evaluation value of work through the implementation date for each worker. Moreover, since the evaluation value takes into account the characteristics of the person in charge who manages the work and the difficulty level of the work, a highly valid evaluation value can be obtained.
図12は、顧客の感情変動グラフ400の例を示す図である。顧客の感情変動グラフ400は、縦軸401に満足に関する感情の度合いがプロットされ、横軸402に時間経過がプロットされる。そして、ある時点での顧客すなわち作業管理担当者の感情の度合いが記録されていくことで、定量的な感情の把握が可能となる。感情解析端末100の感情分析部190および作業管理装置200の作業評価部234のそれぞれは、基準の感情度合いを上回った部分について、当該グラフ上の点を連続的とみなした幾何的な面積により満足度を特定する。また、感情解析端末100の感情分析部190および作業管理装置200の作業評価部234のそれぞれは、基準の感情度合いを下回った部分について、当該グラフ上の点を連続的とみなした幾何的な面積により不満度を特定する。また、感情分析部190および作業評価部234のそれぞれは、記録開始時点の感情の度合いと、記録終了時点の感情の度合いとの差を求め、差分を特定する。
FIG. 12 is a diagram illustrating an example of a customer emotion fluctuation graph 400. In the customer emotion fluctuation graph 400, the
図13は、作業評価処理において表示される作業評価結果画面500の例を示す図である。作業評価結果画面500には、評価結果である講評表示領域501と、バロメーター表示領域502と、が含まれる。講評表示領域501には、評価値に応じてあらかじめ定められたテキストが表示される。バロメーター表示領域502には、当日の評価値が表示される。当該バロメーター表示領域502においては、全作業を満点とする点数に占める評価値の割合が表示される。
FIG. 13 is a diagram illustrating an example of a work evaluation result screen 500 displayed in the work evaluation process. The work evaluation result screen 500 includes a
図14は、本実施形態における原因探索処理のフロー図である。 FIG. 14 is a flowchart of cause search processing in the present embodiment.
原因探索処理は、作業管理装置200が起動状態にあり、作業管理装置200において所定の起動指示を受け付けると、開始される。
The cause search process is started when the
まず、原因探索部233は、対象作業の日時と感情値とを特定する(ステップS201)。具体的には、原因探索部233は、外部から対象作業の開始日時と、当該作業における感情値の情報とを受け付けることで、原因探索の対象となる対象を特定する。 First, the cause search unit 233 specifies the date and emotion value of the target work (step S201). Specifically, the cause search unit 233 specifies a target to be a cause search target by receiving the start date and time of the target work and emotion value information in the work from the outside.
そして、原因探索部233は、感情値が悪化した時刻を特定する(ステップS202)。具体的には、原因探索部233は、ステップS201にて特定した感情値を経時順にプロットし、所定の期間において感情値が悪化している場合に、該変動を感情値の悪化として特定する。 And the cause search part 233 specifies the time when the emotion value deteriorated (step S202). Specifically, the cause search unit 233 plots the emotion values identified in step S201 in order of time, and identifies the fluctuation as a deterioration of the emotion value when the emotion value has deteriorated during a predetermined period.
そして、原因探索部233は、感情値の悪化の度合いが所定以上であるか否かを判定する(ステップS203)。具体的には、原因探索部233は、ステップS202にて特定した時刻を基準とする所定の時間について、感情値の単位時間あたりの悪化量を特定し、所定の閾値を超える悪化があるか否かを判定する。悪化の度合いが所定以上であるものがない場合(ステップS203にて「No」である場合)には、原因探索部233は、原因探索処理を終了させる。 And the cause search part 233 determines whether the degree of deterioration of an emotion value is more than predetermined (step S203). Specifically, the cause search unit 233 specifies the deterioration amount per unit time of the emotion value for the predetermined time with the time specified in step S202 as a reference, and whether there is a deterioration exceeding a predetermined threshold value. Determine whether. If none of the deterioration levels is greater than or equal to the predetermined level (if “No” in step S203), the cause search unit 233 ends the cause search process.
感情値の悪化の度合いが所定以上である場合(ステップS203にて「Yes」である場合)には、原因探索部233は、悪化した時刻の所定時間前の音声と映像情報を特定する(ステップS204)。一般に、感情値の悪化の度合いが所定以上である場合には、その原因となる何らかの行為がその直前に含まれていることが多いと考えられるため、例えば悪化がみられた期間が開始する時刻の2分程度過去の時点から音声あるいは映像の再生を行うことで、悪化の理由となった行為を発見することが容易となる可能性がある。そのため、原因探索部233は、悪化した時刻の所定時間前の音声と映像情報を特定する。当該処理においては、原因探索部233は、対人応対記憶部254に含まれる記録ファイルを特定して読み出し、悪化した時刻の所定時間前(例えば、2分前)を示す時刻以降、悪化した時刻までの情報を特定する。
If the degree of deterioration of the emotion value is greater than or equal to a predetermined value (if “Yes” in step S203), the cause search unit 233 identifies audio and video information a predetermined time before the deteriorated time (step S203). S204). In general, when the degree of deterioration of the emotion value is greater than or equal to a predetermined level, it is considered that some act that causes it is often included immediately before that, for example, the time when the period in which the deterioration is observed starts If the audio or video is reproduced from about 2 minutes in the past, it may be easy to find the act that caused the deterioration. Therefore, the cause search unit 233 identifies audio and video information a predetermined time before the deteriorated time. In the processing, the cause search unit 233 identifies and reads the recording file included in the personal
そして、原因探索部233は、音声と映像情報とを再生させる(ステップS205)。具体的には、原因探索部233は、ステップS204において特定した音声および映像情報について、再生する。 And the cause search part 233 reproduces | regenerates an audio | voice and video information (step S205). Specifically, the cause search unit 233 reproduces the audio and video information specified in step S204.
以上が、原因探索処理のフローである。原因探索処理によれば、感情が急激に悪化した記録を特定し、その原因が記録されていると考えられる直前の記録について再生させることができる。 The above is the flow of the cause search process. According to the cause search process, it is possible to identify a record in which emotions have deteriorated sharply and reproduce the record immediately before the cause is considered to be recorded.
図15は、原因探索処理において表示される原因表示画面600の例を示す図である。原因表示画面600には、原因説明文章表示領域601と、感情変化表示領域602と、関連動画再生指示受付領域603と、が含まれる。原因説明文章表示領域601には、感情の悪化の原因と考えられるテキスト情報が表示される。感情変化表示領域602には、感情の変化が時系列に沿って表示される。関連動画再生指示受付領域603には、原因となる事象が記録されているファイルから音声あるいは映像情報を再生する指示を受け付ける。関連動画再生指示受付領域603に入力を受け付けると、原因探索部233は、関連動画として当該作業の記録ファイルを引き当てて、関連動画表示画面610において、該当する時刻から再生が始まるように再生するとともに、原因説明文章を音声出力する。
FIG. 15 is a diagram illustrating an example of a cause display screen 600 displayed in the cause search process. The cause display screen 600 includes a cause explanation text display area 601, an emotion
以上が、第一の実施形態に係る作業管理システム1である。第一の実施形態によれば、より正確に作業者を評価する作業を支援することができる。
The above is the
本発明は、上記の第一の実施形態に制限されない。上記の第一の実施形態は、本発明の技術的思想の範囲内で様々な変形が可能である。例えば、上記の第一の実施形態においては、感情解析端末100は眼鏡型ウェアラブル装置を想定しているが、これに限られない。例えば、頭部をより広く覆うヘルメット型のウェアラブル装置であってもよいし、片眼のみに取り付けるウェアラブル装置であってもよい。また、感情解析端末100と作業管理装置200とが一体化したものであってもよい。
The present invention is not limited to the first embodiment described above. The first embodiment described above can be variously modified within the scope of the technical idea of the present invention. For example, in the first embodiment described above, the
図16〜図19は、このような変形例のうち、作業の実施前等、作業者10に作業に関するナレッジを提供する第二の実施形態に係る作業管理システムの構成例を示す図である。第二の実施形態においては、作業管理装置200に、感情解析端末100へナレッジ情報を提供する構成を備える。このような第二の実施形態について、説明する。なお、第二の実施形態は、基本的には第一の実施形態と同様であるため、相違する構成を中心に説明する。
FIGS. 16-19 is a figure which shows the structural example of the work management system which concerns on 2nd embodiment which provides the knowledge regarding work to the
図16は、作業管理装置200が備えるクレーム予防情報記憶部255の構成例を示す図である。クレーム予防情報記憶部255は、作業の担当者あるいは依頼者から必要以上のクレームが発生しないようにあらかじめ作業者が心得ておくべきクレーム予防情報を格納する。クレーム予防情報記憶部255には、作業識別子255Aと、実施日255Bと、開始時刻255Cと、作業マニュアル255Dと、差分255Eと、注意事項255Fと、ナレッジ映像255Gと、が含まれる。
FIG. 16 is a diagram illustrating a configuration example of the complaint prevention
作業識別子255Aは、作業の内容を特定する情報である。実施日255Bは、実際に作業を行う日を特定する情報である。開始時刻255Cは、作業を開始する時刻を特定する情報である。作業マニュアル255Dは、作業の詳細が記載されたマニュアルを特定する情報である。差分255Eは、作業の管理の担当者の作業終了時点の感情値から、作業開始時点の感情値を引いた差分である。注意事項255Fには、ナレッジとして注意すべき事項が任意で格納される。また、ナレッジ映像255Gには、ナレッジとしてまとまった映像や画像、音声の情報等が作業識別子255Aごとに表示される。
The work identifier 255A is information that identifies the content of the work. The implementation date 255B is information that identifies the date on which work is actually performed. The start time 255C is information for specifying the time to start work. The
図17は、クレーム予防処理の処理フローを示す図である。作業管理装置200は、作業管理装置200の外部の装置からクレーム予防処理の実行の要求を受け付けると、クレーム予防処理を開始する。
FIG. 17 is a diagram illustrating a processing flow of the complaint prevention processing. When the
まず、クレーム予防情報記憶部255は、クレーム予防処理の実行を要求した外部の装置から、作業マニュアルを特定する情報と、作業を管理する担当者を特定する情報を受け付ける(ステップS301)。具体的には、クレーム予防情報記憶部255は、作業マニュアルを特定する識別子と、担当者の所属組織および氏名と、を受け付ける。
First, the complaint prevention
そして、クレーム予防情報記憶部255は、作業マニュアルを特定する情報と、作業を管理する担当者を特定する情報と、に対応する注意項目とナレッジ映像とを特定する(ステップS302)。具体的には、クレーム予防情報記憶部255は、作業マニュアルを特定する情報によって作業実績記憶部252の作業マニュアル252Eを検索し、対応するレコードに係る気づき252Mを読み出すことで、注意事項を特定する。また、クレーム予防情報記憶部255は、作業マニュアルを特定する情報および作業の管理担当者を特定する情報の組み合わせが、作業情報記憶部251の作業マニュアル251Eと担当者251Fの組み合わせとなるレコードを特定し、対応する作業識別子251Dを読み出す。そして、クレーム予防情報記憶部255は、読み出した作業識別子251Dにより対人応対記憶部254の作業識別子254Cを検索し、対応するレコードに係る気づき254Kを読み出すことで、注意項目とナレッジ映像とを特定する。
Then, the complaint prevention
そして、クレーム予防情報記憶部255は、注意項目とナレッジ映像とを送信する(ステップS303)。具体的には、クレーム予防情報記憶部255は、クレーム予防処理の実行を要求した外部の装置へ、ステップS302において特定した注意項目とナレッジ映像とを含めた出力情報を送信する。
Then, the complaint prevention
以上が、クレーム予防処理のフローである。クレーム予防処理によれば、作業内容と、作業を管理する担当者と、の情報を受け付けて、実施する作業に関するナレッジを他の作業者と共有することができるため、作業を管理する担当者からのクレームの発生を予防することができる。 The above is the flow of complaint prevention processing. According to the complaint prevention process, it is possible to receive information on the work content and the person in charge of managing the work, and share knowledge about the work to be performed with other workers. Can be prevented from occurring.
図18は、クレーム予防処理において表示される予防情報表示画面700の例を示す図である。予防情報表示画面700には、注意項目表示領域701が含まれる。注意項目表示領域701には、作業および作業管理担当者についての注意事項がテキスト表示される。例えば、「本件の顧客は、顧客への挨拶忘れに注意。」および「本件の顧客は、時間厳守で作業しないとクレームが来る傾向が高い。」等の情報が表示される。
FIG. 18 is a diagram illustrating an example of a prevention information display screen 700 displayed in the complaint prevention process. The preventive information display screen 700 includes a caution
図19は、クレーム予防処理において表示される画面の別の例である予防情報表示画面750の例を示す図である。予防情報表示画面750には、注意項目表示領域751と、ノウハウ画像表示領域752と、が含まれる。注意項目表示領域751には、作業および作業管理担当者についての注意事項がテキスト表示される。例えば、「対象機器の接続は、下記の作業方法で対処する事。やり方を間違えると故障の原因になる。」等の情報が表示される。また、ノウハウ画像表示領域752には、機器の接続部位の拡大写真等、作業を実際に行った際の記録映像等が画像あるいは動画像として表示される。
FIG. 19 is a diagram illustrating an example of a prevention information display screen 750 that is another example of a screen displayed in the complaint prevention processing. The prevention information display screen 750 includes a caution
以上が、第二の実施形態である。第二の実施形態によれば、他の作業者10が蓄積させた作業や作業管理の担当者に関する気づきや工夫、ノウハウの情報を、作業者10が作業を開始する前に作業者10に知らせることができるため、作業者10の作業効率を高められると共に、容易にノウハウ情報を取得することができ、そのためクレームの発生も効率よく回避することができる。
The above is the second embodiment. According to the second embodiment, the
以上、第一の実施形態および第二の実施形態を用いて説明した。上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。 In the above, it demonstrated using 1st embodiment and 2nd embodiment. The technical elements of the above-described embodiments may be applied independently, or may be applied by being divided into a plurality of parts such as program parts and hardware parts.
以上、本発明について、実施形態を中心に説明した。 In the above, this invention was demonstrated centering on embodiment.
1・・・作業管理システム、10・・・作業者、100・・・感情解析端末、110・・・表示制御部、120・・・位置特定部、130・・・音声取得部、140・・・通信部、150・・・画像処理部、160・・・音声処理部、170・・・表情分析部、180・・・感情分析記憶部、181・・・感情基準記憶部、182・・・作業実績記憶部、183・・・評価基礎情報記憶部、184・・・対人応対記憶部、190・・・感情分析部、200・・・作業管理装置、210・・・表示部、220・・・通信部、231・・・音声処理部、232・・・表情処理部、233・・・原因探索部、234・・・作業評価部、235・・・ナレッジ管理部、250・・・記憶部、251・・・作業情報記憶部、252・・・作業実績記憶部、253・・・評価基礎情報記憶部、254・・・対人応対記憶部、300・・・作業対象機器
DESCRIPTION OF
Claims (11)
受け付けた前記音声コードを用いて該音声の感情の評価を行い、前記評価を該音声コードに関する作業を評価するのに用いる作業評価部と、
を備える作業管理装置。 A communication unit that receives a voice code obtained by coding a voice related to work from another device by a predetermined method;
Using the received voice code to evaluate the emotion of the voice, and using the evaluation to evaluate the work related to the voice code, the work evaluation unit,
A work management apparatus comprising:
前記作業評価部は、前記音声の感情の評価を、前記音声コードを用いて特定した感情の良否の経時変化により構成される波形の幾何情報を用いて行う、
作業管理装置。 The work management apparatus according to claim 1,
The work evaluation unit performs the evaluation of the emotion of the voice using geometric information of a waveform constituted by a temporal change in the quality of the emotion identified using the voice code.
Work management device.
前記波形において、感情の良否に所定の度合いを超える変化が有る場合に、該変化のあった時刻よりも所定の時間分過去を起点として前記音声を再生する原因探索部、
を備える作業管理装置。 The work management device according to claim 2,
In the waveform, when there is a change exceeding a predetermined degree in the quality of the emotion, a cause search unit that reproduces the sound starting from the past by a predetermined time from the time when the change occurred,
A work management apparatus comprising:
前記作業評価部は、
前記作業に関する難易度に応じて前記感情の評価を行い、前記感情の評価に前記難易度による修正を加えて前記作業を評価する、
作業管理装置。 The work management device according to any one of claims 1 to 3,
The work evaluation unit
The evaluation of the emotion is performed according to the degree of difficulty related to the work, and the work is evaluated by adding correction according to the difficulty level to the evaluation of the emotion.
Work management device.
前記作業評価部は、
前記作業に関する管理を行う担当者に応じて前記感情の評価を行い、前記感情の評価に前記担当者の特性による修正を加えて前記作業を評価する、
作業管理装置。 The work management device according to any one of claims 1 to 4,
The work evaluation unit
Performing the evaluation of the emotion according to a person in charge of managing the work, and evaluating the work by adding a correction according to the characteristics of the person in charge to the evaluation of the emotion
Work management device.
前記通信部は、前記音声コードを受け付けると共に、前記音声コードに関する画像情報を受け付け、
前記画像情報に含まれる顔の表情が示す感情を特定する表情処理部を備え、
前記作業評価部は、前記音声の感情の評価に前記表情処理部により特定された感情による修正を加えて前記作業を評価する、
作業管理装置。 The work management device according to any one of claims 1 to 5,
The communication unit receives the audio code and also receives image information related to the audio code,
A facial expression processing unit that identifies emotions represented by facial expressions included in the image information;
The work evaluation unit evaluates the work by adding a correction by the emotion specified by the facial expression processing unit to the evaluation of the emotion of the voice.
Work management device.
前記通信部が前記作業に関する音声コードに関連付けて受信したナレッジ情報を格納する記憶部と、
ナレッジ管理部と、を備え、
前記通信部は、前記作業を特定する情報を受け付け、
前記ナレッジ管理部は、受け付けた前記作業に関する音声コードと関連付けられたナレッジ情報を特定し出力する、
作業管理装置。 The work management device according to any one of claims 1 to 6,
A storage unit for storing knowledge information received by the communication unit in association with a voice code related to the work;
A knowledge management department,
The communication unit accepts information specifying the work,
The knowledge management unit specifies and outputs knowledge information associated with a voice code related to the received work;
Work management device.
前記音声情報が備える属性に応じて感情の良否を示す音声コード情報を特定する音声分析部と、
前記音声コード情報を前記作業に関連付ける感情分析部と、
前記音声コード情報を、関連付けられた前記作業の情報と共に他の装置へ出力する通信部と、
を備える感情解析端末。 An audio acquisition unit for acquiring audio information about the work;
A voice analysis unit that specifies voice code information indicating the quality of emotion according to the attribute of the voice information;
An emotion analysis unit associating the voice code information with the work;
A communication unit for outputting the voice code information to the other device together with the information of the associated work;
Emotion analysis terminal equipped with.
前記音声情報に対応する画像情報を取得する画像取得部と、
前記画像情報に含まれる顔の表情を特定する表情分析部と、を備え、
前記感情分析部は、前記作業に対して、前記音声コード情報と、前記表情の情報と、を関連付ける、
感情解析端末。 The emotion analysis terminal according to claim 8,
An image acquisition unit for acquiring image information corresponding to the audio information;
A facial expression analysis unit that identifies facial expressions included in the image information,
The emotion analysis unit associates the voice code information with the facial expression information for the work;
Emotion analysis terminal.
前記コンピューターを、制御手段として機能させ、
前記制御手段に対して、
他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信ステップと、
受け付けた前記音声コードを用いて該音声の感情の評価を行い、前記評価を該音声コードに関する作業を評価するのに用いる作業評価ステップと、
を実行させる作業管理プログラム。 A work management program that causes a computer to execute procedures for managing work,
Causing the computer to function as control means;
For the control means,
A communication step for receiving a voice code obtained by coding a voice related to work from another device by a predetermined method;
A work evaluation step for evaluating the emotion of the voice using the received voice code, and using the evaluation to evaluate a work related to the voice code;
Work management program to execute
前記コンピューターは、制御部を備え、
前記制御部は、
他の装置から作業に関する音声を所定の方法でコード化した音声コードを受け付ける通信ステップと、
受け付けた前記音声コードを用いて該音声の感情の評価を行い、前記評価を該音声コードに関する作業を評価するのに用いる作業評価ステップと、
を実行する作業管理方法。 A work management method for performing work management procedures using a computer,
The computer includes a control unit,
The controller is
A communication step for receiving a voice code obtained by coding a voice related to work from another device by a predetermined method;
A work evaluation step for evaluating the emotion of the voice using the received voice code, and using the evaluation to evaluate a work related to the voice code;
Work management method to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014192713A JP6556436B2 (en) | 2014-09-22 | 2014-09-22 | Work management device, emotion analysis terminal, work management program, and work management method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014192713A JP6556436B2 (en) | 2014-09-22 | 2014-09-22 | Work management device, emotion analysis terminal, work management program, and work management method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016062084A true JP2016062084A (en) | 2016-04-25 |
JP6556436B2 JP6556436B2 (en) | 2019-08-07 |
Family
ID=55796010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014192713A Active JP6556436B2 (en) | 2014-09-22 | 2014-09-22 | Work management device, emotion analysis terminal, work management program, and work management method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6556436B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106992012A (en) * | 2017-03-24 | 2017-07-28 | 联想(北京)有限公司 | Method of speech processing and electronic equipment |
CN109890289A (en) * | 2016-12-27 | 2019-06-14 | 欧姆龙株式会社 | Mood estimates equipment, methods and procedures |
JP2019105972A (en) * | 2017-12-12 | 2019-06-27 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP2020154922A (en) * | 2019-03-22 | 2020-09-24 | 本田技研工業株式会社 | Service provision apparatus, settlement information processing apparatus and service provision method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006012171A (en) * | 2004-06-24 | 2006-01-12 | Hitachi Ltd | System and method for using biometrics to manage review |
JP2006267464A (en) * | 2005-03-23 | 2006-10-05 | Tokyo Electric Power Co Inc:The | Emotion analyzer, emotion analysis program and program storage medium |
JP2007286377A (en) * | 2006-04-18 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | Answer evaluating device and method thereof, and program and recording medium therefor |
JP2009151766A (en) * | 2007-11-30 | 2009-07-09 | Nec Corp | Life adviser support system, adviser side terminal system, authentication server, server, support method and program |
JP2009159558A (en) * | 2007-12-28 | 2009-07-16 | Fujitsu Fsas Inc | Operator reception monitoring and switching system |
JP2011029688A (en) * | 2009-07-21 | 2011-02-10 | Oki Networks Co Ltd | Method of recording and reproducing call and call recorder |
JP2011123579A (en) * | 2009-12-09 | 2011-06-23 | Daiwa Securities Group Inc | Method and system for management of employee behavior |
JP2011238029A (en) * | 2010-05-11 | 2011-11-24 | Seiko Epson Corp | Customer service data recording device, customer service data recording method and program |
-
2014
- 2014-09-22 JP JP2014192713A patent/JP6556436B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006012171A (en) * | 2004-06-24 | 2006-01-12 | Hitachi Ltd | System and method for using biometrics to manage review |
JP2006267464A (en) * | 2005-03-23 | 2006-10-05 | Tokyo Electric Power Co Inc:The | Emotion analyzer, emotion analysis program and program storage medium |
JP2007286377A (en) * | 2006-04-18 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | Answer evaluating device and method thereof, and program and recording medium therefor |
JP2009151766A (en) * | 2007-11-30 | 2009-07-09 | Nec Corp | Life adviser support system, adviser side terminal system, authentication server, server, support method and program |
JP2009159558A (en) * | 2007-12-28 | 2009-07-16 | Fujitsu Fsas Inc | Operator reception monitoring and switching system |
JP2011029688A (en) * | 2009-07-21 | 2011-02-10 | Oki Networks Co Ltd | Method of recording and reproducing call and call recorder |
JP2011123579A (en) * | 2009-12-09 | 2011-06-23 | Daiwa Securities Group Inc | Method and system for management of employee behavior |
JP2011238029A (en) * | 2010-05-11 | 2011-11-24 | Seiko Epson Corp | Customer service data recording device, customer service data recording method and program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109890289A (en) * | 2016-12-27 | 2019-06-14 | 欧姆龙株式会社 | Mood estimates equipment, methods and procedures |
CN106992012A (en) * | 2017-03-24 | 2017-07-28 | 联想(北京)有限公司 | Method of speech processing and electronic equipment |
US10796689B2 (en) | 2017-03-24 | 2020-10-06 | Lenovo (Beijing) Co., Ltd. | Voice processing methods and electronic devices |
JP2019105972A (en) * | 2017-12-12 | 2019-06-27 | 富士ゼロックス株式会社 | Information processing apparatus and program |
US11295459B2 (en) | 2017-12-12 | 2022-04-05 | Fujifilm Business Innovation Corp. | Information processing apparatus |
JP2020154922A (en) * | 2019-03-22 | 2020-09-24 | 本田技研工業株式会社 | Service provision apparatus, settlement information processing apparatus and service provision method |
JP7364348B2 (en) | 2019-03-22 | 2023-10-18 | 本田技研工業株式会社 | Service providing device, service providing system, and service providing method |
Also Published As
Publication number | Publication date |
---|---|
JP6556436B2 (en) | 2019-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10347254B2 (en) | Leveraging head mounted displays to enable person-to-person interactions | |
CN110415306B (en) | Face synthesis using generation of confrontational networks | |
US11503197B2 (en) | Retrieving and displaying key words from prior conversations | |
US10223832B2 (en) | Providing location occupancy analysis via a mixed reality device | |
KR101632819B1 (en) | Method and apparatus for unattended image capture | |
JP6556436B2 (en) | Work management device, emotion analysis terminal, work management program, and work management method | |
US9798517B2 (en) | Tap to initiate a next action for user requests | |
US10599980B2 (en) | Technologies for cognitive cuing based on knowledge and context | |
CN110326300B (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
CN117991885A (en) | Display system | |
US20200236070A1 (en) | Information processing system and information processing method | |
US10996741B2 (en) | Augmented reality conversation feedback | |
US20160277707A1 (en) | Message transmission system, message transmission method, and program for wearable terminal | |
US20180054688A1 (en) | Personal Audio Lifestyle Analytics and Behavior Modification Feedback | |
US11164341B2 (en) | Identifying objects of interest in augmented reality | |
JP2015132878A (en) | Information processing device, information processing method and program | |
US20160111019A1 (en) | Method and system for providing feedback of an audio conversation | |
US11632346B1 (en) | System for selective presentation of notifications | |
JP2022531161A (en) | Systems and methods for socially relevant user engagement indicators in augmented reality devices | |
EP4323853A1 (en) | User suggestions based on engagement | |
CN115082980A (en) | Image recognition method, device and computer storage medium | |
CN118020046A (en) | Information processing apparatus, information processing method, and program | |
KR20230114666A (en) | Method and Electronic apparatus for controlling outputting device | |
IL266333A (en) | System and method for socially relevant user engagement indicator in reality devices | |
CN105721401A (en) | Communication method and communication system between wearable devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6556436 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |