JP7384558B2 - 有害行為検出システムおよび方法 - Google Patents
有害行為検出システムおよび方法 Download PDFInfo
- Publication number
- JP7384558B2 JP7384558B2 JP2019015384A JP2019015384A JP7384558B2 JP 7384558 B2 JP7384558 B2 JP 7384558B2 JP 2019015384 A JP2019015384 A JP 2019015384A JP 2019015384 A JP2019015384 A JP 2019015384A JP 7384558 B2 JP7384558 B2 JP 7384558B2
- Authority
- JP
- Japan
- Prior art keywords
- harmful
- data
- information
- subject
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009931 harmful effect Effects 0.000 title claims description 201
- 238000001514 detection method Methods 0.000 title claims description 97
- 238000000034 method Methods 0.000 title claims description 36
- 230000008451 emotion Effects 0.000 claims description 111
- 238000011156 evaluation Methods 0.000 claims description 67
- 230000006399 behavior Effects 0.000 claims description 66
- 230000004044 response Effects 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000008909 emotion recognition Effects 0.000 claims description 17
- 230000002996 emotional effect Effects 0.000 claims description 15
- 230000001568 sexual effect Effects 0.000 claims description 12
- 230000000737 periodic effect Effects 0.000 claims description 4
- 238000011157 data evaluation Methods 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims 2
- 238000012545 processing Methods 0.000 description 59
- 230000006870 function Effects 0.000 description 38
- 230000005540 biological transmission Effects 0.000 description 36
- 238000004458 analytical method Methods 0.000 description 34
- 230000036760 body temperature Effects 0.000 description 32
- 230000008569 process Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000003340 mental effect Effects 0.000 description 8
- 238000013500 data storage Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000010485 coping Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000002265 prevention Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012905 input function Methods 0.000 description 3
- 230000006378 damage Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000009329 sexual behaviour Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000009474 immediate action Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/72—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for transmitting results of analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Economics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Game Theory and Decision Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Alarm Systems (AREA)
- Emergency Alarm Devices (AREA)
Description
図1~図10を用いて、本発明の実施の形態1の有害行為検出システムおよび方法について説明する。実施の形態1の有害行為検出システムは、職場環境における人の間でのパワハラ等の有害行為に関する観察および検出を行う計算機を備えるシステムである。実施の形態1の有害行為検出方法は、実施の形態1の有害行為検出システムの計算機によって実行されるステップを有する方法である。
図1は、実施の形態1の有害行為検出システムの基本構成を示す。実施の形態1の有害行為検出システムは、計算機として、対象者H1の情報端末1と、事業者のサーバ装置2と、契約者H3の契約者端末3とを有し、これらは通信網5を介して適宜に通信接続される。情報端末1は、職場環境の複数の人のうちの対象者H1が所有し携帯するスマートフォンやウェアラブル端末等の装置である。契約者端末3は、契約者H3が使用するスマートフォンやPC等の装置である。この有害行為検出システムは、計算機の情報処理に基づいて、有害行為を観察し検出するシステムであり、有害行為に対する対処等を支援するシステムである。事業者は、有害行為検出システムを管理し、そのサービスを提供する。
実施の形態1の有害行為検出システムは、対象者H1の周囲の音声を用いた分析処理に基づいて有害行為を推定して検出し、対象者H1を有害行為から保護するための機能である有害行為検出機能を有する。また、この機能は、有害行為の状態の度合いに応じて異なる種類の対処を行う機能を含む。
実施の形態1の有害行為検出システムを職場環境で対象者H1等の利用者が利用するサービス利用形態は、大別すると、対象者H1が単独の個人である場合と複数人の集団である場合とがある。図1等の構成例は、対象者H1が個人である場合の利用形態を示す。図1で、例えば会社内のある1人の社員である利用者Aが対象者H1であり、他の社員である他者H2は、対象者ではなく、情報端末1を保持していない。この利用形態の場合、対象者H1個人は、職場環境内でパワハラ等の有害行為から自己を守ることができる。対象者H1および契約者H3は、有害行為検出機能による対処データD2に基づいて、有害行為の被害の可能性に関する指摘を受けることができる。これにより、対象者H1および契約者H3は、有害行為への対処がしやすくなる。また、逆に、対象者H1個人が、他者H2に対し有害行為を自覚無く行ってしまう可能性もある。その場合にも、対象者H1等は、この機能によって有害行為の加害の可能性に関する指摘を受けることができ、加害の防止が可能である。
有害行為とは、パワハラ、セクハラ、いじめ、悪質クレーム等を含む概念であり、暴力行為や犯罪行為等も含む概念とする。図1では、有害行為とは、加害者となる他者H2から被害者となる対象者H1に対し、暴言等によって、精神的・身体的な苦痛や害を与える行為である。実施の形態1の有害行為検出システムの有害行為検出機能は、このような有害行為に伴う音声から、分析処理によって、有害行為を推定し検出する機能である。
以下には、実施の形態1の有害行為検出システムを、3つの職場環境および対応する有害行為の事例に適用した場合を示す。第1例は会社、第2例は学校、第3例は店舗である。実施の形態1の有害行為検出システムは、これらの事例に限らず、各種の職場環境や有害行為に同様に適用可能である。
図2は、第1例として、職場環境が会社である場合の構成例を示す。検出対象の有害行為は、社員間でのパワハラやセクハラやいじめである。この場合の有害行為検出システムは、言い換えると、パワハラ検出システム、パワハラ対処支援システムである。本例では、1人の社員Aが対象者H1としてサービスを利用している。被害者の例として、対象者H1である社員Aとし、加害者の例として他者H2である社員Bとする。会社の内部または外部にいる契約者H3は、例えば対象者H1に対する家族の人である。契約者H3を会社の経営者や総務部担当者等とすることも可能もある。警備員H4を特定の社員等とすることも可能である。
図3は、第2例として、職場環境が学校である場合を示す。検出対象の有害行為は、生徒間でのいじめ、あるいは、教師と生徒との間でのいじめや他の暴力である。この場合の有害行為検出システムは、言い換えると、いじめ検出システム、いじめ対処支援システムである。本例では、1人の生徒Aが対象者H1としてサービスを利用している。被害者の例として、対象者H1である生徒Aとし、加害者の例として、他者H2である生徒Bとする。学校の内部または外部にいる契約者H3は、例えば対象者H1に対する家族の人(例えば親)である。契約者H3や警備員H4を特定の教師等とすることも可能もある。なお、教師が加害者となる場合もあるし、教師が被害者となる場合もある。
図4は、第3例として、職場環境が店舗である場合を示す。検出対象の有害行為は、特に顧客(言い換えると悪質クレーマー)から店員への悪質クレーム等の迷惑行為である。この場合の有害行為検出システムは、言い換えると、悪質クレーム検出システム、悪質クレーム対処支援システムである。本例では、1人の店員Aが対象者H1としてサービスを利用している。被害者の例として、対象者H1である店員Aとし、加害者の例として、他者H2である悪質クレーマーに相当する顧客とする。店舗の内部または外部にいる契約者H3は、例えば店舗の顧客対応室の顧客対応者あるいは他の店員や経営者等である。警備員H4を顧客担当者等の店員とすることも可能である。
図5は、実施の形態1の有害行為検出システムの主な処理のフローを示す。このフローはステップS1~S11を有する。以下、ステップの順に説明する。処理の主体は計算機である。図5のフローは後述の図6の構成例と対応している。
図6は、図1の実施の形態1の有害行為検出システムの、より詳細な構成例として、情報端末1およびサーバ2の構成を示す。この構成例は、情報端末1とサーバ2とが連携して、有害行為検出機能の処理全体を分担する。情報端末1は、一部の処理として各データ取得および指標値計算等を実行し、サーバ2は、他の一部の処理として危険度判定および対処データ出力等を実行する。
実施の形態1の有害行為検出システムの計算機は、上記音声に基づいて取得される複数の要素のデータ、すなわち、他者H2のワード、感情、対象者H1のワード、感情、およびバイタルデータといった5つの要素の組合せの分析に基づいて、有害行為に関する指標値を計算し、危険度を判定する。この分析の方式について以下に説明する。
図7は、有害行為の発生状況の2つのパターンについて示す。(A)は、第1パターンを示す。本例では、会社等の職場環境において、利用者Aは対象者H1であり被害者側であり、利用者Bは他者H2であり加害者側である。図7中の縦方向は概略的に時系列を示す。会話内容として、利用者Bが、利用者Aに対し、パワハラ等の有害行為に係わるワードw1(例「コナクテイイヨ」等の罵倒)を発声している。このワードw1には、感情認識に基づいて、感情e1(例:怒り)が対応付けられる。利用者Aは、利用者Bのワードw1に対し、言い返すことはできず我慢し、応答としては沈黙している。そのため、この時のワードおよび感情のデータは得られないが、バイタルデータv1は得られる。バイタルデータv1には、この状況のストレスが反映されている。例えば、脈拍数や体温は、平常時の値との偏差が大きい状態となる。このように、第1パターンの場合、データとして、他者H2のワードw1、感情e1、および対象者H1本人のバイタルデータv1という3つの要素のデータが得られる。
図8は、対象者H1の情報端末1からの送信データD1に基づいてサーバ2のDB50の状態DB52内に取得可能である、時系列のデータを格納するテーブルの構成例を示す。このテーブルは、行番号(#)の方向が時系列に対応し、各行は、時点毎に取得されるデータ群を示し、各列は、データの要素等に対応する。なお、本例では、このテーブルにおける取得データは、指標値のみならず、ワード、感情、バイタルデータ等の要素も格納される場合を示している。送信データD1にワード等が含まれる方式の場合には、サーバ2は、状態DB52のテーブルに、ワード等を含む取得データを格納する。送信データD1にワード等が含まれない方式の場合には、情報端末1とサーバ2とで分担し、情報端末1側のDBのテーブルに一部のデータが格納され、サーバ2側のDBのテーブルに他の一部のデータが格納される。
図9は、さらに、指標値および危険度の計算に関する条件の設定例を示す。実施の形態1の有害行為検出システムにはこの条件が予め設定されている。(A)は、指標値の計算式を示す。基本的な指標値の計算式は、[指標値(S)]=([ワード評価値(W)]+[バイタル評価値(V)])×[感情評価値(E)]である。指標値を記号S、ワード評価値を記号W、バイタル評価値を記号V、感情評価値を記号Eでも示す。すなわち、この計算式は、発声者のワードに関する評価値と、対象者H2のバイタルデータに関する評価値との両方に対し、発声者の感情に関する評価値を係数として乗算するようにして、複合的な評価を行う式である。具体例では、バイタルデータに2つの項目(体温、脈拍数)があるので、その場合、体温評価値をV1、脈拍数評価値をV2とすると、計算式は、S=(W+V1+V2)×Eとなる。3つ以上の項目を用いる場合も同様に可能である。
図9の(F)は、さらに、危険度から対処を判定する際の条件の設定表を示す。この表は、列として、危険度範囲、レベル、対処種類を有する。「危険度範囲」項目は、危険度の閾値範囲を示す。「レベル」項目は、「危険度範囲」に対応付けられたレベルを示す。「対処種類」項目は、「レベル」に対応付けられた対処(言い換えると対処行動)の種類を示す。実施の形態1では、主に、4つのレベルおよび対処種類が設定されている。危険度のレベルが高いほど、危険性や可能性が高いことを表している。本例では、危険度が、0以上の範囲に該当する場合には、レベル1に相当し、第1対処に決定される。危険度が、-10以上で0未満の範囲に該当する場合には、レベル2に相当し、第2対処に決定される。危険度が、-20以上で-10未満の範囲に該当する場合には、レベル3に相当し、第3対処に決定される。危険度が、-20未満の範囲に該当する場合には、レベル4に相当し、第4対処に決定される。
実施の形態1の有害行為検出システムは、職場環境、あるいは対象者H1や契約者H3毎に、有害行為の検出に係わる判定条件等を設定可能である。有害行為検出システムには、図9の例のように基本的な判定条件が設定されている。さらに、変形例としては、対象者H1や契約者H3毎に、ユーザ設定に応じて、その判定条件の閾値等を変更可能である。これにより、利用者毎の意図や個人差(ストレス耐性等)に応じて調整された判定条件とすることができる。
実施の形態1の有害行為検出システムの有害行為検出機能は、有害行為に関して、即時の検出、通知、対処動作を行う機能を含む。例えば、対処が、第2対処や第3対処のように、通知である場合に関して、以下の構成を有する。
図8のデータや図9の条件を用いた分析の例は以下の通りである。なお、図8のデータ例は、図7の(A)の第1パターンに対応している。図8のテーブルで、第1行の時点では、他者H2である利用者Bが例えば「バカヤロウ」と発声し、その時の感情は平常である。それに対し、対象者H1である利用者Aの体温偏差が0、脈拍数偏差が1である。この時の各データの状態から、図9の条件に基づいて、ワード評価値(W)は-0.5となり、感情評価値(E)は1となり、バイタル評価値(V)は、V1=0、V2=0となる。指標値(S)は、式から、S=(W+V1+V2)×E=(-0.5+0+0)×1=-0.5となる。同様に、第2行の時点では、他者H2である利用者Cが例えば「バカヤロウ」と発声し、その時の感情は怒りである。それに対し、対象者H1の体温偏差が1、脈拍数偏差が10である。この時、W=-0.5、E=1.3、V1=-0.5、V2=-0.5となる。指標値(S)は、S=(-0.5-0.5-0.5)×1.3=-1.95となる。
実施の形態1の有害行為検出システムは、他の機能として以下の追加機能を有する。追加機能では、情報端末1またはサーバ2は、取得された音声データ等の各データを、ユーザ設定に応じて、証拠用に記録して残しておいてもよいし、自動的に消去するようにしてもよい。
実施の形態1では、有害行為検出機能に係わる音声データ取得や送信データ作成等の基本的な処理を、ユーザ設定に基づいて基本的に常時に行う構成とした。情報端末1は、ユーザ設定に応じて、常時に音声を入力し音声データを取得することもできるし、限定された時間のみに音声データを取得することもできる。後者の設定は、例えば以下のような構成例が挙げられる。第1構成例として、予めユーザ設定で、対象者H1および契約者H3毎に、音声を取得する対象となる日時(時間帯を含む)および場所等が設定される。例えば、場所は、対象者H1が属する会社の位置を中心とした範囲に限定され、日時は、その会社の就業日時に限定される。例えば、情報端末1は、既存のセンサ等を用いて、現在の日時や場所の状態が、設定された日時や場所の条件に該当するかを確認する。情報端末1は、該当する場合のみに、有害行為検出機能を自動的にオン状態に切り替え、前述の音声データ取得等の処理を実行する。情報端末1は、条件を満たさない場合には、自動的にオフ状態に切り替える。この設定の場合、情報端末1の処理量やバッテリ使用量を削減できる。
上記のように、実施の形態1の有害行為検出システムによれば、例えば会社でのパワハラ等の有害行為に関する可能性を推定して検出でき、対処を支援することができる。実施の形態1の有害行為検出システムによれば、被害者および加害者の検出やケアができ、有害行為の抑止や早期検出ができ、職場環境の改善や悪化防止等に寄与できる。実施の形態1の有害行為検出システムによれば、個人の対象者H1が有害行為から自己を守ることができる。実施の形態1の有害行為検出システムによれば、加害者や被害者に自覚が無い場合でも、パワハラ等の可能性を指摘することができ、有害行為の防止や意識改善ができる。このシステムによれば、有害行為をリアルタイムで検出し対処が可能であり、事件等に至る前に防止できる。このシステムによれば、第三者の観点から有害行為を評価でき、対処が可能である。
図10は、実施の形態1の変形例の有害行為検出システムにおいて、ある職場環境に複数の対象者H1が存在する利用形態を示す。例えば、会社内のある部署の全ての社員が、それぞれ対象者H1となる。契約者H3は、例えばそれらの複数の社員との関係を持つ経営者や総務部担当者等の規定の人である。契約者H3は、各社員のパワハラ等の行為を抑止および検出できるように、このサービスを利用する。この利用形態の場合、各社員が同様に情報端末1を所持する。この利用形態の場合、導入時点で、有害行為に関する相応の抑止効果が得られる。さらに、この利用形態では、社員が自覚無くパワハラ等を行っている場合や受けている場合でも、その有害行為の可能性を検出し、指摘することができる。また、この形態では、被害者側の情報端末1からの送信データD1と、加害者側の情報端末1からの送信データD1との両方が得られるので、被害者と加害者との両方を考慮して、有害行為に関する推定や判定が可能である。
図11を用いて、本発明の実施の形態2の有害行為検出システムについて説明する。以下では、実施の形態2等における実施の形態1とは異なる構成部分について説明する。実施の形態1は、情報端末1とサーバ2との間で連携し処理を分担する構成とした。この分担は、各種の構成が可能である。実施の形態2は、有害行為検出機能に係わる主要な処理をサーバ2で行う構成とする。
図12を用いて、本発明の実施の形態3の有害行為検出システムについて説明する。実施の形態3は、有害行為検出機能に係わる主要な処理を情報端末1で行う構成とする。
Claims (7)
- 職場環境における人の間でのパワーハラスメント、セクシャルハラスメント、およびいじめを含む有害行為に関する観察および検出を行う計算機を備える有害行為検出システムであって、
前記計算機は、
対象者の周囲の音声を入力した音声データと、前記音声データからの音声認識に基づいて抽出した会話内容を表すワードを含む音声情報、前記音声データからの感情認識に基づいて分類した感情を表す感情情報、および前記対象者のバイタルデータの少なくとも1つと、日時情報と、前記対象者の位置情報とを含むデータを取得し、
前記取得されたデータに基づいて、前記対象者の周囲にいる他者のワードおよび感情と、前記対象者のワード、感情、およびバイタルデータとの5つの要素のうちの少なくとも1つの要素を用いて、前記有害行為に関する指標値を計算し、
前記指標値に基づいて、前記有害行為の被害者および加害者の少なくとも一方と、前記有害行為の有無または度合いと、を含む前記有害行為の状態を推定し、
前記推定された状態に応じた前記有害行為への対処のための対処データを出力し、
前記計算機は、前記取得したワードを、設定されているキーワードと比較し、該当するキーワードに応じて、前記ワードの評価値(W)を計算し、前記取得した感情の値に応じて、前記感情の評価値(E)を計算し、前記取得したバイタルデータの値を、設定されている範囲と比較し、該当する範囲に応じて、前記バイタルデータの評価値(V)を計算し、
前記計算機は、前記ワードの評価値(W)、前記感情の評価値(E)、および前記バイタルデータの評価値(V)を組み合わせた計算式を用いて、これらの3つの要素を反映した指標値(S)を計算し、
前記計算機は、時系列上で各時点の前記指標値を計算し、前記各時点の前記指標値の集計によって前記対象者の状態に関する危険度を計算し、予め設定された、前記危険度と前記対処とを関係付けた判定条件に基づいて、前記危険度に応じて前記判定条件から前記対処を決定する、
有害行為検出システム。 - 請求項1記載の有害行為検出システムにおいて、
前記計算機は、[前記他者の前記ワードの評価値(W)]と[前記対象者の前記バイタルデータの評価値(V)]に対し、[前記他者の前記感情の評価値(E)]を反映する演算によって、前記指標値(S)を計算する、
有害行為検出システム。 - 請求項1記載の有害行為検出システムにおいて、
前記計算機は、[前記対象者の前記ワードの評価値(W)]と[前記対象者の前記バイタルデータの評価値(V)]に対し、[前記対象者の前記感情の評価値(E)]を反映する演算によって、前記指標値(S)を計算する、
有害行為検出システム。 - 請求項1記載の有害行為検出システムにおいて、
前記計算機は、前記指標値(S)を、([前記ワードの評価値(W)]+[前記バイタルデータの評価値(V)])×[前記感情の評価値(E)]という計算式によって計算する、
有害行為検出システム。 - 請求項1記載の有害行為検出システムにおいて、
ユーザ設定に応じて、前記対象者ごとに、個人差を調整するように、前記有害行為の状態の推定に関する判定条件の閾値を設定する、
有害行為検出システム。 - 請求項1記載の有害行為検出システムにおいて、
前記計算機は、前記危険度を、設定されている複数の閾値範囲と比較し、該当する閾値範囲に応じて、設定されている複数の対処のうちの該当する対処を決定し、決定した対処に応じた前記対処データを作成し、前記対処データを、設定されている契約者端末または連絡先へ送信し、
前記複数の対処は、注意の通知、警告の通知、定期的なレポート、および警備員派遣を有する、
有害行為検出システム。 - 職場環境における人の間でのパワーハラスメント、セクシャルハラスメント、およびいじめを含む有害行為に関する観察および検出を行う計算機を備える有害行為検出システムにおける有害行為検出方法であって、
前記計算機によって実行されるステップとして、
対象者の周囲の音声を入力した音声データと、前記音声データからの音声認識に基づいて抽出した会話内容を表すワードを含む音声情報、前記音声データからの感情認識に基づいて分類した感情を表す感情情報、および前記対象者のバイタルデータの少なくとも1つと、日時情報と、前記対象者の位置情報とを含むデータを取得するステップと、
前記取得されたデータに基づいて、前記対象者の周囲にいる他者のワードおよび感情と、前記対象者のワード、感情、およびバイタルデータとの5つの要素のうちの少なくとも1つの要素を用いて、前記有害行為に関する指標値を計算するステップと、
前記指標値に基づいて、前記有害行為の被害者および加害者の少なくとも一方と、前記有害行為の有無または度合いと、を含む前記有害行為の状態を推定するステップと、
前記推定された状態に応じた前記有害行為への対処のための対処データを出力するステップと、
前記取得したワードを、設定されているキーワードと比較し、該当するキーワードに応じて、前記ワードの評価値(W)を計算し、前記取得した感情の値に応じて、前記感情の評価値(E)を計算し、前記取得したバイタルデータの値を、設定されている範囲と比較し、該当する範囲に応じて、前記バイタルデータの評価値(V)を計算するステップと、
を有し、
前記指標値を計算するステップは、前記ワードの評価値(W)、前記感情の評価値(E)、および前記バイタルデータの評価値(V)を組み合わせた計算式を用いて、これらの3つの要素を反映した指標値(S)を計算するステップであり、
前記有害行為の状態を推定するステップは、時系列上で各時点の前記指標値を計算し、前記各時点の前記指標値の集計によって前記対象者の状態に関する危険度を計算するステップであり、
前記対処データを出力するステップは、予め設定された、前記危険度と前記対処とを関係付けた判定条件に基づいて、前記危険度に応じて前記判定条件から前記対処を決定するステップである、
有害行為検出方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019015384A JP7384558B2 (ja) | 2019-01-31 | 2019-01-31 | 有害行為検出システムおよび方法 |
PCT/JP2019/044428 WO2020158101A1 (ja) | 2019-01-31 | 2019-11-12 | 有害行為検出システムおよび方法 |
EP19913137.6A EP3920126A4 (en) | 2019-01-31 | 2019-11-12 | HARMFUL ACT DETECTION SYSTEM AND METHOD |
CN201980089940.3A CN113330477A (zh) | 2019-01-31 | 2019-11-12 | 有害行为检测系统及方法 |
US17/426,500 US11875817B2 (en) | 2019-01-31 | 2019-11-12 | Harmful behavior detecting system and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019015384A JP7384558B2 (ja) | 2019-01-31 | 2019-01-31 | 有害行為検出システムおよび方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123204A JP2020123204A (ja) | 2020-08-13 |
JP7384558B2 true JP7384558B2 (ja) | 2023-11-21 |
Family
ID=71842441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019015384A Active JP7384558B2 (ja) | 2019-01-31 | 2019-01-31 | 有害行為検出システムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11875817B2 (ja) |
EP (1) | EP3920126A4 (ja) |
JP (1) | JP7384558B2 (ja) |
CN (1) | CN113330477A (ja) |
WO (1) | WO2020158101A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7384558B2 (ja) | 2019-01-31 | 2023-11-21 | 株式会社日立システムズ | 有害行為検出システムおよび方法 |
CN112515673A (zh) * | 2020-11-30 | 2021-03-19 | 重庆工程职业技术学院 | 心理危机干预辅助系统 |
WO2022180855A1 (ja) * | 2021-02-26 | 2022-09-01 | 株式会社I’mbesideyou | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
JP7031913B1 (ja) | 2021-04-14 | 2022-03-08 | 陽介 大岩 | 管理サーバ |
JP7440844B2 (ja) * | 2021-09-30 | 2024-02-29 | 株式会社調和技研 | 情報処理装置及びプログラム |
CN115881136B (zh) * | 2023-01-30 | 2023-08-18 | 深圳市人马互动科技有限公司 | 校园场景下基于冲突事件的语音信息处理方法及相关装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008060639A (ja) | 2006-08-29 | 2008-03-13 | Fujitsu Fsas Inc | コールセンタにおけるオペレータ管理システム及びコールセンタにおけるオペレータ管理方法 |
JP2017213278A (ja) | 2016-06-01 | 2017-12-07 | コニカミノルタ株式会社 | メンタルヘルス評価装置、該方法および該プログラム |
JP2018045545A (ja) | 2016-09-16 | 2018-03-22 | パナソニックIpマネジメント株式会社 | ストレスマネジメントシステム及びストレスマネジメント方法 |
JP2018068618A (ja) | 2016-10-28 | 2018-05-10 | 株式会社東芝 | 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7999857B2 (en) * | 2003-07-25 | 2011-08-16 | Stresscam Operations and Systems Ltd. | Voice, lip-reading, face and emotion stress analysis, fuzzy logic intelligent camera system |
JP2008165097A (ja) | 2006-12-29 | 2008-07-17 | Mariko Kawashima | いじめ防止を目的とした音声録音装置および音声データ解析装置 |
US20100023348A1 (en) * | 2008-07-22 | 2010-01-28 | International Business Machines Corporation | Remotely taking real-time programmatic actions responsive to health metrics received from worn health monitoring devices |
US7974983B2 (en) * | 2008-11-13 | 2011-07-05 | Buzzient, Inc. | Website network and advertisement analysis using analytic measurement of online social media content |
US8788270B2 (en) * | 2009-06-16 | 2014-07-22 | University Of Florida Research Foundation, Inc. | Apparatus and method for determining an emotion state of a speaker |
US20210118323A1 (en) * | 2010-06-02 | 2021-04-22 | The Vista Group Llc | Method and apparatus for interactive monitoring of emotion during teletherapy |
US9887887B2 (en) * | 2012-07-09 | 2018-02-06 | Eturi Corp. | Information throttle based on compliance with electronic communication rules |
US9922537B2 (en) * | 2013-08-05 | 2018-03-20 | Tejas Girish Shah | Wearable multi-sensory personal safety and tracking device |
US9336268B1 (en) * | 2015-04-08 | 2016-05-10 | Pearson Education, Inc. | Relativistic sentiment analyzer |
WO2016170810A1 (ja) * | 2015-04-23 | 2016-10-27 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
JP6985005B2 (ja) * | 2015-10-14 | 2021-12-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体 |
JP6733901B2 (ja) | 2016-05-27 | 2020-08-05 | Necソリューションイノベータ株式会社 | 心理分析装置、心理分析方法、およびプログラム |
JP6906197B2 (ja) * | 2017-09-29 | 2021-07-21 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理装置及び情報処理プログラム |
SG11202004011PA (en) * | 2017-12-30 | 2020-05-28 | Kaha Pte Ltd | Method and system for indicating a breathing pattern |
US10964186B2 (en) * | 2018-05-04 | 2021-03-30 | Shiv Prakash Verma | Web server based 24/7 care management system for better quality of life to alzheimer, dementia,autistic and assisted living people using artificial intelligent based smart devices |
JP2021527517A (ja) * | 2018-06-20 | 2021-10-14 | インナー コスモス インク.Inner Cosmos Inc. | 気分障害を治療するためのシステムおよび方法 |
US11195618B2 (en) * | 2018-07-12 | 2021-12-07 | International Business Machines Corporation | Multi-level machine learning to detect a social media user's possible health issue |
JP2021192132A (ja) * | 2018-09-07 | 2021-12-16 | ソニーグループ株式会社 | 情報処理システム、情報処理方法、および、記録媒体 |
US11636365B2 (en) * | 2018-09-13 | 2023-04-25 | International Business Machines Corporation | State of emotion time series |
JP2020091302A (ja) * | 2018-12-03 | 2020-06-11 | 本田技研工業株式会社 | 感情推定装置、感情推定方法、およびプログラム |
JP7384558B2 (ja) | 2019-01-31 | 2023-11-21 | 株式会社日立システムズ | 有害行為検出システムおよび方法 |
-
2019
- 2019-01-31 JP JP2019015384A patent/JP7384558B2/ja active Active
- 2019-11-12 WO PCT/JP2019/044428 patent/WO2020158101A1/ja unknown
- 2019-11-12 EP EP19913137.6A patent/EP3920126A4/en active Pending
- 2019-11-12 US US17/426,500 patent/US11875817B2/en active Active
- 2019-11-12 CN CN201980089940.3A patent/CN113330477A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008060639A (ja) | 2006-08-29 | 2008-03-13 | Fujitsu Fsas Inc | コールセンタにおけるオペレータ管理システム及びコールセンタにおけるオペレータ管理方法 |
JP2017213278A (ja) | 2016-06-01 | 2017-12-07 | コニカミノルタ株式会社 | メンタルヘルス評価装置、該方法および該プログラム |
JP2018045545A (ja) | 2016-09-16 | 2018-03-22 | パナソニックIpマネジメント株式会社 | ストレスマネジメントシステム及びストレスマネジメント方法 |
JP2018068618A (ja) | 2016-10-28 | 2018-05-10 | 株式会社東芝 | 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム |
Also Published As
Publication number | Publication date |
---|---|
EP3920126A4 (en) | 2022-09-28 |
US20220115032A1 (en) | 2022-04-14 |
JP2020123204A (ja) | 2020-08-13 |
US11875817B2 (en) | 2024-01-16 |
CN113330477A (zh) | 2021-08-31 |
WO2020158101A1 (ja) | 2020-08-06 |
EP3920126A1 (en) | 2021-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7384558B2 (ja) | 有害行為検出システムおよび方法 | |
Young et al. | Comparing help-seeking behavior of male and female survivors of sexual assault: A content analysis of a hotline | |
Senkans et al. | Assessing the link between intimate partner violence and postrelationship stalking: A gender-inclusive study | |
Scheerder et al. | Negative outcomes of Internet use: A qualitative analysis in the homes of families with different educational backgrounds | |
JP6945127B2 (ja) | ストレスマネジメントシステム、ストレスマネジメント方法及びコンピュータプログラム | |
JP5530163B2 (ja) | 従業員行動の管理方法及び管理システム | |
US20020138271A1 (en) | System and method for computer analysis of computer generated communications to produce indications and warning of dangerous behavior | |
Richardson-Foster et al. | Police intervention in domestic violence incidents where children are present: Police and children's perspectives | |
US20150006153A1 (en) | System and method for computerized psychological content analysis of computer and media generated communications to produce communications management support, indications and warnings of dangerous behavior, assessment of media images, and personnel selection support | |
McDonald et al. | Intersectional AI: A study of how information science students think about ethics and their impact | |
Li | Post-pandemic privacy law | |
Buunk et al. | Mobbing in schools and hospitals in Uruguay: prevalence and relation to loss of status | |
McCluskey et al. | Video data analysis and police body-worn camera footage | |
Schwoon et al. | Enacting a grand challenge for business and society: Theorizing issue maturation in the media-based public discourse on COVID-19 in three national contexts | |
Constantinides et al. | Good Intentions, Bad Inventions: How Employees Judge Pervasive Technologies in the Workplace | |
Saxton et al. | The police role in domestic homicide prevention: Lessons from a domestic violence death review committee | |
Hope et al. | Impact of using data from electronic protocols in nursing performance management: a qualitative interview study | |
Fraser-Barbour | On the ground insights from disability professionals supporting people with intellectual disability who have experienced sexual violence | |
Kingston et al. | BJGP OPEN | |
US10380687B2 (en) | Trade surveillance and monitoring systems and/or methods | |
Page | Sexual misconduct in UK higher education and the precarity of institutional knowledge | |
Wondemaghen | Policing mental illness: Police use of section 136–Perspectives from police and mental-health nurses | |
JP6733901B2 (ja) | 心理分析装置、心理分析方法、およびプログラム | |
CA3227997A1 (en) | Devices, systems, and methods for intelligent stress level detection | |
Langer et al. | Vocal-stress diary: A longitudinal investigation of the association of everyday work stressors and human voice features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230815 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7384558 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |