JP7384558B2 - 有害行為検出システムおよび方法 - Google Patents

有害行為検出システムおよび方法 Download PDF

Info

Publication number
JP7384558B2
JP7384558B2 JP2019015384A JP2019015384A JP7384558B2 JP 7384558 B2 JP7384558 B2 JP 7384558B2 JP 2019015384 A JP2019015384 A JP 2019015384A JP 2019015384 A JP2019015384 A JP 2019015384A JP 7384558 B2 JP7384558 B2 JP 7384558B2
Authority
JP
Japan
Prior art keywords
harmful
data
information
subject
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019015384A
Other languages
English (en)
Other versions
JP2020123204A (ja
Inventor
聡 岩垣
敦史 島田
真寿美 末弘
英紀 千葉
幸一 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2019015384A priority Critical patent/JP7384558B2/ja
Priority to PCT/JP2019/044428 priority patent/WO2020158101A1/ja
Priority to EP19913137.6A priority patent/EP3920126A4/en
Priority to CN201980089940.3A priority patent/CN113330477A/zh
Priority to US17/426,500 priority patent/US11875817B2/en
Publication of JP2020123204A publication Critical patent/JP2020123204A/ja
Application granted granted Critical
Publication of JP7384558B2 publication Critical patent/JP7384558B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/72Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for transmitting results of analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Description

本発明は、情報処理システム等の技術に関し、職場環境でのパワーハラスメント等の有害行為に関する観察、検出、および対処支援等に適用して有効な技術に関する。
大きな社会問題として、パワーハラスメント(power harassment:パワハラと記載する場合がある)、セクシャルハラスメント(sexual harassment:セクハラと記載する場合がある)、いじめ(bullying)、悪質クレームまたはカスタマーハラスメント(customer harassment)等の有害行為が存在する。会社、学校、店舗等の各種の職場環境において、社員、生徒、店員等の人は、そのような有害行為によって、精神的・身体的苦痛を受ける。また、その有害行為によって、職場環境が悪化する。有害行為の具体例としては、暴言、脅迫、強要、虐待、過度の説教や要求、等が挙げられる。このような社会問題に対し、一般的な対策は、教育や啓発等の意識付けや相談窓口設置程度に留まっており、有効な対策は実現できていない。このような社会問題は社会的に大きなコストとなる。このような有害行為に対し、情報処理システム等を用いて、防止や対処を支援できる仕組みが求められる。
このような社会問題に係わる先行技術例としては、特開2008-165097号公報(特許文献1)、特開2017-211586(特許文献2)が挙げられる。特許文献1には、いじめを早期発見し、抑制することを目的とした音声録音装置等を提供する旨が記載されている。特許文献1には、児童の行動が大人の目の届かなくなる時間帯を予めスケジュール登録し、そのスケジュールに従い音声録音を行い、録音音声データから、誹謗中傷目的のキーワードを検出し、いじめを早期発見する旨が記載されている。特許文献2には、心理分析装置として、振り込め詐欺等のソーシャル・エンジニアリングに対策する旨が記載されている。特許文献2には、発話者の音声データに対して感情分析を行い、発話者に関するテキストデータに対して文脈分析を行い、感情分析の結果と文脈分析の結果とを比較し、比較結果に基づいて発話者の心理を分析する旨が記載されている。
特開2008-165097号公報 特開2017-211586号公報
従来、職場環境でのパワハラ、セクハラ、いじめ等の有害行為に関して、情報処理システム等を用いて観察、検出、対処等を行う仕組みは、十分には検討されていない。従来技術例としては、警備会社等が、位置情報や監視カメラ映像等を用いて、対象利用者の見守りを行うシステム等が挙げられるが、有害行為に係わる人の心身の状態に関しては判断できていない。また、特許文献1の例のように、音声を用いていじめ等の検出を図る技術があるが、キーワードのみの判断であり、心身の状態に関しては判断できておらず、検出精度等には改善余地がある。
本発明の目的は、情報処理システムを用いて、職場環境でのパワハラ、セクハラ、いじめ等の有害行為に関して検出でき、対処を支援することができる技術を提供することである。本発明の他の目的は、有害行為に関する被害者や加害者を検出してケアすることができ、職場環境の改善や悪化防止等に寄与できる技術を提供することである。本発明の他の課題や効果等については、発明を実施するための形態で説明される。
本発明のうち代表的な実施の形態は、以下に示す構成を有する。一実施の形態は、職場環境における人の間でのパワーハラスメント、セクシャルハラスメント、およびいじめを含む有害行為に関する観察および検出を行う計算機を備える有害行為検出システムであって、前記計算機は、対象者の周囲の音声を入力した音声データと、前記音声データからの音声認識に基づいて抽出した会話内容を表すワードを含む音声情報、前記音声データからの感情認識に基づいて分類した感情を表す感情情報、および前記対象者のバイタルデータの少なくとも1つと、日時情報と、前記対象者の位置情報とを含むデータを取得し、前記取得されたデータに基づいて、前記対象者の周囲にいる他者のワードおよび感情と、前記対象者のワード、感情、およびバイタルデータとの5つの要素のうちの少なくとも1つの要素を用いて、前記有害行為に関する指標値を計算し、前記指標値に基づいて、前記有害行為の被害者および加害者の少なくとも一方と、前記有害行為の有無または度合いと、を含む前記有害行為の状態を推定し、前記推定された状態に応じた前記有害行為への対処のための対処データを出力する。
本発明のうち代表的な実施の形態によれば、情報処理システムを用いて、職場環境でのパワハラ、セクハラ、いじめ等の害のある行為に関して検出でき、対応を支援することができる。本発明のうち代表的な実施の形態によれば、そのような行為に関する被害者や加害者を検出してケアすることができ、職場環境の改善や悪化防止等に寄与できる。
本発明の実施の形態1の有害行為検出システムの構成を示す図である。 実施の形態1で、職場環境の第1例(会社)を示す図である。 実施の形態1で、職場環境の第2例(学校)を示す図である。 実施の形態1で、職場環境の第3例(店舗)を示す図である。 実施の形態1で、計算機の処理フローを示す図である。 実施の形態1で、情報端末およびサーバの構成を示す図である。 実施の形態1で、有害行為の発生の2つのパターンを示す図である。 実施の形態1で、取得データのテーブルの構成例を示す図である。 実施の形態1で、指標値の計算式、各要素の評価用の設定表、および判定条件の設定表を示す図である。 実施の形態1の変形例の有害行為検出システムの構成を示す図である。 本発明の実施の形態2の有害行為検出システムの構成を示す図である。 本発明の実施の形態3の有害行為検出システムの構成を示す図である。
(実施の形態1)
図1~図10を用いて、本発明の実施の形態1の有害行為検出システムおよび方法について説明する。実施の形態1の有害行為検出システムは、職場環境における人の間でのパワハラ等の有害行為に関する観察および検出を行う計算機を備えるシステムである。実施の形態1の有害行為検出方法は、実施の形態1の有害行為検出システムの計算機によって実行されるステップを有する方法である。
[有害行為検出システム(1)]
図1は、実施の形態1の有害行為検出システムの基本構成を示す。実施の形態1の有害行為検出システムは、計算機として、対象者H1の情報端末1と、事業者のサーバ装置2と、契約者H3の契約者端末3とを有し、これらは通信網5を介して適宜に通信接続される。情報端末1は、職場環境の複数の人のうちの対象者H1が所有し携帯するスマートフォンやウェアラブル端末等の装置である。契約者端末3は、契約者H3が使用するスマートフォンやPC等の装置である。この有害行為検出システムは、計算機の情報処理に基づいて、有害行為を観察し検出するシステムであり、有害行為に対する対処等を支援するシステムである。事業者は、有害行為検出システムを管理し、そのサービスを提供する。
適用対象となる職場環境は、例えば会社であるが、これに限らず、後述の学校、店舗等の各種の職場環境が可能である。職場環境内には、対象者H1や他者H2等を含む複数の人、例えば社員が存在する。対象者H1は、有害行為検出システムのサービス利用に関して契約した利用者であり、例えば利用者Aとする。対象者H1は、例えば有害行為の被害者であるとする。他者H2は、対象者H1に対する他者であり、職場環境内の他の人である。他者H2は、有害行為検出システムのサービス利用については契約していない利用者であり、例えば利用者Bとする。他者H2は、例えば有害行為の加害者であるとする。加害者は、言い換えると攻撃者であり、対象者H1にストレスや暴力等を与える人である。
契約者H3は、有害行為検出システムのサービス利用に関して契約した、対象者H1と関係を持つ利用者であり、設定された所定の人であり、例えば利用者Aに対する家族の人(例えば親やパートナー)である。警備員H4は、対処の一例として職場環境内に派遣される、設定された所定の人である。対象者H1に対する有害行為が検出され、その有害行為の度合いが大きい場合には、警備員H4が派遣される。警備員H4は、現場の状況に応じて、対象者H1と他者H2との間での調停、聴取、暴力抑止、保護、連絡等を行う。警備員H4は、例えば特定の社員としてもよいし、代わりに契約者H3としてもよい。
情報端末1は、有害行為検出機能を構成するアプリケーションプログラム等を備える。情報端末1は、周囲の音声をマイクから入力して音声データとして取得する機能を備える。また、情報端末1は、入力の音声データに基づいて、音声認識処理によって、会話内容を表すワードを含むテキストや文字列等の音声情報を取得する機能を備える。また、情報端末1は、入力の音声データに基づいて、感情認識処理によって、発声者の感情を取得する機能を有する。この感情は、平常/喜/怒/哀/楽等の所定の複数の感情の分類のうちの選択される感情の値である。また、情報端末1は、入力の音声データに基づいて、声紋認識処理によって、発声者が対象者H1であるか他者H2であるかの区別、あるいは、個人の識別を行う機能を備える。また、情報端末1は、対象者H1のバイタルデータを計測する活動量計としての機能を備える。
なお、対象者H1が持つ情報端末1は、1台に限らず、連携する複数の情報端末としてもよく、例えばスマートフォンとウェアラブル端末との組でもよい。ウェアラブル端末は、例えば活動量計としての機能や他のセンサの機能を備える。他の実施の形態では、情報端末1は、職場環境に固定的に設置される1台以上のPCや他の機器を含んでもよい。この場合、その固定的な情報端末1は、周囲のある程度の距離範囲内に人がいる場合に、その人の音声を取得可能である。
情報端末1は、例えば常時に音声入力機能等がオン状態になるように設定され、そのオン状態では自動的に周囲の音声の音声データを取得する。対象者H1は、操作によって有害行為検出機能のオン/オフを切り替えることができる。情報端末1は、対象者H1とその周囲にいる他者H2との間での会話等に伴う音声を入力し、音声データとして記憶する。情報端末1は、その音声データに基づいて、声紋を認識し、ワード等の音声情報を取得し、分類による感情を取得する。また、情報端末1は、それらと共に、ID、日時、位置、およびバイタルデータ等を取得する。IDは、利用者IDや端末ID、端末アドレス等が挙げられる。情報端末1は、それらのデータや情報を用いて、有害行為の可能性や状態に関する指標値を計算する。情報端末1は、ID、日時、位置、音声データ、声紋情報、音声情報、感情情報、バイタルデータ、および指標値、等の各種のデータや情報を関連付けて記憶する。情報端末1は、指標値を含むデータを用いて、サーバ2への状態通知のための所定の送信データD1を構成し、サーバ2へ送信する。
サーバ2は、事業者のデータセンタやクラウドコンピューティングシステム等のシステム内に設置されるサーバ装置であり、ストレージ装置や通信装置等を伴う。事業者内の分析作業者は、サーバ2の管理作業やデータ分析補助作業等を行う。サーバ2は、情報端末1からの、音声に係わる送信データD1を受信して記憶し、有害行為の可能性や状態に関する分析処理を行い、その結果の状態に応じた対処データD2を作成し、出力する。サーバ2は、例えば、設定された契約者端末3へ、対処データD2を送信する。対処データD2の出力は、有害行為の状態に関する、即時の通知や、定期的なレポートの送信等を含む。なお、事業者は、対象者H1の情報端末1から受信したデータや設定情報に関して、契約に基づいて、プライバシー等に配慮し、暗号化等の対策処理を施し、DB等にセキュアに管理する。
[有害行為検出システム(2)]
実施の形態1の有害行為検出システムは、対象者H1の周囲の音声を用いた分析処理に基づいて有害行為を推定して検出し、対象者H1を有害行為から保護するための機能である有害行為検出機能を有する。また、この機能は、有害行為の状態の度合いに応じて異なる種類の対処を行う機能を含む。
なお、一般に、ある行為がパワハラ等に該当するかの判断には難しさがあり、個別の事例に応じて異なる。実施の形態1の有害行為検出システムおよび機能における有害行為の判断は、あくまで推定であって、有害行為の可能性を扱うものであるが、実際の有害行為の防止や検証、対処支援等に有効である。職場環境の人は、この機能による判断の情報(対処データD2)を利用して、被害者および加害者に対する対処やケアを有効に行うことができる。
実施の形態1の有害行為検出システムを構成する計算機は、特に、音声会話における、他者H2のワード、感情、対象者H1本人のワード、感情、およびバイタルデータの5つの要素の組み合わせに基づいて、指標値を計算する。この指標値は、他者H2や対象者H1の心身の状態に関する評価値である。計算機は、指標値の時系列上の変化を含め把握する。計算機は、指標値に基づいて、有害行為の有無や度合い等に関する状態(後述の危険度)を判断する。そして、計算機は、その状態に応じて、対処を決定し、対応する対処データD2を作成し、出力する。対処は、設定された複数の対処の種類から選択される対処である。これにより、有害行為検出システムは、パワハラ等の有害行為を検出し、関係者による対処を支援することができる。この有害行為検出システムは、複数の要素を用いた複合的な分析によって、検出精度を高めることができる。
[サービス利用形態]
実施の形態1の有害行為検出システムを職場環境で対象者H1等の利用者が利用するサービス利用形態は、大別すると、対象者H1が単独の個人である場合と複数人の集団である場合とがある。図1等の構成例は、対象者H1が個人である場合の利用形態を示す。図1で、例えば会社内のある1人の社員である利用者Aが対象者H1であり、他の社員である他者H2は、対象者ではなく、情報端末1を保持していない。この利用形態の場合、対象者H1個人は、職場環境内でパワハラ等の有害行為から自己を守ることができる。対象者H1および契約者H3は、有害行為検出機能による対処データD2に基づいて、有害行為の被害の可能性に関する指摘を受けることができる。これにより、対象者H1および契約者H3は、有害行為への対処がしやすくなる。また、逆に、対象者H1個人が、他者H2に対し有害行為を自覚無く行ってしまう可能性もある。その場合にも、対象者H1等は、この機能によって有害行為の加害の可能性に関する指摘を受けることができ、加害の防止が可能である。
[有害行為]
有害行為とは、パワハラ、セクハラ、いじめ、悪質クレーム等を含む概念であり、暴力行為や犯罪行為等も含む概念とする。図1では、有害行為とは、加害者となる他者H2から被害者となる対象者H1に対し、暴言等によって、精神的・身体的な苦痛や害を与える行為である。実施の形態1の有害行為検出システムの有害行為検出機能は、このような有害行為に伴う音声から、分析処理によって、有害行為を推定し検出する機能である。
有害行為に伴う、音声、ワード、感情、およびバイタル等の要素の組合せは、様々な状態の値をとり得る。例えば、パワハラの際に、他者H2のワードが平常なワード(例えば「コノシゴトヤットイテ」)の場合でも、その際の感情が「怒」の場合もある。また、他者H2のワードが悪いワード(例えば「バカヤロウ」)の場合でも、その際の感情が「楽」である場合もある。実施の形態1の有害行為検出システムの計算機は、要素の組合せで分析するので、前者にはパワハラの可能性が有るまたは高いと推定でき、後者にはパワハラの可能性が無いまたは低いと推定できる。さらに、その際、対象者H1のワードが平常のワード(例えば「ワカリマシタ」)の場合でも、その際の感情が「哀」で、バイタルが不良である場合もあるし、感情が「平常」または「楽」で、バイタルが良好である場合もある。このように、計算機は、特に複数の要素の組合せで評価する方式で有害行為の可能性や度合いを推定することで、より高精度の推定が可能である。
[職場環境]
以下には、実施の形態1の有害行為検出システムを、3つの職場環境および対応する有害行為の事例に適用した場合を示す。第1例は会社、第2例は学校、第3例は店舗である。実施の形態1の有害行為検出システムは、これらの事例に限らず、各種の職場環境や有害行為に同様に適用可能である。
[職場環境(1)-会社]
図2は、第1例として、職場環境が会社である場合の構成例を示す。検出対象の有害行為は、社員間でのパワハラやセクハラやいじめである。この場合の有害行為検出システムは、言い換えると、パワハラ検出システム、パワハラ対処支援システムである。本例では、1人の社員Aが対象者H1としてサービスを利用している。被害者の例として、対象者H1である社員Aとし、加害者の例として他者H2である社員Bとする。会社の内部または外部にいる契約者H3は、例えば対象者H1に対する家族の人である。契約者H3を会社の経営者や総務部担当者等とすることも可能もある。警備員H4を特定の社員等とすることも可能である。
なお、厚生労働省によれば、職場のパワーハラスメントとは、同じ職場で働く者に対して、職務上の地位や人間関係等の職場内の優位性を背景に、業務の適正な範囲を超えて、精神的・身体的苦痛を与える、または職場環境を悪化させる行為である。パワハラの典型例としては以下が挙げられる。1.身体的な攻撃(暴行等)、2.精神的な攻撃(暴言、脅迫、侮辱等)、3.人間関係からの切り離し(無視、仲間外し等)、4.過大な要求(業務上で不要なことや遂行不可能なことの強制等)、5.過小な要求(業務上で合理性が無く能力や経験とはかけ離れた程度の低い仕事を命じることや、仕事を与えないこと等)、6.個の侵害(私的なことへの過度な立ち入り等)。会社がパワハラの加害者を放置した場合、職場環境調整義務違反を問われる場合もある。
また、厚生労働省によれば、セクシャルハラスメントとは、職場において、労働者の意に反する性的な言動が行われ、それを拒否する等の対応により、解雇、降格、減給等の不利益を受けること、または、性的な言動が行われることで職場環境が不快なものとなり、労働者の能力の発揮に悪影響が生じることである。男女雇用機会均等法によって、事業者にはセクハラへの対策が義務付けられている。
図2で、社員Aは、社員B,C,D等の他者H2から、パワハラ等の有害行為を受ける場合がある。例えば、社員Bは、「コノヤロウ」等の暴言を発声し、社員Aは、応答の言葉を発声するか、応答できずに沈黙し後でネガティブワード等を呟く場合がある。この際、情報端末1は、入力音声に基づいて送信データD1を構成し、サーバ2へ送信する。サーバ2は、パワハラ等の状態に関する判定を行い、対処データD2を構成し、契約者H3の契約者端末3等へ送信する。パワハラ等の度合いが高い場合には、即時に警備員H4が派遣される。
[職場環境(2)-学校]
図3は、第2例として、職場環境が学校である場合を示す。検出対象の有害行為は、生徒間でのいじめ、あるいは、教師と生徒との間でのいじめや他の暴力である。この場合の有害行為検出システムは、言い換えると、いじめ検出システム、いじめ対処支援システムである。本例では、1人の生徒Aが対象者H1としてサービスを利用している。被害者の例として、対象者H1である生徒Aとし、加害者の例として、他者H2である生徒Bとする。学校の内部または外部にいる契約者H3は、例えば対象者H1に対する家族の人(例えば親)である。契約者H3や警備員H4を特定の教師等とすることも可能もある。なお、教師が加害者となる場合もあるし、教師が被害者となる場合もある。
いじめ防止対策推進法において、学校に在籍する児童または生徒間でのいじめは禁じられている。いじめ防止対策推進法では、いじめとは、児童等に対して、当該児童等が在籍する学校に在籍している等当該児童等と一定の人間関係にある他の児童等が行う心理的または物理的な影響を与える行為であって、当該行為の対象となった児童等が行う心身の苦痛を感じているもの、とされている。
図3で、生徒Aは、生徒B,C,D等の他者H2から、いじめを受ける場合がある。この際、同様に、情報端末1は、送信データD1をサーバ2へ送信し、サーバ2は、いじめの状態に関する判定を行い、対処データD2を契約者H3の契約者端末3等へ送信する。契約者H3は、通知やレポートによって、対象者H1がいじめを受けていないかどうかを確認できる。
[職場環境(3)-店舗]
図4は、第3例として、職場環境が店舗である場合を示す。検出対象の有害行為は、特に顧客(言い換えると悪質クレーマー)から店員への悪質クレーム等の迷惑行為である。この場合の有害行為検出システムは、言い換えると、悪質クレーム検出システム、悪質クレーム対処支援システムである。本例では、1人の店員Aが対象者H1としてサービスを利用している。被害者の例として、対象者H1である店員Aとし、加害者の例として、他者H2である悪質クレーマーに相当する顧客とする。店舗の内部または外部にいる契約者H3は、例えば店舗の顧客対応室の顧客対応者あるいは他の店員や経営者等である。警備員H4を顧客担当者等の店員とすることも可能である。
悪質クレーマーは、店員Aに対し、本来の正当なクレームではなく、悪質クレーム(言い換えるとカスタマーハラスメント)を行う者である。悪質クレームの例は、店舗、商品、サービス等に対し、不具合が無いまたは軽微である場合にも、不具合が有るまたは重大であるとして、理不尽な罵倒や説教や要求を伴って行われるクレームである。
図4で、店員Aは、顧客から悪質クレームを受ける場合がある。この際、同様に、情報端末1は、送信データD1をサーバ2へ送信し、サーバ2は、悪質クレームの状態に関する判定を行い、対処データD2を契約者H3の契約者端末3等へ送信する。契約者H3は、悪質クレームの発生を確認でき、すぐに対処ができる。悪質クレームの度合いが高い場合には、即時に警備員H4が派遣される。
[処理フロー(1)]
図5は、実施の形態1の有害行為検出システムの主な処理のフローを示す。このフローはステップS1~S11を有する。以下、ステップの順に説明する。処理の主体は計算機である。図5のフローは後述の図6の構成例と対応している。
ステップS1で、予め、有害行為検出システムにおけるユーザ設定が行われる。このユーザ設定では、情報端末1、およびサーバ2の図6のDB50のうちの顧客DB51に、対象者H1および契約者H3とのサービス利用契約に関する各種の情報が設定される。この設定情報は、利用者ID、対象者H1の情報端末1、および契約者H3の契約者端末3の連絡先等の情報を含む。また、この設定情報は、有害行為検出機能に係わる判定条件や、対処種類、通知やレポートのタイミング等の情報を含む。また、この設定情報は、対象者H1の音声に基づいた声紋のデータ(声紋データと記載する)を含む。図6のDB50のうちの図示しない声紋DBには、対象者H1毎の声紋データが登録される。
ステップS2で、情報端末1は、音声入力機能を含む有害行為検出機能のオン状態で、自動的に、周囲の音声をマイクから入力し、音声データとして取得する。この際の音声は、対象者H1本人の音声、または周囲にいる他者H2の音声等を含み、この時点ではそれらが区別されない。
ステップS3で、情報端末1は、音声データから声紋認識処理を行う。情報端末1は、この声紋認識処理で、音声データから声紋を抽出し、その入力の声紋を、情報端末1内の図6のDB40の図示しない声紋DBの対象者H1の声紋データと比較し、音声区間毎に発声者が対象者H1であるか他者H2であるかを区別する。この声紋DBは、サーバ2側にある声紋DBと対応した内容を持つ。また、この声紋認識処理で個人識別を行ってもよい。その場合、情報端末1は、入力の声紋から、発声者である他者H2がどの個人であるかを識別する。この声紋認識処理の結果得られる情報を声紋情報と記載し、少なくとも対象者H1と他者H2との区別の情報を含む。
ステップS4で、情報端末1は、音声データから感情認識処理を行う。情報端末1は、この感情認識処理では、入力の音声データの波形、特に周波数等の特性を、情報端末1内の図6のDB40のうちの図示しない感情DBの波形データと比較しながら解析する。この感情DBは、サーバ2側にある感情DBと対応した内容を持つ。これにより、情報端末1は、発声者(すなわちステップS3で区別された対象者H1または他者H2)の感情を、所定の複数の感情の分類の値(平常/喜/怒/哀/楽)のうちの1つの感情の値として推定する。この感情認識処理の結果得られる情報を感情情報と記載し、少なくとも上記感情の値を含む。
ステップS5で、情報端末1は、音声データから音声認識処理を行って、音声情報を取得する。情報端末1は、この音声認識処理では、音声データから認識したテキストを、情報端末1内の図6のDB40のうちの図示しないキーワードDBのキーワードと比較し、該当するワードを検出する。このキーワードDBは、サーバ2側にあるキーワードDBと対応した内容を持つ。これにより、情報端末1は、会話内容から有害行為の可能性を表すワードを検出する。この音声認識処理の結果得られる情報を音声情報と記載し、少なくとも上記ワードを含む。
一方、ステップS6の処理は、ステップS2~S5の処理と並列で行われている。なお、ステップS3~S5の処理の順序は他の順序としてもよい。ステップS6で、情報端末1は、その時の音声入力に対応した日時(例えば年月日時分秒)、および情報端末1の位置(例えばGPS等による位置情報)を取得する。また、情報端末1は、その日時に対応して、対象者H1のバイタルデータを計測して取得する。バイタルデータの項目は、例えば脈拍数および体温であるが、これに限らず適用可能である。
ステップS7で、情報端末1は、ステップS2~S6で取得した各データや情報を、関連付けて、一旦メモリに記憶する。情報端末1は、上記各ステップで取得したデータや情報における複数の要素、すなわち、日時、位置、声紋、ワード、感情、およびバイタルデータ等を用いて、有害行為の可能性や状態を表す指標値を計算する。この指標値は、日時の時点毎に得られる。また、ある時点で複数の要素のデータが取得されている場合、この指標値は、その複数の要素、特にワード、感情、およびバイタルデータの組合せの分析によって計算される。この指標値は、基本的には、有害行為の可能性が高い場合には負に大きい値となり、可能性が低い場合には正に大きい値となる。情報端末1は、計算した指標値を、各データと関連付けて、一旦メモリ(例えば図6のDB40)に記憶する。なお、図6の実施の形態1の構成例では、この指標値は、情報端末1内で計算されるが、後述の実施の形態2では、この指標値は、サーバ2内で計算される。
ステップS8で、情報端末1は、ステップS7で計算した指標値を含む、所定の送信データD1を作成し、暗号化して、サーバ2へ送信する。この送信データD1は、情報端末1のID、対象者H1のID、ステップS6の日時および位置、ステップS3の声紋情報(対象者H1と他者H2との区別)、およびステップS7の指標値等の情報を含む。実施の形態1では、この送信データD1は、ステップS2の音声データ、ステップS5の音声情報、ステップS4の感情情報、およびステップS6のバイタルデータを含まない。他の実施の形態では、ユーザ設定に応じて、これらのデータを送信データD1に含ませてもよい。
ステップS9で、サーバ2は、情報端末1から受信した送信データD1を復号化してメモリおよび図6のDB50のうちの状態DB52に格納する。サーバ2は、送信データD1から、情報端末1のID、対象者H1のID、日時、位置、および指標値等の情報を取り出す。サーバ2は、時系列上の時点毎の指標値に基づいて、所定の判定条件と比較することで、有害行為の可能性および対象者H2の状態に関する指標値である危険度を判定する。この危険度は、有害行為の可能性や度合いに応じた、対象者H1の心身の状態に関する評価値である。より具体的な方式としては、サーバ2は、時点毎の指標値を合計してゆき、その時の合計の指標値を危険度とする。サーバ2は、その危険度を、所定の複数の閾値範囲と比較し、複数のレベルのうちのどのレベルに該当するかを判定する。なお、他の実施の形態での方式としては、時点毎の指標値をそのまま危険度としてもよい。危険度の計算は、時点毎の指標値の合計に限らず、他の集計の方式としてもよい。
ステップS10で、サーバ2は、ステップS9で判定した危険度から、対処の種類を決定する。具体的な方式としては、サーバ2は、危険度のレベルに応じて、対応付けられる対処の種類(通知、レポート、警備員派遣等)を選択する。そして、サーバ2は、その対処の種類に応じた対処データD2を作成する。サーバ2は、対処が通知の場合には、設定されている通知手順および設定情報に従って、所定の情報を含む通知の情報を作成する。サーバ2は、対処がレポートの場合には、設定されているレポート作成手順および設定情報に従って、所定の情報を含むレポートデータを作成する。
ステップS11で、サーバ2は、対処データD2を、図6の顧客DB51の情報に基づいて、対処の種類に応じた、契約者端末3等の連絡先(IPアドレス、メールアドレス、または電話番号等)へ出力する。サーバ2は、対処が即時の通知の場合には、対処データD2である通知情報を即時に契約者端末3等へ送信する。サーバ2は、対処がレポートの場合には、対処データD2であるレポートデータを、レポート提出間隔に対応した定期的なタイミングで契約者端末3等へ送信する。レポートの定期のタイミングは、1日、1週間等の単位から設定可能である。また、ステップS11内で、対処が警備員派遣である場合には、サーバ2は、規定の警備員H4の連絡先に対し、対象者H1のID、位置に対応する職場環境内の場所やエリアの情報を含む、派遣の指示を連絡する。
ステップS11の後にこのフローが終了する。このフローの各ステップは同様に繰り返される。ステップS9~S11は、言い換えると、サーバ2による有害行為に関する監視のステップである。
[システム構成例(1)]
図6は、図1の実施の形態1の有害行為検出システムの、より詳細な構成例として、情報端末1およびサーバ2の構成を示す。この構成例は、情報端末1とサーバ2とが連携して、有害行為検出機能の処理全体を分担する。情報端末1は、一部の処理として各データ取得および指標値計算等を実行し、サーバ2は、他の一部の処理として危険度判定および対処データ出力等を実行する。
情報端末1は、図示しないが、一般的な構成要素として、CPU、ROM、RAM等で構成されるプロセッサ、メモリ、通信インタフェース回路、マイク、スピーカ、タッチパネル等の入出力デバイス、操作ボタン、各種のセンサ、およびバッテリ等を備え、それらはシステムバスを介して接続されている。情報端末1内には、有害行為検出機能を実現するためのアプリケーションプログラムやDB40、ユーザ設定情報等が保持される。情報端末1側のDB40には、ある利用者(対象者H1)に係わる情報が格納されている。
情報端末1は、機能ブロックとして、音声入力部11、音声データ記憶部12、音声データ処理部13、日時取得部14、位置取得部15、バイタルデータ取得部16、指標値計算部17、データ作成送信部18を備える。各機能ブロックは、プロセッサ等によるソフトウェアプログラム処理、または回路(例えばICチップ)等で構成される。
音声入力部11は、マイクから入力される音声を音声データとして取得する。音声データ記憶部12は、音声入力部11からの音声データを処理用にメモリに記憶する。なお、後述するが、処理後に音声データを保存しない設定、すなわち音声データを消去する設定も可能である。
音声データ処理部13は、音声データ記憶部12の音声データに対して所定の処理を行うことで、声紋情報、音声情報、感情情報等を取得する。音声データ処理部13は、詳しくは、声紋認識処理部、ワード認識処理部、感情認識処理部等を含む。
声紋認識処理部は、音声データからの声紋認識処理に基づいて声紋情報を取得する。声紋情報は、声紋に基づいた発声者の区別や識別の情報である。声紋認識処理部は、入力音声データの声紋と、情報端末1内のDB40内の声紋DBの声紋データとを比較し、発声者が対象者H1であるか他者H2であるかを区別し、可能な場合には個人を識別して利用者IDを特定する。声紋認識処理は、公知技術を利用できる。なお、情報端末1内の声紋DBは、サーバ2のDB50内の図示しない声紋DBから取得したDBとしてもよいし、取得せずにサーバ2側の声紋DBを参照する処理に代えてもよい。
感情認識処理部は、音声データからの感情認識処理に基づいて感情情報を取得する。感情情報は、感情の分類の値として、例えば、平常/喜/怒/哀/楽の5種類の値から選択される値である。感情認識処理は、公知技術を利用できる。音声データの波形における周波数等の特性は、感情の状態が反映されているため、感情認識処理によって感情の推定が可能である。感情認識処理部は、入力音声データの波形と、情報端末1内のDB40内の感情DBの感情波形データとを比較することで、感情の分類を行う。なお、情報端末1内の感情DBは、サーバ2のDB50内の図示しない感情DBから取得したDBとしてもよいし、取得せずにサーバ2側の感情DBを参照する処理に代えてもよい。感情の値は、上記に限らず、より細かい分類の値としてもよい。
ワード認識処理部は、音声データからの音声認識処理に基づいて、会話内容を表すテキストやワードを含む音声情報を取得する。音声認識処理は、公知技術を利用できる。ワード認識処理部は、入力音声データから音声認識で抽出したワードと、情報端末1内のDB40内のキーワードDBのキーワードとを比較することで、該当するワードを抽出する。なお、情報端末1内のキーワードDBは、サーバ2のDB50内の図示しないキーワードDBから取得したDBとしてもよいし、取得せずにサーバ2側のキーワードDBを参照する処理に代えてもよい。
日時取得部14は、時計を用いて現在の日時情報を取得する。位置取得部15は、GPS受信器または屋内測位システム等を用いて現在の位置情報を取得する。位置情報は、例えば緯度および経度等の情報でもよいし、例えば会社内でのフロアやエリア等の情報でもよい。バイタルデータ取得部16は、情報端末1の活動量計の機能を用いて、対象者H1の脈拍数、体温等を計測し、項目毎のバイタルデータとして取得する。
指標値計算部17は、上記音声データ、声紋情報、音声情報、感情情報、日時情報、位置情報、およびバイタルデータのうちの取得できたデータを参照する。指標値計算部17は、これらのデータを用いて、要素の組合せの分析に基づいて、有害行為に関する指標値を計算する。なお、ワード、感情、バイタルデータ等の要素のうち1つのみしか取得できない場合でも、その1つの要素を用いて相応の推定が可能である。また、指標値の計算の際に使用する要素に関しては、ユーザ設定で変更可能である。デフォルト設定では、ワード、感情、およびバイタルデータのすべての要素を使用する設定であるが、ワードのみ、感情のみ、バイタルデータのみ、ワードと感情の組合せ、感情とバイタルデータの組合せ、ワードとバイタルデータの組合せ等、各種の設定が可能である。なお、実施の形態1では、指標値や評価値は、正負に増減する値(例えば-1.5,-1,0,+0.5,+1等)として定義されるが、これに限らず、他の定義の値(例えば0以上の値や百分率(%)等)としてもよい。
データ作成送信部18は、上記指標値を含むデータを参照する。データ作成送信部18は、それらのデータを用いて、所定の送信データD1を構成し、暗号化等の処理を施して、サーバ2へ送信する。送信データD1は、実施の形態1では、情報端末1のID、対象者H1のID、日時、位置、発声者の区別、および指標値を含むデータであり、前述のように音声データ等を含まない。実施の形態1では、通信網5上で音声データが送信されないので、通信網5上の負荷を抑制できる。
サーバ2は、図示しないが、一般的な構成要素として、CPU、ROM、RAM等で構成されるプロセッサ、メモリ、通信インタフェース回路、入出力デバイス等を備え、それらはシステムバスを介して接続されている。
サーバ2は、機能ブロックとして、データ受信部21、データ記憶部22、分析部23、対処動作部24、およびDB50を備える。DB50は、ストレージ装置やDBサーバ等で構成され、詳しくは、顧客DB51、状態DB52、履歴DB53等を含み、図示しない声紋DB、キーワードDB、感情DB等を含む。各機能ブロックは、プロセッサ等によるソフトウェアプログラム処理、または回路(例えばICチップ)等で構成される。サーバ2内には、有害行為検出機能を実現するためのサーバプログラムやDB50、設定情報等が保持される。サーバ2側のDB50には、複数の利用者に係わる情報が格納されている。
データ受信部21は、情報端末1からの送信データD1を受信し、復号化等の処理を行って、送信データD1内のデータを取得する。データ記憶部22は、送信データD1および各データを、処理用のメモリおよびDB50内に記載する。データ記憶部22は、時点毎の指標値を含むデータを、状態DB52内に格納する。分析部23は、送信データD1内の指標値等のデータを用いて、有害行為および対象者H1の状態に関する危険度を判定する。分析部23は、判定した危険度を、状態DB52内に記載する。
対処動作部24は、対象者H1の危険度に応じて、対処の種類を決定し、対応する対処データD2を作成し、契約者端末3等の連絡先へ送信する。対処動作部24は、詳しくは、即時の通知を行う通知部、レポートデータを作成し送信するレポート部、警備員H4を派遣する警備員派遣部、等を含む。
DB50内のデータは暗号化されている。顧客DB51は、事業者に対する顧客である対象者H1および契約者H3に関するサービス契約情報、ユーザ設定情報等が設定されている。状態DB52は、対象者H1毎の指標値および危険度等の情報が、時系列上の変化の履歴を含め保持されている。履歴DB53には、対象者H1毎に、時系列上の対処(対処データD2の出力)の履歴情報が保持されている。声紋DBには対象者H1毎の声紋データが登録されている。感情DBには感情認識処理用の波形データが登録されている。キーワードDBにはワード認識処理用のキーワードが登録されている。また、サーバ2は、ユーザインタフェースとして、例えばWebページで構成されるユーザ設定画面等を、利用者である対象者H1の情報端末1や契約者H3の契約者端末3に対し提供する。
[分析]
実施の形態1の有害行為検出システムの計算機は、上記音声に基づいて取得される複数の要素のデータ、すなわち、他者H2のワード、感情、対象者H1のワード、感情、およびバイタルデータといった5つの要素の組合せの分析に基づいて、有害行為に関する指標値を計算し、危険度を判定する。この分析の方式について以下に説明する。
まず、上記対象者H1と他者H2との区別を考える場合の5つの要素、または、対象者H1と他者H2との区別を考えない場合の3種類の要素に関して、要素毎に指標値(評価値と記載する場合がある)の計算が可能である。すなわち、ワードに関する指標値(ワード評価値と記載する場合がある)と、感情に関する指標値(感情評価値と記載する場合がある)と、バイタルデータに関する指標値(バイタル評価値と記載する場合がある)とがそれぞれ独立に計算可能である。例えば、ワードのみで判断する場合、特定のキーワードの該当に基づいて、有害行為の可能性をある程度推定可能であるが、特定のキーワードが必ずしも有害行為を表さない等、精度には課題がある。また、バイタルデータのみで判断する場合、平常時のバイタル値との偏差等に基づいて、有害行為の可能性をある程度推定可能であるが、単に体調が悪い場合との区別ができない等、精度には課題がある。
さらに、精度を高めるために、2つ以上の要素(対応する評価値)の組合せによる複合的な分析によって、指標値の計算が可能である。例えば、ワードと感情の組合せで判断する方式や、ワードと感情とバイタルとの組合せで判断する方式が適用できる。これにより、有害行為の推定に関して、精度を高めることができる。実施の形態1の有害行為検出システムは、例えば、ワード評価値と感情評価値とバイタル評価値とを組み合わせて定義される計算式を用いて、3つの要素を反映した指標値を計算する。
[有害行為発生パターン]
図7は、有害行為の発生状況の2つのパターンについて示す。(A)は、第1パターンを示す。本例では、会社等の職場環境において、利用者Aは対象者H1であり被害者側であり、利用者Bは他者H2であり加害者側である。図7中の縦方向は概略的に時系列を示す。会話内容として、利用者Bが、利用者Aに対し、パワハラ等の有害行為に係わるワードw1(例「コナクテイイヨ」等の罵倒)を発声している。このワードw1には、感情認識に基づいて、感情e1(例:怒り)が対応付けられる。利用者Aは、利用者Bのワードw1に対し、言い返すことはできず我慢し、応答としては沈黙している。そのため、この時のワードおよび感情のデータは得られないが、バイタルデータv1は得られる。バイタルデータv1には、この状況のストレスが反映されている。例えば、脈拍数や体温は、平常時の値との偏差が大きい状態となる。このように、第1パターンの場合、データとして、他者H2のワードw1、感情e1、および対象者H1本人のバイタルデータv1という3つの要素のデータが得られる。
(B)は、同様に第2パターンを示す。会話内容として、利用者Bが、利用者Aに対し、パワハラ等の有害行為に係わるワードw2(例「コノヤロウ」等の罵倒)を発声している。このワードw2には、感情認識に基づいて、感情e2(例:怒り)が対応付けられる。利用者Aは、利用者Bのワードw2に対し、応答として、ワードw3(例「スイマセン」)を発声している。ワードw3には、感情認識に基づいて、感情e3(例:哀しみ)が対応付けられ、また、この時のバイタルデータv3が得られる。感情e3やバイタルデータv3には、この状況のストレスが反映されている。この場合、データとして、他者H2のワードw2、感情e2、対象者H1のワードw3、感情e3、およびバイタルデータv3という5つの要素のデータが得られる。また、その後、利用者Aは、一人の状況で、ネガティブワードの呟き等に対応するワードw4(例「シニタイ」)を発声している。このワードw4には、感情e4(例:哀しみ)が対応付けられ、バイタルデータv4が得られる。このように、第2パターンの場合、少なくとも、対象者H1のワード、感情、およびバイタルデータという3つの要素が得られ、さらに、他者H2のワード、感情、対象者H1のワード、感情、およびバイタルデータという5つの要素が得られる。
第1パターンの場合の分析例は以下の通りである。まず、他者H2のワードw1と感情e1との組合せから指標値が計算できる。さらに、他者H2のワードw1と感情e1と対象者H1のバイタルデータv1との組合せからも指標値が計算できる。いずれかの指標値から、その時の危険度x1が計算できる。サーバ2は、危険度x1を閾値と比較してレベルを判断し、レベルに応じた対処を決定できる。
第2パターンの場合の分析例は以下の通りである。まず、他者H2のワードw2と感情e2との組合せから指標値が計算できる。また、対象者H1のワードw3と感情e3とバイタルデータv3との組合せから指標値が計算できる。さらに、他者H2のワードw2と感情e2と対象者H1のワードw3と感情e3とバイタルデータv3との5つの要素の組合せから指標値が計算できる。いずれかの指標値から、その時の危険度x3が計算できる。サーバ2は、危険度x3を閾値と比較してレベルを判断し、レベルに応じた対処を決定できる。同様に、次の時点では、対象者H1のワードw4と感情e4とバイタルデータv4との組合せから指標値が計算でき、その指標値から、その時点の更新された危険度x4が計算できる。サーバ2は、危険度x4を閾値と比較してレベルを判断し、レベルに応じた対処を決定できる。
上記分析例のように、実施の形態1の有害行為検出システムは、複数の要素の組合せで指標値や危険度を計算することで、有害行為の可能性や対象者H1の状態を高精度に推定できる。有害行為検出システムは、対象者H1の発声が無い第1パターンの場合や、対象者H1の発声が有る第2パターンの場合に応じた、それぞれの分析処理を行う機能を有し、いずれのパターンにも対処が可能である。また、有害行為検出システムは、扱うパターンや要素の設定が可能である。
[取得データテーブル]
図8は、対象者H1の情報端末1からの送信データD1に基づいてサーバ2のDB50の状態DB52内に取得可能である、時系列のデータを格納するテーブルの構成例を示す。このテーブルは、行番号(#)の方向が時系列に対応し、各行は、時点毎に取得されるデータ群を示し、各列は、データの要素等に対応する。なお、本例では、このテーブルにおける取得データは、指標値のみならず、ワード、感情、バイタルデータ等の要素も格納される場合を示している。送信データD1にワード等が含まれる方式の場合には、サーバ2は、状態DB52のテーブルに、ワード等を含む取得データを格納する。送信データD1にワード等が含まれない方式の場合には、情報端末1とサーバ2とで分担し、情報端末1側のDBのテーブルに一部のデータが格納され、サーバ2側のDBのテーブルに他の一部のデータが格納される。
このテーブルは、列に対応する項目として、行番号(#)、日付、時間、位置、ワード、発声者声紋、発声者感情、体温、体温偏差、脈拍数、脈拍数偏差、指標値(危険度)を有する。また、図示しないが、テーブルには、対象者H1の平常時の体温(例えば36℃)および脈拍数(例えば65)も設定されている。「日付」および「時間」項目は前述の日時情報(年月日時分)に対応する。「位置」項目は、前述の位置情報に対応し、ここでは抽象化した緯度および経度を示す。「ワード」項目は、前述の音声情報のワードに対応する。「発声者声紋」項目は、前述の声紋情報に対応し、発声者の区別または識別の利用者IDを示す。例えば対象者H1本人は利用者ID=Aである。「発声者感情」項目は、前述の感情情報に対応し、平常/喜/怒/哀/楽の5種類の値を示す。「体温」項目は、前述のバイタルデータのうちの体温データ項目に対応する。「体温偏差」項目は、対象者H1の「体温」値と、予め設定された平常時の体温値との偏差を示す。「脈拍数」項目は、前述のバイタルデータのうちの脈拍数データ項目に対応する。「脈拍数偏差」項目は、対象者H1の「脈拍数」値と、予め設定された平常時の脈拍数値との偏差を示す。
「指標値(危険度)」項目は、時点毎の有害行為の可能性や状態を表す指標値である。各時点での指標値は、ワード、感情、バイタルデータ等の要素から計算された値であり、基本的には、有害行為の可能性が低いほど正に大きい値となり、有害行為の可能性が高いほど負に大きい値となるように計算されている。「合計」行の「指標値」は、同じ対象者H1に関する、各時点の指標値の合計値であり、最新時点の対象者H1の状態に関する危険度を示す。実施の形態1では、この合計の指標値である危険度を対処の判定に用いる。このテーブルには、対象者H1毎に同様にデータが格納され、対象者H1毎の現在の状態が保持されている。
[条件]
図9は、さらに、指標値および危険度の計算に関する条件の設定例を示す。実施の形態1の有害行為検出システムにはこの条件が予め設定されている。(A)は、指標値の計算式を示す。基本的な指標値の計算式は、[指標値(S)]=([ワード評価値(W)]+[バイタル評価値(V)])×[感情評価値(E)]である。指標値を記号S、ワード評価値を記号W、バイタル評価値を記号V、感情評価値を記号Eでも示す。すなわち、この計算式は、発声者のワードに関する評価値と、対象者H2のバイタルデータに関する評価値との両方に対し、発声者の感情に関する評価値を係数として乗算するようにして、複合的な評価を行う式である。具体例では、バイタルデータに2つの項目(体温、脈拍数)があるので、その場合、体温評価値をV1、脈拍数評価値をV2とすると、計算式は、S=(W+V1+V2)×Eとなる。3つ以上の項目を用いる場合も同様に可能である。
なお、他の実施の形態では、指標値の計算式を他の式とすることも可能である。例えば、ワード評価を用いない場合、W=0として、計算式は、S=V×Eとすることができる。バイタルデータ評価を用いない場合、V=0として、計算式は、S=W×Eとすることができる。感情評価を用いない場合、E=1として、計算式は、S=(W+V)とすることができる。また、ワードとバイタルとの関係を評価する方式とする場合には、S=W+Vとする以外にも、S=W×Vとしてもよい。また、各要素に重み付けを持たせる方式とする場合には、要素毎の係数(Cw,Cv,Ce)を用いて、例えば、S=(Cw×W+Cv×V)×(Ce×E)のようにしてもよい。なお、このような他の方式を用いる場合には、それに合わせて評価体系(設定表)を異なるものに設定すればよい。
(B)は、条件に関する設定表の1つとして、ワード評価に関する設定表を示す。この表には、予め、発声内容から有害行為を推定するためのキーワードが設定されている。この表は、列として、発声者、キーワード、ワード評価値(W)を有する。「発声者」項目は、対象者H1本人と他者H2との区別を示す。「キーワード」項目は、有害行為の可能性を表すキーワードを示す。「ワード評価値(W)」は、発声者のワードがそのキーワードに該当する場合の、有害行為の可能性に関する評価値を示す。例えば、他者H2のワード「バカヤロウ」の場合、W=-0.5となる。対象者H1本人のワード「シニタイ」の場合、W=-1.5となる。未登録のワードの場合、W=0となる。
(C)は、条件に関する設定表の1つとして、バイタル評価、特に体温評価に関する設定表を示す。この表は、列として、体温偏差範囲、体温評価値(V1)を有する。「体温偏差範囲」項目は、対象者H1のその時の体温と設定された平常時の体温との偏差に関する閾値範囲を示す。「体温評価値(V1)」は、対象者H1のその時の体温による体温偏差が、「体温偏差範囲」に該当する場合の、有害行為の可能性に関する評価値を示す。例えば、体温偏差が0以上で0.2以下の範囲内の場合にはV1=0、0.3以上で0.5以下の範囲内の場合にはV1=-0.25、といったように、偏差が大きいほど負の大きな値となる。
(D)は、同様に、特に脈拍数評価に関する設定表を示す。この表は、列として、脈拍数偏差範囲、脈拍数評価値(V2)を有する。「脈拍数偏差範囲」項目は、対象者H1のその時の脈拍数と設定された平常時の脈拍数との偏差に関する閾値範囲を示す。「脈拍数評価値(V2)」は、対象者H1のその時の脈拍数による脈拍数偏差が、「脈拍数偏差範囲」に該当する場合の、有害行為の可能性に関する評価値を示す。
(E)は、条件に関する設定表の1つとして、感情評価に関する設定表を示す。この表は、列として、発声者感情、感情評価値(E)を有する。「発声者感情」項目は、発声者(対象者H1または他者H2)の感情の分類の5種類の値(平常/喜/怒/哀/楽)を示す。感情評価値(E)は、発声者のその時の感情が、「発声者感情」の値に該当する場合の、有害行為の可能性に関する評価値を示し、前述の計算式の係数となる。例えば、発声者の感情が「平常」である場合にはE=1、「喜」である場合にはE=0.2、「怒」である場合にはE=1.3、「哀」である場合にはE=1.3、「楽」である場合にはE=0.2、となる。
[危険度および対処の判定]
図9の(F)は、さらに、危険度から対処を判定する際の条件の設定表を示す。この表は、列として、危険度範囲、レベル、対処種類を有する。「危険度範囲」項目は、危険度の閾値範囲を示す。「レベル」項目は、「危険度範囲」に対応付けられたレベルを示す。「対処種類」項目は、「レベル」に対応付けられた対処(言い換えると対処行動)の種類を示す。実施の形態1では、主に、4つのレベルおよび対処種類が設定されている。危険度のレベルが高いほど、危険性や可能性が高いことを表している。本例では、危険度が、0以上の範囲に該当する場合には、レベル1に相当し、第1対処に決定される。危険度が、-10以上で0未満の範囲に該当する場合には、レベル2に相当し、第2対処に決定される。危険度が、-20以上で-10未満の範囲に該当する場合には、レベル3に相当し、第3対処に決定される。危険度が、-20未満の範囲に該当する場合には、レベル4に相当し、第4対処に決定される。
レベル1は、平常、問題無しであり、第1対処は、状態の情報の記録のみとし、契約者端末3に対する即時の通知等は行われない。なお、変形例として、第1対処を、契約者端末3への平常の状態に関する通知としてもよい。レベル2は、注意、要観察を表し、第2対処は、契約者端末3に対する注意の旨の通知であり、即時の通知または定期的なレポートとして行われる。レベル3は、警告を表し、第3対処は、契約者端末3に対する即時の警告の旨の通知である。レベル4は、重大な危険を表し、第4対処は、契約者端末3に対する即時の通知と共に、警備員H4の派遣である。
[ユーザ設定]
実施の形態1の有害行為検出システムは、職場環境、あるいは対象者H1や契約者H3毎に、有害行為の検出に係わる判定条件等を設定可能である。有害行為検出システムには、図9の例のように基本的な判定条件が設定されている。さらに、変形例としては、対象者H1や契約者H3毎に、ユーザ設定に応じて、その判定条件の閾値等を変更可能である。これにより、利用者毎の意図や個人差(ストレス耐性等)に応じて調整された判定条件とすることができる。
例として、図9の(F)の判定条件に関して、危険度範囲の閾値を変更してもよい。例えば、利用者A1の場合に、危険度範囲の閾値が上下に調整される。例えば、レベル2とレベル3の境界が、-10ではなく、-15または-5等に変更される。他の例として、対処の変更も可能である。例えば、利用者A2の場合に、レベル4の第4対処として、「警備員派遣」とするのではなく、「警告の通知」とすることができる。あるいは、第4対処を、「契約者に確認および了承後に警備員派遣」にすることができる。職場環境によっては、第4対処を「警察へ通報」とすることもできる。
[対処データ出力]
実施の形態1の有害行為検出システムの有害行為検出機能は、有害行為に関して、即時の検出、通知、対処動作を行う機能を含む。例えば、対処が、第2対処や第3対処のように、通知である場合に関して、以下の構成を有する。
対処が、第2対処である場合で、定期的なレポートを送信する場合には、以下の構成を有する。サーバ2は、レポートに、対象者H1および契約者H3毎に予め設定された種類の情報を記載する。例えば、レポートには、対象者H1のID、日時、位置、危険度、所定のメッセージ、等の情報を含む。サーバ2は、状態DB52に基づいて、例えば、1日、1週間等の所定の期間の単位で、状態や結果を集計し、レポートに記載する。サーバ2は、定期のタイミングで、レポートを契約者端末3へ送信する。集計情報は、有害行為の回数、頻度、平均値等を含んでもよいし、グラフを含んでもよい。レポートデータがWebページで構成されてサーバ2に保持され、契約者端末3等からサーバ2上のレポートデータを閲覧する方式としてもよい。
対処が、第3対処である場合で、即時に警告を通知する場合には、以下の構成を有する。サーバ2は、即時に、警告の通知情報を、契約者端末3へ送信する。この通知情報には、対象者H1および契約者H3毎に予めユーザ設定された種類の情報内容が記載される。例えば、この通知情報には、対象者H1のID、日時、位置、危険度、および所定の警告メッセージ(例えば「利用者Aさんはパワハラを受けている可能性が高いと推測されます。」)等の情報を含む。
対処が、第4対処である警備員派遣である場合には、以下の構成を有する。サーバ2には、予め、派遣の対象となる警備員H4等の人の連絡先等の情報が設定されている。サーバ2は、契約者端末3へ通知すると共に、電話やメール等を用いて警備員H4の連絡先へ、派遣の指示の連絡を行う。この指示には、対象者H1等がいる場所やエリアの情報を含む。警備員H4は、その指示に従って、対象者H1等がいる現場へ向かい、調停等を行う。他の対処の例としては、即時に警察に通報することも可能である。
サーバ2は、加害者の推定ができている場合には、設定に応じて、対処データD2内に、被害者情報だけでなく、加害者情報を記載してもよい。
[分析例]
図8のデータや図9の条件を用いた分析の例は以下の通りである。なお、図8のデータ例は、図7の(A)の第1パターンに対応している。図8のテーブルで、第1行の時点では、他者H2である利用者Bが例えば「バカヤロウ」と発声し、その時の感情は平常である。それに対し、対象者H1である利用者Aの体温偏差が0、脈拍数偏差が1である。この時の各データの状態から、図9の条件に基づいて、ワード評価値(W)は-0.5となり、感情評価値(E)は1となり、バイタル評価値(V)は、V1=0、V2=0となる。指標値(S)は、式から、S=(W+V1+V2)×E=(-0.5+0+0)×1=-0.5となる。同様に、第2行の時点では、他者H2である利用者Cが例えば「バカヤロウ」と発声し、その時の感情は怒りである。それに対し、対象者H1の体温偏差が1、脈拍数偏差が10である。この時、W=-0.5、E=1.3、V1=-0.5、V2=-0.5となる。指標値(S)は、S=(-0.5-0.5-0.5)×1.3=-1.95となる。
第3行の時点では、別の位置であり、不明な他者が例えば「フザケルナ」と発声し、その時の感情は怒りである。それに対し、対象者H1の体温偏差が0、脈拍数偏差が12である。この時、W=-0.3、E=1.3、V1=0、V2=-0.75となる。指標値(S)は、S=(-0.3+0-0.75)×1.3=-1.365となる。第4行の時点では、他者H2である利用者Bが例えば「コノヤロウ」と発声し、その時の感情は喜びである。それに対し、対象者H1の体温偏差が0、脈拍数偏差が0である。この時、W=-0.5、E=0.2、V1=0、V2=0となる。指標値(S)は、S=(-0.5+0+0)×0.2=-0.1となる。第5行の時点では、他者H2である利用者DがキーワードDBには未登録のワードを発声し、その時の感情は怒りである。それに対し、対象者H1の体温偏差が0.5、脈拍数偏差が5である。この時、W=0、E=1.3、V1=-0.25、V2=-0.25となる。指標値(S)は、S=(0-0.25-0.25)×1.3=-0.65となる。
その後、第24行の時点で、対象者H1である利用者Aは、ワード「クルシイ」を発声し、その時の感情は哀しみである。その時の体温偏差が1、脈拍数偏差が5である。この時、W=-0.5、E=1.3、V1=-0.5、V2=-0.25となる。指標値(S)は、S=(-0.5-0.5-0.25)×1.3=-1.625となる。第25行の時点で、対象者H1は、未登録のワードを発声し、その時の感情は哀しみである。その時の体温偏差が1、脈拍数偏差が10である。この時、W=0、E=1.3、V1=-0.5、V2=-0.5となる。指標値(S)は、S=(0-0.5-0.5)×1.3=-1.3となる。第26行の時点で、対象者H1は、ワード「シニタイ」を発声し、その時の感情は哀しみである。その時の体温偏差が1、脈拍数偏差が13である。この時、W=-1.5、E=1.3、V1=-0.5、V2=-0.75となる。指標値(S)は、S=(-1.5-0.5-0.75)×1.3=-3.575となる。
サーバ2は、時点毎に危険度を計算する。例えば、第26行までの時点で、危険度は、第1行から第26行までの指標値の合計として、(-0.5-1.95……-3.575)=-11.065となる。サーバ2は、図9の判定条件に基づいて、その危険度が、レベル3の危険度範囲に該当するので、第3対処に決定する。
[追加機能-音声データの記録や消去]
実施の形態1の有害行為検出システムは、他の機能として以下の追加機能を有する。追加機能では、情報端末1またはサーバ2は、取得された音声データ等の各データを、ユーザ設定に応じて、証拠用に記録して残しておいてもよいし、自動的に消去するようにしてもよい。
利用者は、後での音声データの利用を考慮する場合、上記記録の設定にできる。この設定の場合、例えば、前述の図1や図6の構成で、情報端末1は、内部のメモリ等に、音声データを記録して保持する。あるいは、サーバ2は、DB50内に、音声データを記録して保持する。これらの記録される音声データは、対象者H1毎に、ID、日時、位置、音声情報、指標値、対処データD2等と関連付けた状態で履歴として管理される。利用者は、後で確認等のために音声データを参照したい場合、所定の入力操作(例えば日時等の条件の指定)を行う。これに応じて、情報端末1内またはサーバ2内から、該当する音声データおよびそれに関連する情報が読み出され、再生や表示ができる。契約者H3等は、それらの音声データや情報を確認することで、パワハラ等の行為に関する確認を行うことができる。音声データ等がサーバ2側のDB50に保持される場合、第三者に対応する事業者側に利用者のデータをセキュアに保持でき、後で確認等に利用可能である。
上記消去の設定の場合、情報端末1またはサーバ2は、必要な処理後の音声データを消去する。この場合、情報端末1またはサーバ2のメモリ使用量を削減できる。利用者は、音声を含むプライバシーを気にする場合には、このように音声データを消去する設定にできる。
[追加機能-時間・場所の限定]
実施の形態1では、有害行為検出機能に係わる音声データ取得や送信データ作成等の基本的な処理を、ユーザ設定に基づいて基本的に常時に行う構成とした。情報端末1は、ユーザ設定に応じて、常時に音声を入力し音声データを取得することもできるし、限定された時間のみに音声データを取得することもできる。後者の設定は、例えば以下のような構成例が挙げられる。第1構成例として、予めユーザ設定で、対象者H1および契約者H3毎に、音声を取得する対象となる日時(時間帯を含む)および場所等が設定される。例えば、場所は、対象者H1が属する会社の位置を中心とした範囲に限定され、日時は、その会社の就業日時に限定される。例えば、情報端末1は、既存のセンサ等を用いて、現在の日時や場所の状態が、設定された日時や場所の条件に該当するかを確認する。情報端末1は、該当する場合のみに、有害行為検出機能を自動的にオン状態に切り替え、前述の音声データ取得等の処理を実行する。情報端末1は、条件を満たさない場合には、自動的にオフ状態に切り替える。この設定の場合、情報端末1の処理量やバッテリ使用量を削減できる。
第2構成例として、情報端末1は、音声入力機能をオン状態とした前提で、マイクからの入力音声の音量が、所定の音量閾値以上となるか、またはその音量状態が所定時間以上継続するかを判断する。情報端末1は、その条件を満たす場合には、有害行為検出機能をオン状態にし、前述の処理を実行する。情報端末1は、条件を満たさない場合には、自動的にオフ状態に切り替える。この設定の場合、同様に、情報端末1の処理量やバッテリ使用量を削減できる。この設定の場合、例えば他者H2が大声で罵倒等の発声をした場合、それがトリガとなって処理が実行される。
[効果等]
上記のように、実施の形態1の有害行為検出システムによれば、例えば会社でのパワハラ等の有害行為に関する可能性を推定して検出でき、対処を支援することができる。実施の形態1の有害行為検出システムによれば、被害者および加害者の検出やケアができ、有害行為の抑止や早期検出ができ、職場環境の改善や悪化防止等に寄与できる。実施の形態1の有害行為検出システムによれば、個人の対象者H1が有害行為から自己を守ることができる。実施の形態1の有害行為検出システムによれば、加害者や被害者に自覚が無い場合でも、パワハラ等の可能性を指摘することができ、有害行為の防止や意識改善ができる。このシステムによれば、有害行為をリアルタイムで検出し対処が可能であり、事件等に至る前に防止できる。このシステムによれば、第三者の観点から有害行為を評価でき、対処が可能である。
他の実施の形態として以下も可能である。実施の形態1では、事業者のサーバ2は、通信網5上に存在し、複数の職場環境と通信接続され、複数の対象者H1に対しサービスを提供する。これに限らず、サーバ2は、ある特定の職場環境内でLAN等に設けられるサーバとしてもよい。すなわち、ある職場環境においてクライアントサーバ方式で前述の機能が実現されてもよい。また、有害行為検出システムを構成する計算機が、主に情報端末1とサーバ2とで構成される場合を示したが、これに限らず、さらに他の連携する装置(例えばLAN上のサーバ)が設けられてもよい。また、事業者のサーバ2は、複数の対象者H1の情報端末1からのデータを集積し、例えば統計処理等の分析処理を行ってもよい。これにより、DB50の設定情報、例えば判定条件が更新されてもよい。分析は、例えば、年齢・性別・職種等の属性の分析を含んでもよい。また、例えば店舗等の職場環境に監視カメラシステム等が設置されている場合には、有害行為検出システムは、監視カメラの映像データを取得し、前述のデータと併用して、分析を行ってもよい。
変形例として、図1での契約者H3が対象者H1と同じである形態も可能である。この場合、サーバ2からの通知等の対処データD2の出力の際には、対象者H1の情報端末2へ送信されることになる。
変形例として、音声に基づいた分析処理の際に、音量等のパラメータを併用してもよい。例えば、他者H2のワードの音量が閾値以上である場合や、ワード間の音量差が大きい場合、その分評価値を大きくする等の方式としてもよい。
[変形例-複数の対象者]
図10は、実施の形態1の変形例の有害行為検出システムにおいて、ある職場環境に複数の対象者H1が存在する利用形態を示す。例えば、会社内のある部署の全ての社員が、それぞれ対象者H1となる。契約者H3は、例えばそれらの複数の社員との関係を持つ経営者や総務部担当者等の規定の人である。契約者H3は、各社員のパワハラ等の行為を抑止および検出できるように、このサービスを利用する。この利用形態の場合、各社員が同様に情報端末1を所持する。この利用形態の場合、導入時点で、有害行為に関する相応の抑止効果が得られる。さらに、この利用形態では、社員が自覚無くパワハラ等を行っている場合や受けている場合でも、その有害行為の可能性を検出し、指摘することができる。また、この形態では、被害者側の情報端末1からの送信データD1と、加害者側の情報端末1からの送信データD1との両方が得られるので、被害者と加害者との両方を考慮して、有害行為に関する推定や判定が可能である。
図10の例では、複数の対象者H1として、社員である利用者A,B,C,D等を有する。各対象者H1は、情報端末1を持つ。例えば、利用者Aは情報端末1Aを持ち、利用者Bは情報端末1Bを持つ。各情報端末1およびサーバ2の構成は例えば図6の場合と同様である。本例では、ある時点での有害行為に関して、利用者Aが被害者、利用者Bが加害者であるとする。
有害行為の発生の状況において、利用者Aの情報端末1Aは、音声入力に基づいて、送信データD1Aを構成し、サーバ2へ送信する。利用者Bの情報端末1Bは、音声入力に基づいて、送信データD1Bを構成し、サーバ2へ送信する。サーバ2は、送信データD1Aおよび送信データD1Bを受信し、それぞれの対象者H1(利用者A,B)に関して、危険度を判定し、それぞれの対処を決定し、それぞれの対処データD2(D2A,D2B)を作成する。例えば、サーバ2は、契約者端末3等に対し、対処データD2(D2A,D2B)を送信する。
また、この構成例では、サーバ2は、情報端末1Aに対処データD2Aを送信し、情報端末1Bに対処データD2Bを送信してもよい。各情報端末1に送信される対処データD2は、その利用者の状態に応じた内容を持ち、異なっていてもよい。例えば、利用者Aに対しては有害行為の被害者の可能性を伝えるメッセージが通知され、利用者Bに対しては有害行為の加害者の可能性を伝えるメッセージが通知される。この変形例によれば、職場環境の複数の人に関して、被害者および加害者の両方に関して検出およびケアすることができる。
(実施の形態2)
図11を用いて、本発明の実施の形態2の有害行為検出システムについて説明する。以下では、実施の形態2等における実施の形態1とは異なる構成部分について説明する。実施の形態1は、情報端末1とサーバ2との間で連携し処理を分担する構成とした。この分担は、各種の構成が可能である。実施の形態2は、有害行為検出機能に係わる主要な処理をサーバ2で行う構成とする。
図11は、実施の形態2の有害行為検出システムの構成を示す。情報端末1は、前述の図6の構成に対し、異なる構成点としては、音声データ処理部13や指標値計算部17を備えない。情報端末1のデータ作成送信部18は、音声データ、日時、位置、バイタルデータ等を取得し、それらのデータを含む送信データD1を構成し、暗号化等を行って、サーバ2へ送信する。実施の形態2では、通信網5上、音声データを含む送信データD1が転送される。
サーバ2は、前述の図6の構成に対し、音声データ処理部25、および指標値計算部26が追加されている。音声データ処理部25は、送信データD1に含まれる音声データに基づいて、前述と同様の処理によって、声紋情報、音声情報、および感情情報を取得する。指標値計算部26は、前述と同様に複数の要素の組合せの分析に基づいて、指標値を計算する。分析部23は、指標値計算部26で計算した指標値を用いて危険度を判定する。DB50には、顧客DB51、状態DB52、履歴DB53、声紋DB54、感情DB55、キーワードDB56等を含んでいる。サーバ2側のDB50には、複数の利用者に係わる情報が格納されている。
上記のように、実施の形態2の有害行為検出システムによっても、実施の形態1と類似の効果が得られる。
(実施の形態3)
図12を用いて、本発明の実施の形態3の有害行為検出システムについて説明する。実施の形態3は、有害行為検出機能に係わる主要な処理を情報端末1で行う構成とする。
図12は、実施の形態3の有害行為検出システムの構成を示す。情報端末1は、前述の図6の構成に対し、分析部31、対処動作部32、通信部33、表示部34、およびDB60を備える。分析部31は、指標値計算部17で計算された指標値を用いて危険度を判定する。対処動作部32は、危険度に応じて対処を決定し、対処データD2を作成し、通知やレポート等の動作を制御する。通信部33は、対処動作部32からの制御に基づいて、サーバ2との通信や、契約者端末3との通信、警備員H4への連絡等を行う。また、表示部34は、ディスプレイに、対処データD2の通知やレポート等の情報を表示する。
DB60は、サーバ2側のDB50と対応しており、日時、位置、音声データ、声紋情報、音声情報、感情情報、バイタルデータ、および指標値や危険度等の各種のデータが関連付けられて保持される。情報端末1側のDB60には、ある利用者(対象者H1)に係わる情報が格納されている。実施の形態3の構成では、前述の送信データD1は無く、代わりにサーバ2への通知情報D6等がある。通知情報D6は、情報端末1でのサービス利用の状態等を通知する情報である。なお、通知情報D6に、指標値や危険度の情報を含ませてもよいし、対処動作を実行したことを表す対処情報を含ませてもよい。
サーバ2は、前述の図6の構成に対し、分析部23や対処動作部24を備えず、サービス処理部29を備える。サービス処理部29は、複数の各情報端末1からのアクセスを受け付けて、サービス利用契約およびユーザ設定等の処理を行い、DB50に設定情報等を格納する。また、サービス処理部29は、各情報端末1からの通知情報D6を取得し、サービス利用状態や履歴等の情報をDB50内に格納する。
上記のように、実施の形態3の有害行為検出システムによっても、実施の形態1や2と類似の効果が得られる。
1…情報端末、2…サーバ、3…契約者端末、5…通信網、H1…対象者、H2…他者、H3…契約者、H4…警備員、D1…送信データ、D2…対処データ。

Claims (7)

  1. 職場環境における人の間でのパワーハラスメント、セクシャルハラスメント、およびいじめを含む有害行為に関する観察および検出を行う計算機を備える有害行為検出システムであって、
    前記計算機は、
    対象者の周囲の音声を入力した音声データと、前記音声データからの音声認識に基づいて抽出した会話内容を表すワードを含む音声情報、前記音声データからの感情認識に基づいて分類した感情を表す感情情報、および前記対象者のバイタルデータの少なくとも1つと、日時情報と、前記対象者の位置情報とを含むデータを取得し、
    前記取得されたデータに基づいて、前記対象者の周囲にいる他者のワードおよび感情と、前記対象者のワード、感情、およびバイタルデータとの5つの要素のうちの少なくとも1つの要素を用いて、前記有害行為に関する指標値を計算し、
    前記指標値に基づいて、前記有害行為の被害者および加害者の少なくとも一方と、前記有害行為の有無または度合いと、を含む前記有害行為の状態を推定し、
    前記推定された状態に応じた前記有害行為への対処のための対処データを出力し、
    前記計算機は、前記取得したワードを、設定されているキーワードと比較し、該当するキーワードに応じて、前記ワードの評価値(W)を計算し、前記取得した感情の値に応じて、前記感情の評価値(E)を計算し、前記取得したバイタルデータの値を、設定されている範囲と比較し、該当する範囲に応じて、前記バイタルデータの評価値(V)を計算し、
    前記計算機は、前記ワードの評価値(W)、前記感情の評価値(E)、および前記バイタルデータの評価値(V)を組み合わせた計算式を用いて、これらの3つの要素を反映した指標値(S)を計算し、
    前記計算機は、時系列上で各時点の前記指標値を計算し、前記各時点の前記指標値の集計によって前記対象者の状態に関する危険度を計算し、予め設定された、前記危険度と前記対処とを関係付けた判定条件に基づいて、前記危険度に応じて前記判定条件から前記対処を決定する、
    有害行為検出システム。
  2. 請求項1記載の有害行為検出システムにおいて、
    前記計算機は、[前記他者の前記ワードの評価値(W)]と[前記対象者の前記バイタルデータの評価値(V)]に対し、[前記他者の前記感情の評価値(E)]を反映する演算によって、前記指標値(S)を計算する、
    有害行為検出システム。
  3. 請求項1記載の有害行為検出システムにおいて、
    前記計算機は、[前記対象者の前記ワードの評価値(W)]と[前記対象者の前記バイタルデータの評価値(V)]に対し、[前記対象者の前記感情の評価値(E)]を反映する演算によって、前記指標値(S)を計算する、
    有害行為検出システム。
  4. 請求項1記載の有害行為検出システムにおいて、
    前記計算機は、前記指標値(S)を、([前記ワードの評価値(W)]+[前記バイタルデータの評価値(V)])×[前記感情の評価値(E)]という計算式によって計算する、
    有害行為検出システム。
  5. 請求項1記載の有害行為検出システムにおいて、
    ユーザ設定に応じて、前記対象者ごとに、個人差を調整するように、前記有害行為の状態の推定に関する判定条件の閾値を設定する、
    有害行為検出システム。
  6. 請求項1記載の有害行為検出システムにおいて、
    前記計算機は、前記危険度を、設定されている複数の閾値範囲と比較し、該当する閾値範囲に応じて、設定されている複数の対処のうちの該当する対処を決定し、決定した対処に応じた前記対処データを作成し、前記対処データを、設定されている契約者端末または連絡先へ送信し、
    前記複数の対処は、注意の通知、警告の通知、定期的なレポート、および警備員派遣を有する、
    有害行為検出システム。
  7. 職場環境における人の間でのパワーハラスメント、セクシャルハラスメント、およびいじめを含む有害行為に関する観察および検出を行う計算機を備える有害行為検出システムにおける有害行為検出方法であって、
    前記計算機によって実行されるステップとして、
    対象者の周囲の音声を入力した音声データと、前記音声データからの音声認識に基づいて抽出した会話内容を表すワードを含む音声情報、前記音声データからの感情認識に基づいて分類した感情を表す感情情報、および前記対象者のバイタルデータの少なくとも1つと、日時情報と、前記対象者の位置情報とを含むデータを取得するステップと、
    前記取得されたデータに基づいて、前記対象者の周囲にいる他者のワードおよび感情と、前記対象者のワード、感情、およびバイタルデータとの5つの要素のうちの少なくとも1つの要素を用いて、前記有害行為に関する指標値を計算するステップと、
    前記指標値に基づいて、前記有害行為の被害者および加害者の少なくとも一方と、前記有害行為の有無または度合いと、を含む前記有害行為の状態を推定するステップと、
    前記推定された状態に応じた前記有害行為への対処のための対処データを出力するステップと、
    前記取得したワードを、設定されているキーワードと比較し、該当するキーワードに応じて、前記ワードの評価値(W)を計算し、前記取得した感情の値に応じて、前記感情の評価値(E)を計算し、前記取得したバイタルデータの値を、設定されている範囲と比較し、該当する範囲に応じて、前記バイタルデータの評価値(V)を計算するステップと、
    を有し、
    前記指標値を計算するステップは、前記ワードの評価値(W)、前記感情の評価値(E)、および前記バイタルデータの評価値(V)を組み合わせた計算式を用いて、これらの3つの要素を反映した指標値(S)を計算するステップであり、
    前記有害行為の状態を推定するステップは、時系列上で各時点の前記指標値を計算し、前記各時点の前記指標値の集計によって前記対象者の状態に関する危険度を計算するステップであり、
    前記対処データを出力するステップは、予め設定された、前記危険度と前記対処とを関係付けた判定条件に基づいて、前記危険度に応じて前記判定条件から前記対処を決定するステップである、
    有害行為検出方法。
JP2019015384A 2019-01-31 2019-01-31 有害行為検出システムおよび方法 Active JP7384558B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019015384A JP7384558B2 (ja) 2019-01-31 2019-01-31 有害行為検出システムおよび方法
PCT/JP2019/044428 WO2020158101A1 (ja) 2019-01-31 2019-11-12 有害行為検出システムおよび方法
EP19913137.6A EP3920126A4 (en) 2019-01-31 2019-11-12 HARMFUL ACT DETECTION SYSTEM AND METHOD
CN201980089940.3A CN113330477A (zh) 2019-01-31 2019-11-12 有害行为检测系统及方法
US17/426,500 US11875817B2 (en) 2019-01-31 2019-11-12 Harmful behavior detecting system and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019015384A JP7384558B2 (ja) 2019-01-31 2019-01-31 有害行為検出システムおよび方法

Publications (2)

Publication Number Publication Date
JP2020123204A JP2020123204A (ja) 2020-08-13
JP7384558B2 true JP7384558B2 (ja) 2023-11-21

Family

ID=71842441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019015384A Active JP7384558B2 (ja) 2019-01-31 2019-01-31 有害行為検出システムおよび方法

Country Status (5)

Country Link
US (1) US11875817B2 (ja)
EP (1) EP3920126A4 (ja)
JP (1) JP7384558B2 (ja)
CN (1) CN113330477A (ja)
WO (1) WO2020158101A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384558B2 (ja) 2019-01-31 2023-11-21 株式会社日立システムズ 有害行為検出システムおよび方法
CN112515673A (zh) * 2020-11-30 2021-03-19 重庆工程职业技术学院 心理危机干预辅助系统
WO2022180855A1 (ja) * 2021-02-26 2022-09-01 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
JP7031913B1 (ja) 2021-04-14 2022-03-08 陽介 大岩 管理サーバ
JP7440844B2 (ja) * 2021-09-30 2024-02-29 株式会社調和技研 情報処理装置及びプログラム
CN115881136B (zh) * 2023-01-30 2023-08-18 深圳市人马互动科技有限公司 校园场景下基于冲突事件的语音信息处理方法及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008060639A (ja) 2006-08-29 2008-03-13 Fujitsu Fsas Inc コールセンタにおけるオペレータ管理システム及びコールセンタにおけるオペレータ管理方法
JP2017213278A (ja) 2016-06-01 2017-12-07 コニカミノルタ株式会社 メンタルヘルス評価装置、該方法および該プログラム
JP2018045545A (ja) 2016-09-16 2018-03-22 パナソニックIpマネジメント株式会社 ストレスマネジメントシステム及びストレスマネジメント方法
JP2018068618A (ja) 2016-10-28 2018-05-10 株式会社東芝 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7999857B2 (en) * 2003-07-25 2011-08-16 Stresscam Operations and Systems Ltd. Voice, lip-reading, face and emotion stress analysis, fuzzy logic intelligent camera system
JP2008165097A (ja) 2006-12-29 2008-07-17 Mariko Kawashima いじめ防止を目的とした音声録音装置および音声データ解析装置
US20100023348A1 (en) * 2008-07-22 2010-01-28 International Business Machines Corporation Remotely taking real-time programmatic actions responsive to health metrics received from worn health monitoring devices
US7974983B2 (en) * 2008-11-13 2011-07-05 Buzzient, Inc. Website network and advertisement analysis using analytic measurement of online social media content
US8788270B2 (en) * 2009-06-16 2014-07-22 University Of Florida Research Foundation, Inc. Apparatus and method for determining an emotion state of a speaker
US20210118323A1 (en) * 2010-06-02 2021-04-22 The Vista Group Llc Method and apparatus for interactive monitoring of emotion during teletherapy
US9887887B2 (en) * 2012-07-09 2018-02-06 Eturi Corp. Information throttle based on compliance with electronic communication rules
US9922537B2 (en) * 2013-08-05 2018-03-20 Tejas Girish Shah Wearable multi-sensory personal safety and tracking device
US9336268B1 (en) * 2015-04-08 2016-05-10 Pearson Education, Inc. Relativistic sentiment analyzer
WO2016170810A1 (ja) * 2015-04-23 2016-10-27 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP6985005B2 (ja) * 2015-10-14 2021-12-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
JP6733901B2 (ja) 2016-05-27 2020-08-05 Necソリューションイノベータ株式会社 心理分析装置、心理分析方法、およびプログラム
JP6906197B2 (ja) * 2017-09-29 2021-07-21 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置及び情報処理プログラム
SG11202004011PA (en) * 2017-12-30 2020-05-28 Kaha Pte Ltd Method and system for indicating a breathing pattern
US10964186B2 (en) * 2018-05-04 2021-03-30 Shiv Prakash Verma Web server based 24/7 care management system for better quality of life to alzheimer, dementia,autistic and assisted living people using artificial intelligent based smart devices
JP2021527517A (ja) * 2018-06-20 2021-10-14 インナー コスモス インク.Inner Cosmos Inc. 気分障害を治療するためのシステムおよび方法
US11195618B2 (en) * 2018-07-12 2021-12-07 International Business Machines Corporation Multi-level machine learning to detect a social media user's possible health issue
JP2021192132A (ja) * 2018-09-07 2021-12-16 ソニーグループ株式会社 情報処理システム、情報処理方法、および、記録媒体
US11636365B2 (en) * 2018-09-13 2023-04-25 International Business Machines Corporation State of emotion time series
JP2020091302A (ja) * 2018-12-03 2020-06-11 本田技研工業株式会社 感情推定装置、感情推定方法、およびプログラム
JP7384558B2 (ja) 2019-01-31 2023-11-21 株式会社日立システムズ 有害行為検出システムおよび方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008060639A (ja) 2006-08-29 2008-03-13 Fujitsu Fsas Inc コールセンタにおけるオペレータ管理システム及びコールセンタにおけるオペレータ管理方法
JP2017213278A (ja) 2016-06-01 2017-12-07 コニカミノルタ株式会社 メンタルヘルス評価装置、該方法および該プログラム
JP2018045545A (ja) 2016-09-16 2018-03-22 パナソニックIpマネジメント株式会社 ストレスマネジメントシステム及びストレスマネジメント方法
JP2018068618A (ja) 2016-10-28 2018-05-10 株式会社東芝 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム

Also Published As

Publication number Publication date
EP3920126A4 (en) 2022-09-28
US20220115032A1 (en) 2022-04-14
JP2020123204A (ja) 2020-08-13
US11875817B2 (en) 2024-01-16
CN113330477A (zh) 2021-08-31
WO2020158101A1 (ja) 2020-08-06
EP3920126A1 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
JP7384558B2 (ja) 有害行為検出システムおよび方法
Young et al. Comparing help-seeking behavior of male and female survivors of sexual assault: A content analysis of a hotline
Senkans et al. Assessing the link between intimate partner violence and postrelationship stalking: A gender-inclusive study
Scheerder et al. Negative outcomes of Internet use: A qualitative analysis in the homes of families with different educational backgrounds
JP6945127B2 (ja) ストレスマネジメントシステム、ストレスマネジメント方法及びコンピュータプログラム
JP5530163B2 (ja) 従業員行動の管理方法及び管理システム
US20020138271A1 (en) System and method for computer analysis of computer generated communications to produce indications and warning of dangerous behavior
Richardson-Foster et al. Police intervention in domestic violence incidents where children are present: Police and children's perspectives
US20150006153A1 (en) System and method for computerized psychological content analysis of computer and media generated communications to produce communications management support, indications and warnings of dangerous behavior, assessment of media images, and personnel selection support
McDonald et al. Intersectional AI: A study of how information science students think about ethics and their impact
Li Post-pandemic privacy law
Buunk et al. Mobbing in schools and hospitals in Uruguay: prevalence and relation to loss of status
McCluskey et al. Video data analysis and police body-worn camera footage
Schwoon et al. Enacting a grand challenge for business and society: Theorizing issue maturation in the media-based public discourse on COVID-19 in three national contexts
Constantinides et al. Good Intentions, Bad Inventions: How Employees Judge Pervasive Technologies in the Workplace
Saxton et al. The police role in domestic homicide prevention: Lessons from a domestic violence death review committee
Hope et al. Impact of using data from electronic protocols in nursing performance management: a qualitative interview study
Fraser-Barbour On the ground insights from disability professionals supporting people with intellectual disability who have experienced sexual violence
Kingston et al. BJGP OPEN
US10380687B2 (en) Trade surveillance and monitoring systems and/or methods
Page Sexual misconduct in UK higher education and the precarity of institutional knowledge
Wondemaghen Policing mental illness: Police use of section 136–Perspectives from police and mental-health nurses
JP6733901B2 (ja) 心理分析装置、心理分析方法、およびプログラム
CA3227997A1 (en) Devices, systems, and methods for intelligent stress level detection
Langer et al. Vocal-stress diary: A longitudinal investigation of the association of everyday work stressors and human voice features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231109

R150 Certificate of patent or registration of utility model

Ref document number: 7384558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150