JPWO2019003882A1 - ヒューマンエラー防止装置、ヒューマンエラー防止方法、プログラム - Google Patents

ヒューマンエラー防止装置、ヒューマンエラー防止方法、プログラム Download PDF

Info

Publication number
JPWO2019003882A1
JPWO2019003882A1 JP2019526763A JP2019526763A JPWO2019003882A1 JP WO2019003882 A1 JPWO2019003882 A1 JP WO2019003882A1 JP 2019526763 A JP2019526763 A JP 2019526763A JP 2019526763 A JP2019526763 A JP 2019526763A JP WO2019003882 A1 JPWO2019003882 A1 JP WO2019003882A1
Authority
JP
Japan
Prior art keywords
work
information
input
human error
error prevention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019526763A
Other languages
English (en)
Other versions
JP6763484B2 (ja
Inventor
隆幸 鈴木
隆幸 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019003882A1 publication Critical patent/JPWO2019003882A1/ja
Application granted granted Critical
Publication of JP6763484B2 publication Critical patent/JP6763484B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

作業を識別する作業識別情報と、前記作業識別情報に対応する前記作業で行われる入力操作に基づく入力情報とを含む、作業実施ユーザの動作に基づく作業情報を取得し、前記入力操作の確認実施ユーザの動作に基づく確認完了情報を取得する取得部と、前記作業情報と前記確認完了情報とに基づいて前記入力操作に対応する処理を行うか否かを判定する判定部と、を備えるヒューマンエラー防止装置。

Description

本発明は、ヒューマンエラー防止装置、ヒューマンエラー防止方法、プログラムに関する。
コンピュータを用いた各種操作においてヒューマンエラーに基づく入力ミス等により適切な操作が行われず、この結果、作業ミスが発生する可能性がある。このようなヒューマンエラーを防止するための装置が望まれている。特許文献1、特許文献2にはユーザの入力操作を補助する技術が開示されている。
特許第5927366号公報 特開2016−35621号公報
しかしながら何れの技術もヒューマンエラーによる入力操作のミスを軽減するものではない。
そこでこの発明は、上述の課題を解決することのできるヒューマンエラー防止装置、ヒューマンエラー防止方法、プログラムを提供することを目的としている。
本発明の第1の態様によれば、ヒューマンエラー防止装置は、作業を識別する作業識別情報と、前記作業識別情報に対応する前記作業で行われる入力操作に基づく入力情報とを含む、作業実施ユーザの動作に基づく作業情報を取得し、前記入力操作の確認実施ユーザの動作に基づく確認完了情報を取得する取得部と、前記作業情報と前記確認完了情報とに基づいて前記入力操作に対応する処理を行うか否かを判定する判定部と、を備える。
本発明の第2の態様によれば、ヒューマンエラー防止方法は、作業を識別する作業識別情報と、前記作業識別情報に対応する前記作業で行われる入力操作に基づく入力情報とを含む、作業実施ユーザの動作に基づく作業情報を取得し、前記入力操作の確認実施ユーザの動作に基づく確認完了情報を取得し、前記作業情報と前記確認完了情報とに基づいて前記入力操作に対応する処理を行うか否かを判定する。
本発明の第3の態様によれば、プログラムは、ヒューマンエラー防止装置のコンピュータに、作業を識別する作業識別情報と、前記作業識別情報に対応する前記作業で行われる入力操作に基づく入力情報とを含む、作業実施ユーザの動作に基づく作業情報を取得し、前記入力操作の確認実施ユーザの動作に基づく確認完了情報を取得し、前記作業情報と前記確認完了情報とに基づいて前記入力操作に対応する処理を行うか否かを判定する、処理を実行させる。
本発明によれば、コンピュータに対する入力操作等の作業のヒューマンエラーをより防止する効果が得られる。
第一実施形態におけるヒューマンエラー防止システムの構成を示すブロック図である。 第一実施形態におけるヒューマンエラー防止装置の機能ブロック図である。 第一実施形態における手順書の例を示す図である。 第一実施形態におけるヒューマンエラー防止装置の処理フローを示す図である。 第二実施形態におけるヒューマンエラー防止システムの構成を示すブロック図である。 第二実施形態におけるヒューマンエラー防止装置の処理フローを示す図である。
以下、一実施形態によるヒューマンエラー防止装置を図面を参照して説明する。図1は第一実施形態におけるヒューマンエラー防止装置を含むヒューマンエラー防止システムの構成を示すブロック図である。
この図で示すようにヒューマンエラー防止システム100は、ヒューマンエラー防止装置1、入力装置2、表示装置3、マイク4、操作対象システム5を備える。
ヒューマンエラー防止装置1は作業実施ユーザの操作対象システム5に対する入力操作におけるヒューマンエラーを軽減、防止する。
入力装置2はキーボードやタッチパネルなどの作業実施ユーザから入力操作を受け付ける装置である。
表示装置3は操作対象システム5の出力情報を表示するモニタなどの装置である。
マイク4は作業実施ユーザや確認実施ユーザの発生した音声(発声)を収集して信号に変換してヒューマンエラー防止装置1に出力する。
操作対象システム5は作業実施ユーザの入力操作による入力装置2から情報を入力し、その情報に基づいて処理を実行する装置である。
ヒューマンエラー防止装置1、操作対象システム5は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(HardDisk Drive)、通信モジュール等を備えるコンピュータである。入力装置2や表示装置3もこれらのハードウェア構成を有するものであってもよい。
図1に示すヒューマンエラー防止システム100は、作業実施ユーザと確認実施ユーザとによって同時に利用される。作業実施ユーザは入力装置2を用いて操作対象システム5を操作するユーザである。確認実施ユーザは、作業実施ユーザによる操作を確認するユーザである。作業実施ユーザと確認実施ユーザとは同じ手順書を確認(視認)する。そして作業実施ユーザが入力装置2に対する入力操作を行う。入力操作が行われた場合には、その入力操作で入力された入力情報を操作対象システム5が取得する。操作対象システム5は表示装置3に入力情報を出力する。作業実施ユーザと確認実施ユーザは表示装置3に表示された入力情報を確認(視認)する。ヒューマンエラー防止装置1は作業実施ユーザの入力操作に基づく入力情報と、確認実施ユーザの確認作業に基づく入力情報とにより、ヒューマンエラーが無いか否かを判定する。
図2は、第一実施形態におけるヒューマンエラー防止装置の機能ブロック図である。
ヒューマンエラー防止装置1は、ヒューマンエラー防止プログラムを記憶しており、当該プログラムを実行する。これによりヒューマンエラー防止装置1は制御部11、取得部12、判定部13、条件テーブル特定部14の機能を備える。
制御部11はヒューマンエラー防止装置1の他の機能部を制御する。
取得部12は、作業実施ユーザの動作に基づく作業情報を、作業実施ユーザが利用する入力装置2等から取得する。作業情報は、作業を識別する作業識別情報と、入力情報とを含む。作業は、例えば、情報の入力操作である。入力情報は、作業識別情報に対応する作業において実行される入力操作に基づく情報である。また取得部12は、作業実施ユーザの入力操作の、確認実施ユーザの動作に基づく確認完了情報を取得する。例えば確認完了情報は確認実施ユーザの音声情報である。マイク4が確認実施ユーザの発した声を入力としてその声を信号に変換し、変換した音声情報をヒューマンエラー防止装置1へ出力する。取得部12は一例として、この音声情報である確認完了情報を取得する。
判定部13は、作業情報と確認完了情報とに基づいて作業実施ユーザの入力操作に対応する処理を行うか否かを判定し、操作対象システム5にその判定結果を出力する。操作対象システム5は、判定部13の判定結果が処理を行うと判定したものである場合、その判定結果に含まれる入力操作の情報に基づく処理を実行する。
条件テーブル特定部14は取得部12の取得した手順書の識別情報に基づいて、自装置の記憶部に記録される条件テーブルを読み取る。
本実施形態によるヒューマンエラー防止装置1は上述の各機能部の処理により、作業実施ユーザが行う入力操作のヒューマンエラーを軽減、または防止する。
図3は、第一実施形態における手順書の例を示す図である。
手順書(図1)は操作対象システム5を操作するために作業実施ユーザや確認実施ユーザが閲覧する文書情報である。一例として手順書には、「項番N」aと、「項番N」aに対応する入力操作によって入力される情報の種別を示す「作業内容を示す情報」bと、その「項番N」aに対応する「入力情報」cが記述されている。また手順書においては各「項番N」aに対応して、確認実施ユーザによる確認作業が必要かどうかを表す「確認作業有無情報」dが記述されている。
図3の例によると、「項番3」aに対応する「作業内容を示す情報」bは、「設定作業」の入力操作において入力される情報であって、「入力情報」cは「set data1」である。また、「項番3」aに対応する「確認作業有無情報」dは、「要確認ステップ」であって、確認作業が必要であることを示す。
<第一実施形態>
図4は第一実施形態におけるヒューマンエラー防止装置の処理フローを示す図である。
次に第一実施形態によるヒューマンエラー防止装置1の処理について順を追って説明する。
作業実施ユーザは手順書を確認しながら操作対象システム5を操作する。操作対象システム5を操作において手順書を確認しながら操作することで、ヒューマンエラーの軽減度が向上する。
作業実施ユーザは手順書の識別情報を口頭で発声する。または作業実施ユーザは手順書の識別情報を入力装置2に入力する。作業実施ユーザが手順書の識別情報を口頭で発した場合、マイク4はその手順書の識別情報の音声を集音し、集音した音を信号に変換した音声信号をヒューマンエラー防止装置1へ出力する。入力装置2が手順書の識別情報を入力し、手順書の識別情報をヒューマンエラー防止装置1へ出力する。ヒューマンエラー防止装置1の取得部12は手順書の識別情報を取得する(ステップS101)。また取得部12は手順書の識別情報を判定部13へ出力する。これによりヒューマンエラー防止装置1は操作対象システム5に入力される入力操作に対応する手順書の識別情報を特定する。
条件テーブル特定部14は、記憶部から手順書の識別情報に対応して記録されている条件テーブルを読み取る(ステップS102)。
条件テーブルは例えば手順書の識別情報毎に、項番、項番に対応する入力情報や、確認作業として取得する項番の一覧やその順序、確認作業有無情報などを対応付けて保持するデータテーブルである。条件テーブルは、図3で示した手順書に記載されている情報が記録されている。また、条件テーブルは、複数の項番(作業識別情報)について、各項番に対応する作業の順序の情報を保持してもよい。つまり、条件テーブルは、複数の入力操作の順序の情報を保持してもよい。なお手順書の識別情報や項番は作業識別情報の一態様である。確認作業有無情報は確認作業が必要「有り」か、必要「無し」かを示す情報である。
作業実施ユーザと確認実施ユーザとは協働して操作対象システム5の操作を開始する。この時、作業実施ユーザは手順書に記載されている項番を口頭で読み上げる。マイク4は作業実施ユーザの発した項番の音声を信号に変換し、変換した信号をヒューマンエラー防止装置1へ出力する。取得部12はマイク4から入力された信号を音声認識処理して項番を検出する(ステップS103)。
また作業実施ユーザは入力装置2に対して読み上げた項番に対応して手順書に記述されている入力情報の入力操作を行う。入力装置2は入力操作に基づく入力情報をヒューマンエラー防止装置1へ出力する。取得部12は入力情報を取得する(ステップS104)。
このように、ヒューマンエラー防止装置1は、作業実施ユーザが発声した項番の情報、作業実施ユーザが入力した入力情報を取得する。ヒューマンエラー防止装置1は、作業実施ユーザの動作にしたがって取得された作業情報を取得する。すなわち、ヒューマンエラー防止装置1は、作業実施ユーザの動作に基づく作業情報を取得する。
ヒューマンエラー防止装置1の取得部12は作業実施ユーザの入力操作により取得した入力情報が実行ボタン以外の情報であるか否かを判定する(ステップS105)。取得部12は、例えば入力情報が実行ボタン以外の情報の入力である場合には(ステップS105のYES)、その入力情報を操作対象システム5に出力する(ステップS106)。操作対象システム5はヒューマンエラー防止装置1から取得した入力情報を表示装置3に出力する。
確認実施ユーザは表示装置3に表示された情報を確認する。表示装置3に表示された情報は、ステップS104において、作業実施ユーザによる入力操作にしたがって入力装置2に入力された情報である。この情報は作業実施ユーザの入力操作による入力情報である。確認実施ユーザは表示装置3に表示された情報と、手順書中の作業実施ユーザが読み上げた項番(ステップS103)に対応する入力情報とが一致するか否かを確認する。確認実施ユーザは、一致する場合には所定の確認完了の言葉を発声する。例えば、確認実施ユーザは「確認。」といった言葉を発声する。マイク4は確認実施ユーザの発声した音声を信号に変換し、変換した信号をヒューマンエラー防止装置1へ出力する。取得部12はマイク4から入力された信号を音声認識処理し、音声信号が確認完了を示す言葉であることを検出する(ステップS107)。
このように、確認実施ユーザは、作業実施ユーザが行った入力操作に基づいて入力された入力情報と、作業実施ユーザが読み上げた項番に対応する手順書中の入力情報とを比較する。確認実施ユーザは、両者が一致する場合に、確認完了を示す音声を発声する。ヒューマンエラー防止装置1は、確認実施ユーザが発した音声にしたがって取得された信号を、確認完了情報として取得する。すなわち、ヒューマンエラー防止装置1は、確認実施ユーザの動作に基づく確認完了情報を取得する。
作業実施ユーザは確認実施ユーザによる確認完了の言葉が発声されたことを確認した後に、入力装置2に実行指示を入力する。実行指示は例えば実行コマンドを入力する操作である。入力装置2は実行指示の情報をヒューマンエラー防止装置1へ出力する。取得部12は実行指示の情報を取得して判定部13へ出力する。実行指示の情報は入力操作による入力情報の一態様である。判定部13は実行指示を取得する(ステップS108)。
または判定部13はステップS105においてステップS104で取得した入力情報が実行指示であると判定した場合には(ステップS105のNO)、ステップS108に遷移する。判定部13は、例えば、入力情報が実行ボタンの入力を示す場合に、実行指示を取得する。
判定部13は実行指示を取得すると、項番(ステップS103)と確認完了を示す言葉(ステップS107)の両方を検出したか否かを判定する(ステップS109)。判定部13は項番と確認完了を示す言葉の両方を検出した場合には(ステップS109のYES)、実行指示を操作対象システム5へ出力すると判定する。このように、判定部13は、作業情報と、確認実施ユーザの動作に基づく確認完了情報とに基づいて入力操作に対応する処理を行うか否かを判定する。
判定部13は実行指示を操作対象システム5へ出力する(ステップS110)。操作対象システム5はヒューマンエラー防止装置1から取得した入力情報と、実行指示とに基づいて、入力情報に対応する処理を実行する。
ステップS109において項番と確認完了を示す言葉の両方を検出していない場合には(ステップS109のNO)、判定部13は警告情報を表示装置3へ出力する(ステップS111)。具体的に、判定部13は実行指示を取得する前に項番を検出していない場合には項番未入力を示す警告情報を出力する。または判定部13は実行指示を取得する前に確認完了を検出していない場合には確認完了未入力であることを示す警告情報を出力する。
上述の処理において判定部13は、ステップS106の入力情報の出力を行う前に、ステップS104で取得した入力情報が、ステップS103で検出した項番に紐づいて条件テーブルに記録されている入力情報と一致するか否かを判定してもよい。そして、判定部13は、一致する場合にのみ入力情報を操作対象システム5に出力し、一致しない場合には警告情報を出力するようにしてもよい。これによりヒューマンエラー防止装置1と確認実施ユーザの両方で、入力情報の確認作業が行われる。
このように、ヒューマンエラー防止装置1は、作業実施ユーザの動作に基づく、作業識別情報及び入力情報を取得する。ヒューマンエラー防止装置1は、取得した作業識別情報に対応して予め記憶された入力情報と、作業実施ユーザの動作に基づく入力情報とが一致する場合に、入力操作に対応する処理を行うと判定してもよい。換言すると、ヒューマンエラー防止装置1は、作業識別情報と入力情報とが所定の対応関係に一致していると判定した場合であって、作業情報と確認完了情報とを取得した場合に、入力操作に対応する処理を行うと判定する。これにより、入力情報の間違いをより効果的に抑制することができる。
上述のヒューマンエラー防止装置1の処理によれば、ヒューマンエラー防止装置1は、作業内容である項番と、その項番に対応する作業内容の入力情報が入力されたことの確認完了の情報の両方のマイク4からの取得を確認できた後に、入力情報に対応する処理の実行を操作対象システム5に指示している。これによりさらにヒューマンエラーの軽減、防止を図ることができる。
このように、ヒューマンエラー防止装置1は、作業実施ユーザの動作に基づく作業情報を取得するとともに、作業情報が示す入力操作の確認実施ユーザの動作に基づく確認完了情報を取得する。ヒューマンエラー防止装置1は、作業情報と確認完了情報とに基づいて入力操作に対応する処理を行うか否かを判定する。これにより、ヒューマンエラー防止装置1は、コンピュータに対する入力操作等の作業のヒューマンエラーを効果的に防止できる。
上述の図1で示すヒューマンエラー防止システム100によればマイク4の1台のみを有する態様を示している。ただし、ヒューマンエラー防止システム100は、作業実施ユーザと確認実施ユーザのそれぞれが異なるマイク4を有していてもよい。例えば作業実施ユーザと確認実施ユーザがそれぞれマイク4に対応するヘッドセットマイクを頭に装着し、ヘッドセットマイクが無線などにより音声信号をヒューマンエラー防止装置1へ送信するような態様であってもよい。
また、上述のヒューマンエラー防止システム100によれば表示装置3を1台のみ有する態様を示している。ただし、ヒューマンエラー防止システム100は、作業実施ユーザと確認実施ユーザのそれぞれに対応する異なる表示装置3を有してもよい。
<第二実施形態>
図5は第二実施形態におけるヒューマンエラー防止装置を含むヒューマンエラー防止システムの構成を示すブロック図である。
図6は第二実施形態におけるヒューマンエラー防止装置の処理フローを示す図である。
次に第二実施形態におけるヒューマンエラー防止装置1の処理について順を追って説明する。
第二実施形態におけるヒューマンエラー防止システム100は、作業実施ユーザの視線を検出する視線カメラ51と、確認実施ユーザの視線を検出する視線カメラ52とをさらに有する点で第一実施形態と異なる。なお第二実施形態におけるヒューマンエラー防止装置1や操作対象システム5のハードウェア構成、機能構成は第一実施形態と同様である。
まず、作業実施ユーザは手順書の識別情報を口頭で発声する。または作業実施ユーザは手順書の識別情報を入力装置2に入力する(入力操作)。作業実施ユーザが手順書の識別情報を口頭で発した場合、マイク4はその手順書の識別情報の音声(発声)を拾い(集音し)、集音した音を信号に変換した音声情報をヒューマンエラー防止装置1へ出力する。または入力装置2が手順書の識別情報をヒューマンエラー防止装置1へ出力する。ヒューマンエラー防止装置1の取得部12は手順書の識別情報を取得する(ステップS201)。また取得部12は手順書の識別情報を判定部13へ出力する。これによりヒューマンエラー防止装置1は操作対象システム5に入力される入力操作に対応する手順書の識別情報を特定する。
判定部13は、記憶部から手順書の識別情報に対応して記録されている条件テーブルを読み取る(ステップS202)。
第一実施形態と同様に、条件テーブルは例えば手順書の識別情報毎に、項番、項番に対応する入力情報や、確認作業として取得する項番の一覧やその順序、確認作業有無情報などを対応付けて保持するデータテーブルである。なお手順書の識別情報や項番は作業識別情報の一態様である。
そして作業実施ユーザと確認実施ユーザとは協働して操作対象システム5の操作を開始する。この時、作業実施ユーザは手順書に記載されている項番を口頭で読み上げる。マイク4は作業実施ユーザの発した項番の音声を信号に変換し、変換した信号をヒューマンエラー防止装置1へ出力する。取得部12はマイク4から入力された信号を音声認識処理して項番を検出する(ステップS203)。
また作業実施ユーザは入力装置2に対して読み上げた項番に対応して手順書に記述されている入力情報の入力操作を行う。入力装置2は入力操作に基づく入力情報をヒューマンエラー防止装置1へ出力する。取得部12は入力情報を取得する(ステップS204)。
この時点で視線カメラ51は作業実施ユーザの視線を検出し、視線の視線方向の情報をヒューマンエラー防止装置1へ送信している。ヒューマンエラー防止装置1の取得部12は作業実施ユーザの視線方向の情報を取得する(ステップS205)。取得部12はステップS203で検出した項番に紐づいて条件テーブルに記録されている確認作業有無情報を読み取る(ステップS206)。
確認作業有無情報は、ヒューマンエラー防止装置1が項番(ステップS203)と確認完了を示す言葉(ステップS210)の両方の入力の有無の確認を行うか否かを判定するための情報である。取得部12は項番に紐づいて条件テーブルに記録されている確認作業有無情報が「無」を示すか「有」を示すかを判定する(ステップS207)。
ステップS207において、取得部12は項番に紐づいて条件テーブルに記録されている確認作業有無情報が「無」を示すと判定した場合には(ステップS207の「無」)、次の処理を行う。すなわち、取得部12は、作業実施ユーザからの実行指示の入力を待機し、下記のステップS212において実行指示を取得する。また、判定部13は、ステップS207と同様に、確認作業有無情報が「無」を示すか「有」を示すかを判定する(ステップS213)。この場合、判定部13は、確認作業無しとして(ステップS213の「無」)処理を進める。取得部12は、ステップS216の処理により直ちに実行指示を操作対象システム5へ出力する。
他方、取得部12は、項番に紐づいて条件テーブルに記録されている確認作業有無情報が「有」を示す場合には(ステップS207の「有」)、以下の処理を進める。
取得部12は作業実施ユーザの入力操作により取得した入力情報が実行ボタン以外の情報であるか否かを判定する(ステップS208)。取得部12は、例えば入力情報が実行ボタン以外の文字入力を示す情報である場合には(ステップS208のYES)、その入力情報を操作対象システム5に出力する(ステップS209)。操作対象システム5はヒューマンエラー防止装置1から取得した入力情報を表示装置3に出力する。
なお、判定部13はステップS208においてステップS204で取得した入力情報が実行指示であると判定した場合には(ステップS208のNO)、ステップS210に遷移する。
確認実施ユーザは手順書に視線方向を向けて、作業実施ユーザが発声した項番に対応する入力情報を確認する。確認実施ユーザは、また表示装置3に出力された作業実施ユーザによる入力情報を確認し、それらが一致しているか否かを判定する。表示装置3に表示された情報と、手順書中の作業実施ユーザが読み上げた項番に対応する入力情報とが一致する場合には、確認実施ユーザは所定の確認完了の言葉を発声する。例えば、確認実施ユーザは「確認。」といった言葉を発声する。マイク4は確認実施ユーザの発声した音声を信号に変換し、変換した信号をヒューマンエラー防止装置1へ出力する。取得部12はマイク4から入力された信号を音声認識処理し、音声信号が確認完了を示す言葉であることを検出する(ステップS210)。
またこの時点で視線カメラ52は確認実施ユーザの視線を検出し、視線の視線方向の情報をヒューマンエラー防止装置1へ送信している。ヒューマンエラー防止装置1の取得部12は確認実施ユーザの視線方向の情報を取得する(ステップS211)。
作業実施ユーザは確認実施ユーザによる確認完了の言葉が発声されたことを確認した後に、入力装置2に実行指示を入力する。実行指示は例えば実行コマンドを入力する操作である。入力装置2は実行指示の情報をヒューマンエラー防止装置1へ出力する。取得部12は実行指示の情報を取得して判定部13へ出力する。実行指示の情報は入力操作による入力情報の一態様である。判定部13は実行指示を取得する(ステップS212)。判定部13は、ステップS207と同様に、確認作業有無情報が「無」を示すか「有」を示すかを判定する(ステップS213)。この時点で判定部13は確認作業有りと判定する(ステップS213の「有」)。すると判定部13は項番(ステップS203)と確認完了を示す言葉(ステップS210)の両方を検出したか否かを判定する(ステップS214)。
判定部13は項番と確認完了を示す言葉の両方を検出した場合には(ステップS214のYES)、作業実施ユーザの視線方向の情報と、確認実施ユーザの視線方向の情報とに基づいて、各ユーザの視線方向が適切であるか否かを判定する(ステップS215)。
具体的には、例えば手順書が置かれる位置や表示装置3が敷設されている位置が予め定まったものである。また各ユーザの座席位置や頭の位置が予めヒューマンエラー防止装置1において記憶した位置である。
このような状態において、各ユーザから手順書の各項番についての入力情報や、表示装置3に表示される入力情報に視線を移した際の視線方向をヒューマンエラー防止装置1が予め記憶している。判定部13は、各項番における各ユーザの適切な視線方向の情報を記憶部等から取得し、その適切な視線方向の情報と、視線カメラ51、52から取得した視線方向の情報とを比較する。
判定部13は視線カメラ51から取得した作業実施ユーザの視線方向に、ステップS203で検出した項番に対応する当該作業実施ユーザの適切な視線方向が含まれる場合には、作業実施ユーザが適切な視線方向を視認したと判定する。同様に判定部13は視線カメラ52から取得した確認実施ユーザの視線方向に、ステップS203で検出した項番に対応する当該確認実施ユーザの適切な視線方向が含まれる場合には、確認実施ユーザが適切な視線方向を視認したと判定する。
判定部13は作業実施ユーザの視線方向と、確認実施ユーザの視線方向の両方が適切であると判定した場合には(ステップS215のYES)、実行指示を操作対象システム5へ出力すると判定する。そして判定部13は実行指示を操作対象システム5へ出力する(ステップS216)。操作対象システム5はヒューマンエラー防止装置1から取得した入力情報と、実行指示とに基づいて、入力情報に対応する処理を実行する。
他方、ステップS214において判定部13が項番と確認完了を示す言葉の両方を検出していない場合や(ステップS214のNO)、ステップS215において各ユーザの少なくとも一方のユーザの視線方向が適切でないと判定した場合には(ステップS215のNO)、判定部13は警告情報を表示装置3へ出力する(ステップS217)。
具体的に、判定部13は実行指示を取得する前に項番を検出していない場合には項番未入力を示す警告情報を出力する。または判定部13は実行指示を取得する前に確認完了を検出していない場合には確認完了未入力であることを示す警告情報を出力する。また判定部13は何れかのユーザの視線方向が適切でない場合には、そのことを示す警告情報を出力する。警告情報は表示装置3に画像として出力してもよいし、スピーカなどから音声により出力してもよい。
第二の実施形態によるヒューマンエラー防止装置1はさらに、作業実施ユーザと確認実施ユーザの少なくとも一方の視線方向を検出する。また、ヒューマンエラー防止装置1は、視線方向が所定の視線方向である場合に入力操作に対応する処理を行うと判定する。すなわち、ヒューマンエラー防止装置1は、作業実施ユーザの視線と、確認実施ユーザの視線が適切な方向を向いているかどうかを判定する。このため、各ユーザが手順書や表示装置3の表示情報の位置を正しく視認しながら作業を行っているか否かを検出する。これにより更にヒューマンエラーの軽減、防止を図ることができる。すなわち、コンピュータに対する入力操作等の作業のヒューマンエラーをより適切に防止することができる。
第二実施形態の処理においては、判定部13は、作業実施ユーザと確認実施ユーザの両ユーザの視線方向を検出している。ただし、少なくとも一方のユーザの視線方向が、所定の適切な視線方向であるか否かを検出するようにしてもよい。
上述の表示装置3、視線カメラ51または52、マイク4は、例えばウェアラブルグラスなどに設けられた機能であってもよい。ヒューマンエラー防止装置1はウェアラブルグラスに設けられた表示機能、視線方向検出機能、音声取得機能と連携して上述の処理を同様に行うようにしてもよい。また手順書は表示装置3に表示されるものであってもよい。
上述の処理の他、次のように処理が行われてもよい。ステップS204において、例えば取得部12が複数の入力情報を順次取得する。また、複数の入力情報の入力順序が作業識別情報に対応する入力順序であることが条件テーブルに記述されている場合に、判定部13はそれら入力情報に対応する処理を操作対象システム5に行わせると判定する。
このように、取得部12は、作業実施ユーザの動作に基づいて、複数の入力操作を示す複数の作業情報を順次取得する。判定部13は、複数の入力操作の入力順序が作業識別情報に対応して記憶される入力順序と一致する場合に、入力操作に対応する処理を行うと判定する。これにより、複数の入力操作の組み合わせにしたがって作業が行われる場合に、ヒューマンエラーをより的確に防止することができる。
上述のヒューマンエラー防止装置1や操作対象システム5は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
この出願は、2017年6月27日に日本出願された特願2017−125138号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明によれば、コンピュータに対する入力操作等の作業のヒューマンエラーをより防止する効果が得られる。
1・・・ヒューマンエラー防止装置
2・・・入力装置
3・・・表示装置
4・・・マイク
5・・・操作対象システム
51,52・・・視線カメラ
11・・・制御部
12・・・取得部
13・・・判定部
14・・・条件テーブル特定部

Claims (6)

  1. 作業を識別する作業識別情報と、前記作業識別情報に対応する前記作業で行われる入力操作に基づく入力情報とを含む、作業実施ユーザの動作に基づく作業情報を取得し、前記入力操作の確認実施ユーザの動作に基づく確認完了情報を取得する取得部と、
    前記作業情報と前記確認完了情報とに基づいて前記入力操作に対応する処理を行うか否かを判定する判定部と、
    を備えるヒューマンエラー防止装置。
  2. 前記判定部は、前記作業情報に含まれる前記作業識別情報と前記入力情報とが所定の対応関係に一致していると判定した場合であって、前記作業情報と前記確認完了情報とを取得した場合に、前記入力操作に対応する処理を行うと判定する
    請求項1に記載のヒューマンエラー防止装置。
  3. 前記作業実施ユーザと前記確認実施ユーザの少なくとも一方の視線方向を検出する視線方向検出部と、をさらに備え、
    前記判定部は、前記視線方向が所定の視線方向である場合に前記入力操作に対応する処理を行うと判定する
    請求項1または請求項2に記載のヒューマンエラー防止装置。
  4. 前記取得部は、複数の前記入力操作を示す複数の前記作業情報を順次取得し、
    前記判定部は前記複数の前記入力操作の入力順序が前記作業識別情報に対応して記憶される入力順序と一致する場合に、前記入力操作に対応する処理を行うと判定する
    請求項1から請求項3の何れか一項に記載のヒューマンエラー防止装置。
  5. 作業を識別する作業識別情報と、前記作業識別情報に対応する前記作業で行われる入力操作に基づく入力情報とを含む、作業実施ユーザの動作に基づく作業情報を取得し、前記入力操作の確認実施ユーザの動作に基づく確認完了情報を取得し、
    前記作業情報と前記確認完了情報とに基づいて前記入力操作に対応する処理を行うか否かを判定する
    ヒューマンエラー防止方法。
  6. ヒューマンエラー防止装置のコンピュータに、
    作業を識別する作業識別情報と、前記作業識別情報に対応する前記作業で行われる入力操作に基づく入力情報とを含む、作業実施ユーザの動作に基づく作業情報を取得し、前記入力操作の確認実施ユーザの動作に基づく確認完了情報を取得し、
    前記作業情報と前記確認完了情報とに基づいて前記入力操作に対応する処理を行うか否かを判定する、
    処理を実行させるプログラム。
JP2019526763A 2017-06-27 2018-06-11 ヒューマンエラー防止装置、ヒューマンエラー防止方法、プログラム Active JP6763484B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017125138 2017-06-27
JP2017125138 2017-06-27
PCT/JP2018/022214 WO2019003882A1 (ja) 2017-06-27 2018-06-11 ヒューマンエラー防止装置、ヒューマンエラー防止方法、プログラム

Publications (2)

Publication Number Publication Date
JPWO2019003882A1 true JPWO2019003882A1 (ja) 2019-12-26
JP6763484B2 JP6763484B2 (ja) 2020-09-30

Family

ID=64742061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019526763A Active JP6763484B2 (ja) 2017-06-27 2018-06-11 ヒューマンエラー防止装置、ヒューマンエラー防止方法、プログラム

Country Status (3)

Country Link
US (1) US20210382735A1 (ja)
JP (1) JP6763484B2 (ja)
WO (1) WO2019003882A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056060A (ja) * 2003-08-01 2005-03-03 Nippon Kayaku Co Ltd 音声入力システムによる化学プラントの誤操作防止方法、装置およびプログラム
JP2009003726A (ja) * 2007-06-22 2009-01-08 Nec Corp 保守装置、保守システム、保守方法、およびプログラム
JP2014182628A (ja) * 2013-03-19 2014-09-29 Nec Corp 空間重要度判定装置、空間重要度判定方法、及びプログラム
JP2017068484A (ja) * 2015-09-29 2017-04-06 株式会社エヌ・ティ・ティ・データ 承認方法、承認システム、承認サーバ、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056060A (ja) * 2003-08-01 2005-03-03 Nippon Kayaku Co Ltd 音声入力システムによる化学プラントの誤操作防止方法、装置およびプログラム
JP2009003726A (ja) * 2007-06-22 2009-01-08 Nec Corp 保守装置、保守システム、保守方法、およびプログラム
JP2014182628A (ja) * 2013-03-19 2014-09-29 Nec Corp 空間重要度判定装置、空間重要度判定方法、及びプログラム
JP2017068484A (ja) * 2015-09-29 2017-04-06 株式会社エヌ・ティ・ティ・データ 承認方法、承認システム、承認サーバ、及びプログラム

Also Published As

Publication number Publication date
JP6763484B2 (ja) 2020-09-30
US20210382735A1 (en) 2021-12-09
WO2019003882A1 (ja) 2019-01-03

Similar Documents

Publication Publication Date Title
US11496827B2 (en) Microphone natural speech capture voice dictation system and method
US20230039067A1 (en) Portable terminal device and information processing system
JP4574390B2 (ja) 音声認識方法
JP2019531538A5 (ja)
US20170243581A1 (en) Using combined audio and vision-based cues for voice command-and-control
JP2004061576A (ja) 音声制御装置
JP2006154724A (ja) 対話システム、対話方法、及びコンピュータプログラム
EP3540565A1 (en) Control method for translation device, translation device, and program
EP3229234A1 (en) System and method to distinguish sources in a multiple audio source environment
US11373635B2 (en) Information processing apparatus that fades system utterance in response to interruption
JP7330066B2 (ja) 音声認識装置、音声認識方法及びそのプログラム
JP2008293252A (ja) 操作システム及び操作システムの制御方法
US10872606B2 (en) Device control apparatus and device control method
JP5462050B2 (ja) 電力系統監視制御装置
JPWO2019003882A1 (ja) ヒューマンエラー防止装置、ヒューマンエラー防止方法、プログラム
JP2018116206A (ja) 音声認識装置、音声認識方法及び音声認識システム
JP7223561B2 (ja) 音声翻訳装置、音声翻訳方法及びそのプログラム
JP2008268517A (ja) 音声認識機能付き操作器
JP2018156050A (ja) 信号処理装置、信号処理方法および音声の対応づけ提示装置
US20210064640A1 (en) Information processing apparatus and information processing method
WO2020116001A1 (ja) 情報処理装置および情報処理方法
US11474505B2 (en) Work support system and work support method
US20230282217A1 (en) Voice registration device, control method, program, and storage medium
JP7103681B2 (ja) 音声認識プログラム、音声認識方法、音声認識装置および音声認識システム
JP7248564B2 (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6763484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150