JP7073122B2 - 電子機器、制御方法及びプログラム - Google Patents

電子機器、制御方法及びプログラム Download PDF

Info

Publication number
JP7073122B2
JP7073122B2 JP2018014662A JP2018014662A JP7073122B2 JP 7073122 B2 JP7073122 B2 JP 7073122B2 JP 2018014662 A JP2018014662 A JP 2018014662A JP 2018014662 A JP2018014662 A JP 2018014662A JP 7073122 B2 JP7073122 B2 JP 7073122B2
Authority
JP
Japan
Prior art keywords
data
display
abnormal operation
electronic device
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018014662A
Other languages
English (en)
Other versions
JP2019133385A (ja
Inventor
林三 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dynabook Inc
Original Assignee
Dynabook Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dynabook Inc filed Critical Dynabook Inc
Priority to JP2018014662A priority Critical patent/JP7073122B2/ja
Priority to US16/036,239 priority patent/US20190236924A1/en
Publication of JP2019133385A publication Critical patent/JP2019133385A/ja
Application granted granted Critical
Publication of JP7073122B2 publication Critical patent/JP7073122B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0446Sensor means for detecting worn on the body to detect changes of posture, e.g. a fall, inclination, acceleration, gait
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0415Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting absence of activity per se
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/001Alarm cancelling procedures or alarm forwarding decisions, e.g. based on absence of alarm confirmation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems

Landscapes

  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Emergency Management (AREA)
  • Health & Medical Sciences (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、作業者の異常動作を検出し通報する電子機器、制御方法、及びプログラムに関する。
保守現場、工場ラインなど危険を伴う場所で作業を行う作業者の安全を確保するために、作業者の作業状態を遠隔監視し、作業者に起こる異常を早期に発見している。例えば、作業者の位置、動きなどを検出可能なセンサを作業者に装着させ、当該センサから得られるデータを解析することにより、作業者に起こる異常を検出する技術がある。
このような技術を用いた遠隔監視システムにおいて、異常が検出された際には、通常その旨が監視センターなどに通報される。しかしながら、直ちに通報が行われると、誤検出が起こった場合には不要な通報が発生することになる。これにより、監視センターの監視効率が低下する。
登録実用新案第3043383号公報 特開2010-218126号公報
本発明が解決しようとする課題は、作業者の異常を検出し、検出結果を適切に通報する電子機器、制御方法及びプログラムを提供することである。
一実施形態に係る電子機器は、作業者が装着可能であり、近接センサ及び接触センサの少なくとも一方と、前記作業者の動きを検知するモーションセンサと、表示手段と、前記近接センサ及び前記接触センサの少なくとも一方により得られる第1のデータに基づいて、前記電子機器が前記作業者により装着中であるか否かを判定する判定手段と、前記判定手段により前記電子機器が装着中であると判定された場合に、前記モーションセンサにより得られる第2のデータを解析することにより、前記作業者の異常動作を異常動作の種類毎に検出する検出手段と、前記異常動作が検出された旨及び作業者の応答を促す旨を、前記異常動作の種類を示すテキスト及び前記作業者が前記応答を可能な時間を示すテキストを含めて、前記表示手段に表示させる表示制御手段と、前記表示手段による表示がなされてから所定期間内に所定の操作を受け付けない場合に、他の機器へ通報を行う通報手段とを備え、前記表示制御手段は、定期的に前記作業者の安全確認を行う旨の表示データを前記表示手段に表示させる
実施形態の電子機器を含む遠隔支援システムの一例を示すブロック図である。 図1中のオペレータ端末12の一例を示すブロック図である。 図1中のモバイルPC16に接続されるウェアラブルデバイス23の外観の一例を示す。 ウェアラブルデバイス23の本体24の外観の一例を示す。 モバイルPC16とウェアラブルデバイス本体24との接続の一例を示す。 ウェアラブルデバイス本体24の一例を示すブロック図である。 モバイルPC16の外観の一例を示す。 モバイルPC16の一例を示すブロック図である。 第1の実施形態における、モバイルPC16及びウェアラブルデバイス本体24が備える処理部の一例を示すブロック図である。 第1の実施形態の自動通報処理の一例を示すフローチャートである。 第1の実施形態の異常動作検出処理の一例を示すフローチャートである。 第1の実施形態における、異常動作検出時の表示画面の一例を示す図である。 第2の実施形態における、モバイルPC16及びウェアラブルデバイス本体24が備える処理部の一例を示すブロック図である。 第2の実施形態の定期監視処理の一例を示すフローチャートである。 第2の実施形態における、定期監視時の表示画面の一例を示す図である。
以下、実施の形態について図面を参照して説明する。なお、開示はあくまで一例にすぎず、以下の実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。
<第1の実施形態>
[遠隔支援システム]
図1は、エッジコンピューティングを実現するための遠隔支援システムの一例を示すブロック図である。遠隔支援システムは、ユーザ、例えば作業現場の作業者を後方のオペレータが遠隔地から支援するためのシステムである。現場の作業の例は、複雑なメンテナンス業務、物流倉庫のピッキング作業、作業現場の監視、災害救助・医療サポート等がある。作業現場の作業者側をフロントエンド、後方のオペレータ側をバックエンドとも称する。遠隔支援システムは、作業者が携帯するモバイルパーソナルコンピュータ(PC)(モバイルエッジコンピューティングデバイスと呼ぶこともある)16と作業者から離れた位置にある遠隔支援センター(データセンター)18をネットワーク22を介して互いに接続され、通信可能となっている。モバイルPC16と遠隔支援センター18は有線のLANケーブルによりネットワーク22に接続されてもよいし、無線LAN、ブルートゥース(登録商標)等によりネットワーク22に接続されてもよい。
ウェアラブルデバイス23はモバイルPC16と接続される。図1では、ウェアラブルデバイス23はケーブルによりモバイルPC16に接続される例を示すが、ウェアラブルデバイス23は無線LAN、ブルートゥース等によりモバイルPC16と接続されてもよい。ウェアラブルデバイス23はカメラ、ディスプレイを備え、カメラで撮影した画像をモバイルPC16に送信し、モバイルPC16から送信される画像をディスプレイで表示する。
図1に示すように複数の作業者がネットワークを介して相互に通信することも可能である。この場合、遠隔支援センターを経由してもよいし、遠隔支援センターのオペレータを介さずに作業者同士のみで通信するようにすることも可能である。
遠隔支援センター18はオペレータ端末12とサーバ14を備える。遠隔支援センター18はモバイルPC16(及びウェアラブルデバイス23)とオペレータ端末12間で音声通話を行う又は情報をやり取りする。モバイルPC16に接続されるウェアラブルデバイス23のリアルタイム映像をオペレータ端末12にビデオ配信することや、モバイルPC16とオペレータ端末12間で画像を相互に送受信することができる。また、オペレータ端末12からモバイルPC16にテキストメッセージを送信することもできる。例えば、物流倉庫ピッキング作業では、メガネ型のウェアラブルデバイス23にピッキング品の場所を表示させ、ハンズフリーでのピッキングを実現できる。
遠隔支援としては、典型的には、例えば以下の機能を含む。
(1)モバイルPC16とオペレータ端末12との双方向の音声通話を行う音声通話機能。
(2)音声通話中にウェアラブルデバイス23のリアルタイム映像をオペレータ端末12にビデオ配信するライブ映像配信機能。
(3)音声通話中にモバイルPC16とオペレータ端末12間で静止画を送受信する静止画像の送受信機能(モバイルPC16は撮影した静止画やビデオ配信中のキャプチャ画像をオペレータ端末12に送信し、オペレータ端末12は受信した画像に文字や絵などを書き込み、編集した画像をモバイルPC16に送信する機能。モバイルPC16で受信した静止画像は、モバイルPC16内のフォルダーに保存され、閲覧可能である)。
(4)音声通話中にオペレータ端末12のデスクトップ画面全体又は任意のアプリケーションプログラムのウィンドウをウェアラブルデバイス23に表示する画面共有機能。
(5)オペレータ端末12からモバイルPC16に対してテキストメッセージを送信するテキストメッセージの送信機能。
サーバ14は遠隔支援のための処理をオペレータ端末12に代わって又は協働して行うものであり、プロセッサ(CPU)28、ROM30、RAM32、ハードディスクドライブ(HDD)又はソリッドステートドライブ(SSD)からなるストレージデバイス34、インターフェース36を備える。なお、サーバ14の機能を全てオペレータ端末12に持たせ、サーバ14を省略してもよい。
[オペレータ端末12]
図2はオペレータ端末12の一例を示すブロック図である。オペレータ端末12はデスクトップ型PC又はノートブック型PC等からなる。
オペレータは、オペレータ端末12を用いて作業現場の状況をリアルタイム映像で確認しながら、会話や画像によってモバイルPC16の作業者に指示を行う。オペレータは、オペレータ端末12を用いてモバイルPC16から受信した画像ファイルに絵や文字などの書き込みを行い、編集した画像ファイルをモバイルPC16に送信することや、オペレータ端末12に保存することができる。
オペレータ端末12は、プロセッサを含むシステムコントローラ42を備え、システムコントローラ42には、主メモリ44、BIOS-ROM50、HDD又はSSDからなるストレージデバイス52、オーディオコーデック54、グラフィックスコントローラ62、タッチパネル70、USB(登録商標)コネクタ72、無線LANデバイス74、ブルートゥースデバイス76、有線LANデバイス78、PCIExpress(登録商標)カードコントローラ80、メモリカードコントローラ82、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)84等が接続される。
システムコントローラ42はストレージデバイス52から主メモリ44にロードされる様々なプログラムを実行する。これらプログラムは、オペレーティングシステム(OS)46、遠隔支援のためのバックエンドアプリケーションプログラム48を含む。システムコントローラ42は不揮発性メモリであるBIOS-ROM50に格納された基本入出力システム(BIOS)も実行する。BIOSはハードウェア制御のためのシステムプログラムである。
オーディオコーデック54は、再生対象のデジタルのオーディオ信号をアナログのオーディオ信号に変換して、ヘッドフォン58又はスピーカ60に供給する。また、オーディオコーデック54は、マイク56から入力されるアナログのオーディオ信号をデジタル信号に変換する。マイク56とヘッドフォン58は単独で設けてもよいが、インカムとして一体的に設けてもよい。
グラフィックスコントローラ62は、オペレータ端末12のディスプレイモニタとして使用される液晶表示器(LCD)64を制御する。LCD64の画面上にタッチパネル70が重ねられ、LCD64の画面にタッチペン等により手書き入力操作が行えるように構成されている。グラフィックスコントローラ62にはHDMI(登録商標)コントローラ66も接続される。HDMIコントローラ66は外部の表示デバイスとの接続のためのHDMIコネクタ68に接続される。
無線LANデバイス74は、ネットワーク22との接続のためにIEEE802.11規格の無線LAN通信を実行する。ブルートゥースデバイス76は、外部機器との接続のためにブルートゥース規格の無線通信を実行する。有線LANデバイス78は、ネットワーク22との接続のためにIEEE802.3規格の有線LAN通信を実行する。このように、オペレータ端末12とネットワーク22との接続は無線通信によってもよいし、有線通信によってもよい。
PCIExpressカードコントローラ80はオペレータ端末12と外部機器との間でPCIExpress規格の通信を行なう。メモリカードコントローラ82は、記憶媒体、例えばSDカード(登録商標)等のメモリカードにデータを書き込み、メモリカードからデータを読み出す。
EC/KBC84は電力管理コントローラであり、キーボード88を制御するキーボードコントローラも内蔵したワンチップマイクロコンピュータとして実現されている。EC/KBC84は、電源スイッチ86の操作に応じてオペレータ端末12をパワーオン又はパワーオフする機能を有する。パワーオン及びパワーオフの制御は、EC/KBC84と電源回路90との協働動作によって実行される。EC/KBC84はオペレータ端末12がパワーオフされている期間中も、バッテリ92又はACアダプタ94からの電力によって動作する。電源回路90は、バッテリ92からの電力又は外部電源として接続されるACアダプタ94からの電力を用いて、各コンポーネントへ供給すべき電力を生成する。
[ウェアラブルデバイス23]
図3はモバイルPC16に接続されるウェアラブルデバイス23の外観の一例を示す。ウェアラブルデバイス23はメガネフレーム142とウェアラブルデバイス本体24を備える。メガネフレーム142は一般的なメガネからレンズを取り除いた形状でもよく、作業者の顔に装着される。メガネフレーム142はメガネが取り付けられる構造としてもよい。作業者がメガネを常用する場合、常用しているメガネと同様な度数のレンズがメガネフレーム142に取り付けられてもよい。
メガネフレーム142はウェアラブルデバイス本体24が着脱される取付具144を左右のテンプルに備える。図3では作業者の右側のテンプルの取付具144はウェアラブルデバイス本体24に隠されているので、図示されない。上述したようにウェアラブルデバイス本体24はディスプレイ124(図4に示す)を備え、ディスプレイ124は片目で目視されるようになっているので、ウェアラブルデバイス本体24が利き目側に取り付けられるように取付具144は左右のテンプルに備えられている。なお、ウェアラブルデバイス本体24を取付具144によりメガネフレーム142に着脱自在に取り付ける必要はなく、ウェアラブルデバイス本体24がメガネフレーム142に固定された右眼用、左眼用のウェアラブルデバイス23を用意してもよい。さらに、ウェアラブルデバイス本体24をメガネフレーム142ではなく、ヘルメット、ゴーグル等を用いて作業者の頭部に装着してもよい。
ウェアラブルデバイス本体24は、その係合片128(図4に示す)が取付具144の上下の枠内に押し込まれることにより、メガネフレーム142に取り付けられる。ウェアラブルデバイス本体24をメガネフレーム142から取り外す場合は、ウェアラブルデバイス本体24が取付具144から引き抜かれる。
ウェアラブルデバイス本体24は取付具144に取り付けられた状態で、係合片128は取付具144内で前後に多少は移動可能である。このため、作業者の焦点がディスプレイ124に合うようにウェアラブルデバイス本体24は前後位置が調整可能である。さらに、取付具144はテンプルに直交する軸144Aを中心に回転可能であり、ウェアラブルデバイス本体24がメガネフレーム142に取り付けられた後、ディスプレイ124が作業者の視線上に位置するように上下位置が調整可能である。さらに、取付具144の回転角度は90度程度であり、取付具144を上方向に大きく回転することにより、ウェアラブルデバイス本体24をメガネフレーム142からはね上げることができる。これにより、ウェアラブルデバイス本体24により視野が邪魔され実物を見ることが困難な場合や、狭い場所でウェアラブルデバイス本体24が周囲の物体に干渉する場合でも、ウェアラブルデバイス23全体を顔から外す/再装着することなく、ウェアラブルデバイス本体24を作業者の視野から一時的に外す/戻すことができる。
[ウェアラブルデバイス本体24]
ウェアラブルデバイス本体24はメガネフレーム142のテンプルに沿った側面部と作業者の一方の眼球の視線上に位置する前面部とからなる。側面部に対する前面部の角度は調節可能である。
図3に示すように、前面部の外側表面にはカメラ116、ライト118、カメラLED120が設けられる。ライト118は暗部の撮影時に発光する補助照明である。カメラLED120は写真や動画の撮影時に点灯し、撮影対象者に撮影していることを認識させるためのものである。
右側のテンプルに取り付けられたウェアラブルデバイス本体24の側面部の上側面に第1、第2、第3ボタン102、104、106が設けられる。なお、作業者の利き目が左眼の場合、ウェアラブルデバイス本体24は左側のテンプルに取り付けられる。右側に取り付けられるか左側に取り付けられるかで、ウェアラブルデバイス本体24の上下が反転するので、側面部の上側面とした側面の両面に第1、第2、第3ボタン102、104、106を設けてもよい。
側面部の外側表面にはタッチパッド110、第4ボタン108、マイク112、照度センサ114が設けられる。タッチパッド110と第4ボタン108は人差し指で操作可能である。ボタン102、104、106は、ウェアラブルデバイス本体24が右側に取り付けられた際、それぞれ人差し指、中指、薬指で操作可能な位置に配置される。タッチパッド110は、その表面上で矢印に示すように作業者が指を上下前後に移動させたことを検出できるようにしている。この移動の検出は、指を接触したまま移動するドラッグの動きに加え指をさっと擦るフリックの動きも含む。タッチパッド110は、作業者の指の上下前後移動を検出すると、コマンドを入力する。本明細書では、コマンドとはウェアラブルデバイス本体24に対する特定の処理の実行指令のことである。第1~第4ボタン102、104、106、108、タッチパッド110の操作方法はアプリケーションプログラムによって決められている。
例えば、
第3ボタン106が1回押されると、項目の選択/項目の実行がなされ、
第3ボタン106が長押しされると、起動中のアプリケーションプログラムの一覧が表示され、
第2ボタン104が1回押されると、ホーム画面に戻り、
第2ボタン104が長押しされると、クイックセッティングのメニューが表示され、
第1ボタン102が1回押されると、操作の取り消し(キーボードのEscキーと同様の動作)が実行される。
タッチパッド110の操作に関しては、例えば、
上下にドラッグされると、カーソルが上下に移動され、
前にフリックされると、左のアイコンが選択され(連続してスクロール)、
後ろにフリックされると、右のアイコンが選択され(連続してスクロール)、
前にドラッグされると、左のアイコンが選択され(1項目ずつスクロール)、
後ろにドラッグされると、右のアイコンが選択され(1項目ずつスクロール)る。
第1ボタン102は人差し指、第2ボタン104は中指、第3ボタン106は薬指、第4ボタン108は小指で操作できるような位置に配置される。なお、第4ボタン108が側面部の上部ではなく、側面部の外側表面に設けられるのは、スペースの関係上であり、第4ボタン108も第1~第3ボタン102、104、106と同様に側面部の上部に設けられてもよい。照度センサ114はディスプレイの明るさを自動調整するために周囲の照度を検出する。
図4はウェアラブルデバイス本体24の裏面の外観の一例を示す。前面部の内側にはLCDからなるディスプレイ124が設けられる。側面部の内側にはマイク126、スピーカ130、係合片128が設けられる。マイク126は側面部の前方に、スピーカ130は側面部の後方に、係合片128は側面部の後方に設けられる。スピーカ130の代わりにヘッドフォンを用いてもよい。その場合、オペレータ端末12と同様にマイクとヘッドフォンをインカムとして一体的に設けてもよい。
図5はモバイルPC16とウェアラブルデバイス本体24との接続の一例を示す。側面部の後方にはUSBtype-C(登録商標)規格のケーブル146の一端のプラグ146Aが挿入されるレセプタクル132が設けられる。USBtype-C規格のケーブル146の他端のプラグ146BはモバイルPC16の上部端面のUSBtype-C規格のコネクタ207に挿入される。このようにウェアラブルデバイス本体24はUSBtype-C規格のケーブル146を介してモバイルPC16に接続され、画像信号等がウェアラブルデバイス本体24とモバイルPC16の間で伝送される。ウェアラブルデバイス本体24は無線LAN、ブルートゥース等の無線通信によりモバイルPC16に接続されてもよい。
実施形態ではウェアラブルデバイス本体24は駆動電源としてのバッテリ又はDC端子を備えず、駆動電源はモバイルPC16からUSBtype-Cケーブル146を介してウェアラブルデバイス本体24に供給される。しかし、ウェアラブルデバイス本体24が駆動電源を備えてもよい。
図6はウェアラブルデバイス本体24の一例を示すブロック図である。USBtype-Cコネクタ132がミキサ166に接続される。ディスプレイコントローラ170とディスプレイ124とUSBハブ164がミキサ166の第1端子、第2端子にそれぞれ接続される。カメラコントローラ168、オーディオコーデック172、センサコントローラ162がUSBハブ164に接続される。カメラ116とライト118とカメラLED120がカメラコントローラ168に接続される。マイク112、126からのオーディオ信号がオーディオコーデック172に入力され、オーディオコーデック172からのオーディオ信号がアンプ174を介してスピーカ130に入力される。
センサコントローラ162に、モーションセンサ(例えば、加速度/地磁気/重力/ジャイロセンサ等)176、照度センサ114、近接センサ178、接触センサ179、タッチパッド110、第1~第4ボタン102、104、106、108、GPSセンサ180が接続される。センサコントローラ162はモーションセンサ176、照度センサ114、近接センサ178、接触センサ179、タッチパッド110、第1~第4ボタン102、104、106、108、GPSセンサ180からの検出信号を処理して、モバイルPC16へコマンドを供給する。図4には示していないが、モーションセンサ176、近接センサ178はウェアラブルデバイス本体24の内部に配置される。モーションセンサ176はウェアラブルデバイス本体24の動き、向き、姿勢等を検出する。近接センサ178は作業者の顔、指等の接近によりウェアラブルデバイス23の装着を検出する。接触センサ179は、物理的な接触を検出可能な機構であり、例えば、機械的なスイッチ、タッチパッドなどである。接触センサ179は、近接センサ178と同じく、作業者の顔、指等の接触によりウェアラブルデバイス23の装着を検出する。なお、近接センサ178及び接触センサ179は、少なくとも一方が備えられる。
[モバイルPC16]
図7はモバイルPC(モバイルエッジコンピューティングデバイス)16の外観の一例を示す。モバイルPC16は片手で持てる小型PCであり、そのサイズは、幅が約10cm以下、高さが約18cm以下、厚さが2cm程度であり、重量は約300g程度と、小型で軽量である。このため、モバイルPC16は作業着のポケット、ベルトに装着されるホルスタあるいはショルダーケースに収納でき、ウェアラブルである。モバイルPC16はCPUや半導体メモリ等の半導体チップやSSD(Solid State Disk)等のストレージデバイスを収納するが、ディスプレイと文字入力用のハードウェアキーボードは備えない。
モバイルPC16の正面にはアップボタン202a、ライトボタン202b、ダウンボタン202c、レフトボタン202d、決定ボタン(センターボタン、エンターボタンとも称する)202eからなる5ボタン202が配置され、その下に指紋センサ204が配置される。文字入力用のハードウェアキーボードが備わっておらず暗証番号(PINとも称する)を入力することができないので、指紋センサ204はモバイルPC16のログイン時のユーザ認証のために用いられる。5ボタン202はコマンドを入力できる。
なお、5ボタン202の各ボタン202a~202dに数字を割り当て、5ボタン202を用いて暗証番号を入力することにより、ログイン時のユーザ認証を行ってもよい。この場合、指紋センサ204は省略可能である。決定ボタン202e以外の4つのボタンに数字を割り当てるので、数字の種類は4つしかない。従って、ランダムに入力した数字が暗証番号に一致する可能性がある。しかし、暗証番号の桁数を大きくすれば、ランダムに入力した数字が暗証番号に一致する確率を小さくすることができる。指紋センサ204を備えるモバイルPC16でも5ボタン202による認証も可能としてもよい。1台のモバイルPC16を複数の作業者で共有することがあるが、指紋認証だけではこのような場合に対応できない。
5ボタン202はウェアラブルデバイス本体24のボタン102、104、106、108とタッチパッド110の操作と同じ操作が可能である。ウェアラブルデバイス本体24のボタン102、104、106、108とタッチパッド110で操作している様子を作業者は見ることができないので、作業者によっては意図した操作をするには慣れが必要な場合もある。また、ボタン102、104、106、108とタッチパッド110は小型であるので、操作しづらい場合もある。実施形態では、モバイルPC16の5ボタン202でも同じ操作ができるので、上記の懸念は解消される。5ボタン202の操作方法はアプリケーションによって決められている。
例えば、
決定ボタン202eが1回押されると、項目の選択/項目の実行がなされ(ウェアラブルデバイス本体24では、第3ボタン106の1回押しに対応)、
決定ボタン202eが長押しされると、終了又は操作の取り消しがなされ(ウェアラブルデバイス本体24では、第1ボタン102の1回押しが操作の取り消しに対応)、
アップボタン202aが1回押されると、カーソルが上に移動され(ウェアラブルデバイス本体24では、タッチパッド110で上にドラッグに対応)、
アップボタン202aが長押しされると、起動中のアプリケーションの一覧が表示され(ウェアラブルデバイス本体24では、第3ボタン106の長押しに対応)、
ダウンボタン202cが1回押されると、カーソルが下に移動され(ウェアラブルデバイス本体24では、タッチパッド110で下にドラッグに対応)、
ダウンボタン202cが長押しされると、クイックセッティングメニュー(後述)が表示され(ウェアラブルデバイス本体24では、第2ボタン104の長押しに対応)、
レフトボタン202dが1回押されると、右のアイコンが選択され(ウェアラブルデバイス本体24では、タッチパッド110で後ろにドラッグ/フリックに対応)、
ライトボタン202bが1回押されると、左のアイコンが選択される(ウェアラブルデバイス本体24では、タッチパッド110で前にドラッグ/フリックに対応)。
モバイルPC16の上部側面には、USB3.0規格のコネクタ206とUSBtype-C規格のコネクタ207とオーディオジャック208が設けられる。
モバイルPC16の一方の側面(正面から見て左側の側面)には、メモリカード用のカードスロット218が設けられる。メモリカードは、例えばSDカード、マイクロSDカード(登録商標)等を含む。
モバイルPC16の他方の側面(正面から見て右側の側面)には、ケンジントンロック(登録商標)のためのスロット210、電源スイッチ212、パワーLED213、DC IN/バッテリLED214、DC端子216、冷却用の通風口222が設けられる。パワーLED213は電源スイッチ212の近傍に配置され、電源オンの期間点灯する。DC IN/バッテリLED214はバッテリが充電中であるか否か等のモバイルPC16の状態とバッテリの残量を表示する。モバイルPC16はバッテリで駆動可能であるが、DC端子216にACアダプタを接続した状態でも駆動可能である。図示しないが、裏面はワンタッチでバッテリが交換可能に構成されている。
図8はモバイルPC16の一例を示すブロック図である。モバイルPC16はウェアラブルデバイス本体24で撮影した映像をオペレータ端末12へビデオ配信することや、オペレータ端末12から受信した画像を閲覧することができる。このため、モバイルPC16はカメラ機能とビューワ機能を備える。カメラ機能はウェアラブルデバイス本体24のカメラ116で写真やビデオを撮影する機能である。撮影した写真やビデオはカメラフォルダに保存され、ビューワ機能で閲覧できる。ビューワ機能はカメラフォルダに保存されているファイルを閲覧する機能である。ファイルの種類は、画像、動画、PDFファイル、カメラ機能で撮影した写真やビデオ、オペレータ端末12から受信した画像、オペレータ端末12へ送信した画像、ユーザフォルダに保存されたファイルがある。
モバイルPC16はシステムコントローラ302を備え、システムコントローラ302はプロセッサ(CPU)とコントローラ・ハブからなる。プロセッサには、主メモリ308、BIOS-ROM310、パワーLED213、DC IN/バッテリLED214、USBコントローラ322が接続される。コントローラ・ハブには、フラッシュメモリ326、メモリカードコントローラ328、HDD又はSSDからなるストレージデバイス330、USB切替器324、オーディオコーデック334、3G/LTE/GPSデバイス336、指紋センサ204、USB3.0コネクタ206、ブルートゥース/無線LANデバイス340、EC/KBC344が接続される。
システムコントローラ302はストレージデバイス330から主メモリ308にロードされる様々なプログラムを実行する。これらプログラムは、OS316、遠隔支援のためのフロントエンドアプリケーションプログラム314を含む。
オーディオコーデック334は、再生対象のデジタルのオーディオ信号をアナログのオーディオ信号に変換して、オーディオジャック208に供給する。また、オーディオコーデック334は、オーディオジャック208から入力されるアナログのオーディオ信号をデジタル信号に変換する。
メモリカードコントローラ328はメモリカードスロット218に挿入されるメモリカード、例えばSDカードにアクセスして、SDカードに対するデータの読み書きを制御する。
USBコントローラ322はUSBtype-Cコネクタ207に接続されるUSBtype-Cケーブル又はUSB3.0コネクタ206に接続されるUSB3.0ケーブル(図示せず)に対するデータの送受信を制御する。
図示しないが、USBtype-Cコネクタ207にはポート拡張アダプタも接続可能であり、HDMI等のインターフェースが使用可能である。
ブルートゥース/無線LANデバイス340は、ネットワーク22との接続のためにブルートゥース規格の無線通信又はIEEE802.11規格の無線LAN通信を実行する。なお、ネットワーク22との接続は無線通信によらず、IEEE802.3規格の有線LAN通信によってもよい。
指紋センサ204はモバイルPC16の起動時の指紋認証のために使用される。
EC/KBC344には、サブプロセッサ346、電源スイッチ212及び5ボタン202が接続される。EC/KBC344は、電源スイッチ212の操作に応じてモバイルPC16をパワーオン又はパワーオフする機能を有する。パワーオン及びパワーオフの制御は、EC/KBC344と電源回路350との協働動作によって実行される。EC/KBC344はモバイルPC16がパワーオフされている期間中も、バッテリ352又はACアダプタ358からの電力によって動作する。電源回路350は、バッテリ352からの電力又は外部電源として接続されるACアダプタ358からの電力を用いて、各コンポーネントへ供給すべき電力を生成する。電源回路350は電圧レギュレータモジュール356を含み、電圧レギュレータモジュール356はシステムコントローラ302内のプロセッサに接続される。
なお、モバイルPC16をウェアラブルデバイス本体24と別体として構成したが、モバイルPC16をウェアラブルデバイス本体24内に組み込んで、両者を一体として構成してもよい。
[自動通報アプリケーションプログラム]
以下では、上述した遠隔支援システムを用いて、作業者の事故発生を検出し、遠隔支援センター18に通報するための自動通報アプリケーションプログラムについて説明する。
図9においては、ウェアラブルデバイス本体24及びモバイルPC16は便宜的に以下で説明する各処理部を含むとして説明する。しかしながら、ウェアラブルデバイス本体24及びモバイルPC16はそれぞれ他の機能を持つ処理部を含んでいてもよく、1つの処理部で構成されてもよく、又は、図9に示す以外の態様で複数の処理部を含んでいてもよい。なお、上述のように、ウェアラブルデバイス本体24及びモバイルPC16は、種々の情報を処理可能な電子機器である。
ウェアラブルデバイス本体24は、通信部C2、入力部I、表示部D、センサ部Sを含む。
通信部C2は、外部機器、ここではモバイルPC16に対してデータ、コマンドなどの送受信を行う。通信部C2は、例えば、図6に示すセンサコントローラ162、USBハブ164、USBtype-Cコネクタ132などを含む。通信部C2は、例えば、モバイルPC16に対してウェアラブルデバイス本体24により生成されるデータ、コマンドなどを送信する。また、通信部C2は、これらの外部機器よりウェアラブルデバイス本体24の各処理部が必要とするデータを受信する。
入力部Iは、ウェアラブルデバイス23を装着する作業者からの入力を受け付ける。入力部Iは、例えば、マイク112,126、タッチパッド110、ボタン102,104,106,108などを含む。
表示部Dは、通信部C2を経由してモバイルPC16より受信した表示データを、作業者が視認可能な態様により表示する。表示部Dは、例えば、ディスプレイ124を含む。
センサ部Sは、ウェアラブルデバイス本体24が備える各種センサを含む。具体的には、センサ部Sは、例えばモーションセンサ176、照度センサ114、近接センサ178、接触センサ179、カメラ116、GPSセンサ180などを含む。センサ部Sは、上述の各種センサにより得られたセンシングデータS1を、通信部C2を経由してモバイルPC16に送信する。
モバイルPC16は、例えば、自動通報アプリケーションプログラム、記憶部M、通信部C1を含む。
自動通報アプリケーションプログラムは、図8に示したシステムコントローラ302から主メモリ308へロードされることにより、自動通報部Aとして動作する。自動通報部Aは、以下に示すように装着判定部A1(請求項では判定手段と呼称する)、異常検出部A2(請求項では検出手段と呼称する)、表示データ生成部A3(請求項では表示制御手段と呼称する)、通報部A4(請求項では通報手段と呼称する)を含む。なお、この自動通報アプリケーションプログラムは、フロントエンドアプリケーション314とは異なるアプリケーションでもよく、フロントエンドアプリケーションプログラム314に含まれていてもよい。
装着判定部A1は、センサ部Sの近接センサ178及び/又は接触センサ179を用いて得られるセンシングデータS1を、通信部C1を経由して取得する。さらに装着判定部A1は、取得したセンシングデータS1を解析し、例えば作業者の顔、指等の接近を検知することにより、ウェアラブルデバイス23の装着を検出する。
異常検出部A2は、センシングデータS1を用いて、作業者の異常動作を検出する。異常動作は、例えば、高所からの落下、長時間の静止、転倒などである。異常検出部A2は、センシングデータS1を解析し、例えば作業者の動作に関する所定の変化パターンを検出することにより異常動作を検出する。
また、センシングデータS1は、記憶部Mに格納され蓄積されてもよい。センシングデータS1が記憶部Mに蓄積される場合、異常検出部A2は、記憶部Mに蓄積された過去のセンシングデータM1を用いて、以下に説明する例えば第1又は第2の検出方法により異常動作を検出してもよい。なお、より有用なセンシングデータM1を蓄積するために、異常検出部A2は、例えば装着判定部A1によりウェアラブルデバイス23が装着中であると判定された場合にセンシングデータS1を記憶部Mに格納するとしてもよい。また、センシングデータM1は、遠隔地にあるオペレータ端末12のストレージデバイス52などに蓄積されてもよい。
第1の検出方法として、異常検出部A2は、過去のセンシングデータM1を用いて安全動作又は異常動作を示す標準的なセンサ値の時間変化のパターン(以下、標準パターンとする)を、安全動作又は異常動作の種類ごとに生成する。異常検出部A2は、実際に作業中の作業者のウェアラブルデバイス本体24より得られるセンシングデータS1と、あらかじめ生成された標準パターンとを比較し、例えば両者の差が所定の範囲内である場合に、当該作業者の動作は異常動作であると判定する。
第2の検出方法として、異常検出部A2は、安全動作又は異常動作を識別するために構成された識別器を用いてもよい。識別器は、例えば、ニューラルネットワーク、SVM(Support Vector Machine)などを用いて構成され、過去のセンシングデータM1に対して安全動作又は異常動作であるかの正解が与えられたデータ、すなわち教師データを用いて事前に学習されている。異常検出部A2は、作業中の作業者のウェアラブルデバイス本体24より得られるセンシングデータS1に含まれる特徴量を抽出して識別器へ入力し、当該識別器より、作業者の動作が例えば安全動作か異常動作であるかの確率を得る。ここで、特徴量とは、データに含まれる特徴を数値化したものを指す。異常検出部A2は、異常動作を示す確率が高い場合に、当該作業者の動作は異常動作であると判定する。なお、識別器は、安全動作又は異常動作の種類ごとに生成されてもよい。
表示データ生成部A3は、ウェアラブルデバイス本体24の表示部Dに表示するためのデータを生成する。表示データ生成部A3は、例えば、モバイルPC16のユーザインターフェース、及び、作業者が行う作業に関する種々の情報を含む表示データを生成可能である。生成された表示データは、通信部C1及びC2を経由して表示部Dに表示される。また、本実施形態において表示データ生成部A3は、異常検出部A2が異常動作を検出した場合に作業者の異常を確認するための表示データを生成する。
通報部A4は、作業者に異常が発生した場合に、外部機器に対して当該異常を知らせる。より具体的には、通報部A4は、異常検出部A2が作業者の異常動作を検出した場合に、通信部C1を経由して遠隔支援センター18のオペレータ端末12などに作業者に異常が発生した旨のメッセージ、信号などを送信する。
通信部C1は、通信部C2と同様に、外部機器に対してデータ、コマンドなどの送受信を行う。通信部C1は、例えば、USBtype-Cコネクタ207、3G/LTE/GPSデバイス336、ブルートゥース/無線LANデバイス340、システムコントローラ302などを含む。通信部C1は、例えば、ウェアラブルデバイス本体24、オペレータ端末12などの外部機器に対してアプリケーションプログラムAが生成したデータ、コマンドなどを送信する。また、通信部C1は、これらの外部機器よりアプリケーションプログラムAの各処理部が必要とするデータを受信する。
記憶部Mは、例えば、データ、プログラムなどを格納する。記憶部Mは、例えばストレージデバイス330、フラッシュメモリ326、メモリカードコントローラ328などを含む。記憶部Mは、アプリケーションプログラムAにより生成されたデータ、及び、通信部C1を経由して外部機器より取得したデータなどを格納する。
本実施形態において、記憶部Mは、センシングデータM1、識別用データM2を格納する。センシングデータM1は、上述のようにセンサ部Sより得られるセンシングデータS1を蓄積したデータである。識別用データM2は、上述の第1の検出方法で用いる標準パターン、又は、第2の検出方法で用いる識別器などである。なお、識別用データM2は、異常検出部A2による異常動作の検出処理において用いられる他のデータを含んでいてもよい。また、識別用データM2は、所定の初期値により初期化されている。
図10は、自動通報アプリケーションプログラムにより実行される自動通報処理の一例を示すフローチャートである。
ステップS101において、ウェアラブルデバイス本体24のセンサ部Sは、センサ部Sに含まれる各種センサよりセンシングデータS1を取得する。センシングデータS1は、例えば(モーションセンサ176により得られる)作業者の位置又は加速度などの時間的な変化を表すデータ、(近接センサ178及び/又は接触センサ179により得られる)ウェアラブルデバイス本体24と作業者が近接しているか否かを時系列で表すデータなどを含む。センサ部Sは、取得したセンシングデータS1を、通信部C2を経由してモバイルPC16に送信する。
ステップS102において、モバイルPC16のアプリケーションプログラムAは、通信部C1を経由してウェアラブルデバイス本体24が送信したセンシングデータS1を受信し、記憶部Mに格納する。
ステップS103において、装着判定部A1は、例えば近接センサ178及び/又は接触センサ179により得られたセンシングデータS1を用いて、ウェアラブルデバイス23を作業者が装着中であるか否かを判定する。装着中でないと判定され場合、処理は終了する。一方、装着中であると判定された場合、処理はステップS104へ進む。
ステップS104において、異常検出部A2は、作業者の異常動作の検出処理を実行する。当該検出処理の詳細については、図11を用いて後述する。
ステップS105において、異常検出部A2により作業者の異常動作が検出されなかった場合は、処理を終了する。一方、異常動作が検出された場合、処理はステップS106へ進む。
ステップS106において、表示データ生成部A3は、作業者に異常動作を検出した旨及び作業者の応答を促す旨をウェアラブルデバイス本体24の表示部Dに表示させるための表示データを生成し、生成した表示データを通信部C1を経由してモバイルPC16へ送信する。
ステップS107において、ウェアラブルデバイス本体24の表示部Dは、通信部C2を経由して表示データを受信し、当該表示データを表示部Dに表示する。なお、当該表示データの詳細は、図12,13を用いて後述する。
ステップS108において、入力部Iは、作業者からの入力操作を受け付ける。入力操作は、例えば表示データに基づいて表示部Dに表示される自動通報キャンセルボタンを選択し押下する操作などである。入力部Iは、所定の入力操作が行われた場合に、当該入力操作に関するデータを通信部C2を経由してモバイルPC16へ送信する。
ステップS109において、通報部A4は、通信部C2を経由して受信した入力操作に関するデータに基づき、自動通報キャンセルボタンが押下されたか否かを判定する。所定時間内に当該ボタンが押下された場合は、処理を終了する。一方、所定時間内に当該ボタンが押下されない場合は、作業者は安全でない可能性があると考えられるため、ステップS110において通報部A4は、オペレータ端末12などへ作業者に異常が発生した旨のメッセージ、信号などを送信する。
なお、上述の自動通報処理は、例えば各種センサのサンプリング間隔で新たなセンシングデータS1が得られる毎に繰り返し実行される。
図11は、自動通報アプリケーションプログラムにより実行される異常動作検出処理の一例を示すフローチャートである。図11は、図10のステップS104の処理に相当する。
ステップS201乃至S203は、異常動作を検出するための準備段階である学習フェーズである。ステップS201において、異常検出部A2は、センサ部Sに含まれる各種センサより得られるセンシングデータS1を通信部C1を経由して受信し、記憶部Mに格納し、センシングデータM1として蓄積する。
ステップS202において、識別用データM2の更新条件を満たすか否かを判定する。更新条件は、例えば、前回更新時から現時点までに所定以上の量のセンシングデータM1を得たこと、前回更新時から所定の期間経過したことなどである。当該更新条件を満たす場合、処理はステップS203へ進む。一方、当該更新条件を満たさない場合、処理はステップS204へ進む。
ステップS203において、異常検出部A2は、センシングデータM1のうち識別用データM2の学習に必要なデータ(前回更新時から現時点までに得られたセンシングデータ)を記憶部Mより読み出して識別用データM2を更新する。更新された識別用データM2は、記憶部Mに格納される。
ステップS204乃至S209は、異常動作の検出フェーズである。異常検出部A2は、検出対象とする異常動作を1種類ずつ切り替えて検出する。図11の例では、検出対象は「静止」、「落下」及び「その他の異常動作」であるとする。なお、異常検出部A2は、必ずしも上述の異常動作を全て検出する必要はなく、例えば作業の内容に応じて、検出対象の異常動作を選択してもよい。
ステップS204において、異常検出部A2は、検出対象とする異常動作の種類を決定する。
検出対象が作業者の「静止」である場合、ステップS205において、異常検出部A2は、取得したセンシングデータS1を用いて作業者が長時間静止しているか否かを検出する。より具体的には、異常検出部A2は、モーションセンサ176により得られる作業者の位置及び加速度が所定期間において0(又は0に近い値)である場合に、作業者は所定期間静止していると判定する。
検出対象が作業者の「落下」である場合、ステップS206において、異常検出部A2は、取得したセンシングデータS1を用いて作業者が落下しているか否かを検出する。より具体的には、異常検出部A2は、モーションセンサ176により得られる作業者の位置及び加速度が無重力状態(自由落下)を示す場合に、作業者は落下していると判定する。
なお、ステップS205,S206に示した「静止」及び「落下」は、上述のようにセンシングデータS1の所定の変化パターンにより判定可能であるため、学習フェーズであるステップS201乃至S203の処理は省略可能である。
検出対象が作業者の「その他の動作」である場合、異常検出部A2は、上述の第1の検出方法、第2の検出方法などにより所定の異常動作を検出する。ここで、「その他の異常動作」は、例えば「転倒」など、センシングデータS1から所定の変化パターンを抽出することによる判定が困難な複雑な動作である。
ステップS207において、異常検出部A2は、記憶部Mより上述の学習フェーズにおいて学習済の識別用データM2を読み出す。さらにステップS208において、異常検出部A2は、読み出した識別用データM2と、センサ部Sより取得したセンシングデータS1とを用いて所定の異常動作を検出する。
ステップS209において、異常検出部A2は、検出対象とする異常動作の検出処理が全て実行されたか否かを確認する。他の異常動作の検出処理を行う場合は、処理はステップS204へ戻る。
図12は、異常動作検出時の表示画面の一例を示す図である。図12は、図10のステップS107においてウェアラブルデバイス本体24の表示部Dに表示される内容を示す。
図12において、表示部Dで表示される画面は、テキストT1、ボタンBTを含む。テキストT1は、異常動作を検出した旨を作業者に通知するためのテキストの一例である。テキストT1は、異常動作の種類を示すテキストTAを含む。テキストTAは、例えば、「長時間の静止状態」、「落下」、「転倒」などでもよい。また、テキストT1は、作業者が自動通報をキャンセルすることが可能な所定の時間を示すテキストTBを含む。このテキストTBは、例えばカウントダウン形式で表示されてもよい。
ボタンBTは、オペレータ端末12に対する自動通報をキャンセルするためのボタンである。作業者は、テキストTBに表示される所定の時間内にボタンBTを押下することにより、自動通報をキャンセル可能である。なお、作業者はウェアラブルデバイス本体24に対し他の操作を行うことにより自動通報をキャンセル可能であってもよい。例えば、通報部A4は、ウェアラブルデバイス本体24の入力部Iに含まれるマイク112,126に対し所定の音声が入力されたことを検知した場合、又は、タッチパッド110、ボタン102,104,106,108などに対し所定の入力を受け付けた場合に、自動通報をキャンセルしてもよい。
以上説明した本実施形態によれば、ウェアラブルデバイス本体24は、センサ部Sを含み、ウェアラブルデバイス本体24の各種センサより得られたセンシングデータS1を、ウェアラブルデバイス本体24にUSB接続されるモバイルPC16へ送信する。モバイルPC16は自動通報アプリケーションプログラムを備え、当該自動通報アプリケーションプログラムがセンシングデータS1を解析することにより、作業者の異常動作を検出する。これにより、取得したセンシングデータS1を遠隔地にある端末(例えば、オペレータ端末12など)へ送信することなく解析することができるため、当該解析処理のリアルタイム性が向上する。すなわち、センシングデータS1のデータ量が多い場合、又は、解析処理にある程度時間を要する場合でも、リアルタイム性を損なうことなく当該解析処理を実行可能である。
本実施形態において、自動通報アプリケーションプログラムは、記憶部Mに蓄積されたセンシングデータM1に基づいて識別用データM2を生成し、この識別用データM2に基づいて異常動作を検出する。これにより、例えば「落下」、「長時間の静止」といった比較的単純な動作だけでなく、「転倒」といったロジックによる判定では識別困難な複雑な動作を判定可能となる。
また、識別用データM2は、センシングデータM1の蓄積に伴う所定の条件を満たした場合に、最新の状態に更新される。これにより、作業者の異常動作の検出精度を高めることができる。
本実施形態において、モバイルPC16の自動通報アプリケーションプログラムは、作業者の異常を検出した場合に、ウェアラブルデバイス本体24に異常動作を検出した旨とともに自動通報をキャンセルできるボタンを表示させる。これにより、異常動作が誤検出された場合でも、自動通報がキャンセルされることにより、オペレータ端末12への誤った通報を抑止できる。さらに、誤った通報を受けたオペレータ端末12が作業者に対し不要な安全確認を行うことを抑止できる。このため、遠隔支援センター18の監視効率を向上させるとともに、作業者の作業効率の低下を抑止できる。
<第2の実施形態>
第1の実施形態では、図10のステップS107において異常動作が検出された場合に、その旨がウェアラブルデバイス本体24の表示部Dに表示されると説明した。これに加え、異常動作が検出されない場合でも、作業者に対し定期的に(例えば1時間間隔などで)安全確認が行われる方がよい。
本実施形態においては、自動通報アプリケーションプログラムが行う定期監視処理について説明する。なお、オペレータ端末12、遠隔支援センター18の構成については、第1の実施形態と同様であるため、説明を省略する。
図13は、本実施形態において、モバイルPC16及びウェアラブルデバイス本体24が備える処理部の一例を示すブロック図である。
第1の実施形態と同様に、自動通報アプリケーションプログラムは図8に示したシステムコントローラ302から主メモリ308へロードされることにより、自動通報部Aとして動作する。本実施形態に係る自動通報部Aは、第1の実施形態で説明した装着判定部A1、異常検出部A2、表示データ生成部A3、通報部A4に加え、定期監視処理を行うための定期監視部A5を含む。
定期監視部A5は、例えばタイマーを備える。定期監視部5Aは、所定の時間間隔ごとに安全確認を行う旨の表示データの生成を表示データ生成部A3に依頼する。なお、タイマーは、ソフトウェア及びハードウェアのいずれにより実装されてもよい。また、定期監視部A5は、表示データ生成部A3に含まれていてもよい。
モバイルPC16の記憶部M及び通信部C1、並びに、ウェアラブルデバイス本体24の通信部C2、入力部I、表示部D及びセンサ部Sについては、第1の実施形態と同様であるため、説明を省略する。
図14は、自動通報アプリケーションプログラムにより実行される定期監視処理の一例を示すフローチャートである。
ステップS301において、定期監視部A5は、タイマーの値を確認する。定期監視部A5は、タイマーの値が所定時間以上となったか否かを確認する。所定時間は、例えば1時間などである。なお、定期監視部A5は、タイマーの値が所定時間となるまで待機する。
タイマーの値が所定時間以上となった場合、定期監視部A5は、ステップS302において、タイマーをリセットする。また、定期監視部A5は、表示データ生成部A3に対し定期監視時に用いられる表示データの生成を依頼する。
ステップS303において、表示データ生成部A3は、作業者に定期的な安全確認を行う旨及び作業者の応答を促す旨をウェアラブルデバイス本体24の表示部Dに表示させるための表示データを生成し、生成した表示データを通信部C1を経由してモバイルPC16へ送信する。
ステップS304乃至S307の処理は、図のステップS107乃至S110の処理と同様であるため、説明を省略する。なお、ステップS307の後、処理はステップS301に戻って繰り返し実行される。
図15は、定期監視時の表示画面の一例を示す図である。図15は、図14のステップS304においてウェアラブルデバイス本体24の表示部Dに表示される内容を示す。
図15において、表示部Dは、テキストT2、ボタンBTを含む。テキストT2は、定期的な安全確認である旨を作業者に通知するためのテキストの一例である。テキストT2は、テキストTBを含む。テキストTB及びボタンBTの機能及び役割は図12と同等である。
以上説明した本実施形態においては、自動通報アプリケーションプログラムは、異常検出の有無にかかわらず、定期的に作業者に対して安全確認を行う。したがって、例えば作業者が異常動作を行ったにもかかわらず当該異常動作が検出されない場合でも、定期監視が機能することにより、作業者の安全を確保することができる。
なお、定期監視を行うタイミングは、異常動作が検出されたタイミングに連動して自動的に調整されてもよい。より具体的には、定期監視部A5は、例えば異常検出部A2が異常動作を検出した場合に、タイマーをリセットしてもよい。また、定期監視部A5は、異常検出部A2が作業員の異常動作を検出する頻度に応じて定期監視を行う間隔(すなわち、上述の所定時間の値)を変化させてもよい。例えば、定期監視部A5は、異常検出部A2が作業員の異常動作を検出する頻度が低い場合に、定期監視を行う間隔を大きくし、当該頻度が高い場合に、当該間隔を小さくしてもよい。
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
12…オペレータ端末、14…サーバ、16…モバイルPC、18…遠隔支援センター、22…ネットワーク、23…ウェアラブルデバイス、24…ウェアラブルデバイス本体、A…アプリケーションプログラム、A1…装着判定部、A2…異常検出部、A3…表示データ生成部、A4…通報部、C1,C2…通信部、D…表示部、I…入力部、M…記憶部、M1,S1…センシングデータ、M2…識別用データ、S…センサ部。

Claims (16)

  1. 作業者が装着可能な電子機器であって、
    近接センサ及び接触センサの少なくとも一方と、
    前記作業者の動きを検知するモーションセンサと、
    表示手段と、
    前記近接センサ及び前記接触センサの少なくとも一方により得られる第1のデータに基づいて、前記電子機器が前記作業者により装着中であるか否かを判定する判定手段と、
    前記判定手段により前記電子機器が装着中であると判定された場合に、前記モーションセンサにより得られる第2のデータを解析することにより、前記作業者の異常動作を異常動作の種類毎に検出する検出手段と、
    前記異常動作が検出された旨及び作業者の応答を促す旨を、前記異常動作の種類を示すテキスト及び前記作業者が前記応答を可能な時間を示すテキストを含めて、前記表示手段に表示させる表示制御手段と、
    前記表示手段による表示がなされてから所定期間内に所定の操作を受け付けない場合に、他の機器へ通報を行う通報手段とを備え
    前記表示制御手段は、定期的に前記作業者の安全確認を行う旨の表示データを前記表示手段に表示させる、
    電子機器。
  2. 前記通報手段は、前記表示手段による表示がなされてから前記所定期間内に前記所定の操作を受け付けた場合に、前記通報を行わない請求項1に記載の電子機器。
  3. 過去に得られた複数の前記第1のデータ及び前記第2のデータを格納する記憶手段を更に備え、
    前記検出手段は、格納された前記第1のデータ及び前記第2のデータを用いて、前記異常動作を示す識別用データを生成して前記記憶手段に格納する請求項1又は請求項2に記載の電子機器。
  4. 前記識別用データは、前記異常動作を示すセンサ値の時間変化パターンが前記異常動作の種類毎に生成された標準パターンであり、
    前記検出手段は、現時点で得られた前記第1のデータ及び前記第2のデータを前記異常動作の種類毎の前記標準パターンと比較することにより、前記作業者の前記異常動作を検出する請求項3に記載の電子機器。
  5. 前記識別用データは、前記異常動作としての教師データを用いて学習された識別器であり、
    前記検出手段は、現時点で得られた前記第1のデータ及び前記第2のデータから特徴量を抽出して前記識別器へ入力し、前記特徴量が前記異常動作を示す確率を前記識別器から得ることにより、前記作業者の前記異常動作を検出する請求項3に記載の電子機器。
  6. 前記検出手段は、前記識別用データの更新条件を満たすか否かを判定し、前記更新条件を満たす場合、前記記憶手段に格納された前記第1のデータ及び前記第2のデータから特定データを抽出して前記識別用データを更新する請求項3に記載の電子機器。
  7. 前記更新条件は、前回更新時から現時点までに所定量以上の前記第1のデータ及び前記第2のデータを得たこと、及び前回更新時から所定時間が経過したこと、の少なくとも1つである請求項6に記載の電子機器。
  8. 前記特定データは、前回更新時から現時点までに得られた前記第1のデータ及び前記第2のデータである請求項6に記載の電子機器。
  9. 前記異常動作は、前記作業者の落下、前記作業者の一定時間以上の静止、及び、前記作業者の転倒である請求項1乃至請求項5のいずれか一項に記載の電子機器。
  10. 前記所定の操作は、前記通報手段による前記通報のキャンセルである請求項1又は請求項2のいずれか一項に記載の電子機器。
  11. 前記表示制御手段は、前記通報手段による前記通報のキャンセルの指示ボタンを前記表示手段に表示させる請求項10に記載の電子機器。
  12. 前記近接センサ及び前記接触センサの少なくとも一方と、前記モーションセンサと、前記表示手段とを含む第1の電子機器と、
    前記判定手段と、前記検出手段と、前記通報手段とを含む第2の電子機器とを備える請求項1に記載の電子機器。
  13. 前記第1の電子機器はメガネ型のウェアラブルデバイスであり、
    前記第2の電子機器は前記作業者が携帯可能なパーソナルコンピュータである請求項12に記載の電子機器。
  14. 前記作業者の安全確認を行う旨の表示データを表示する間隔は、異常動作を検出する頻度に応じて変化する、請求項1に記載の電子機器。
  15. 作業者が装着可能であり、近接センサ及び接触センサの少なくとも一方と、前記作業者の動きを検知するモーションセンサと、表示手段を備える電子機器の制御方法であって、
    前記近接センサ及び前記接触センサの少なくとも一方により得られる第1のデータに基づいて、前記電子機器が前記作業者により装着中であるか否かを判定することと、
    前記電子機器が装着中であると判定された場合に、前記モーションセンサにより得られる第2のデータを解析することにより、前記作業者の異常動作を異常動作の種類毎に検出することと、
    前記異常動作が検出された旨及び作業者の応答を促す旨を、前記異常動作の種類を示すテキスト及び前記作業者が前記応答を可能な時間を示すテキストを含めて、前記表示手段に表示させることと、
    前記表示手段による表示がなされてから所定期間内に所定の操作を受け付けない場合に、他の機器へ通報を行うことと、を備え
    前記表示手段に表示させることは、定期的に前記作業者の安全確認を行う旨の表示データを前記表示手段に表示させることを含む、
    制御方法。
  16. 作業者が装着可能であり、近接センサ及び接触センサの少なくとも一方と、前記作業者の動きを検知するモーションセンサと、表示手段を備えるコンピュータにより実行されるプログラムであって、
    前記コンピュータを、
    前記近接センサ及び前記接触センサの少なくとも一方により得られる第1のデータに基づいて、前記コンピュータが前記作業者により装着中であるか否かを判定する判定手段と、
    前記判定手段により前記コンピュータが装着中であると判定された場合に、前記モーションセンサにより得られる第2のデータを解析することにより、前記作業者の異常動作を異常動作の種類毎に検出する検出手段と、
    前記異常動作が検出された旨及び作業者の応答を促す旨を、前記異常動作の種類を示すテキスト及び前記作業者が前記応答を可能な時間を示すテキストを含めて、前記表示手段に表示させる表示制御手段と、
    前記表示手段による表示がなされてから所定期間内に所定の操作を受け付けない場合に、他の機器へ通報を行う通報手段と、して機能させ
    前記表示制御手段は、定期的に前記作業者の安全確認を行う旨の表示データを前記表示手段に表示させる、
    プログラム。
JP2018014662A 2018-01-31 2018-01-31 電子機器、制御方法及びプログラム Active JP7073122B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018014662A JP7073122B2 (ja) 2018-01-31 2018-01-31 電子機器、制御方法及びプログラム
US16/036,239 US20190236924A1 (en) 2018-01-31 2018-07-16 Electronic device, control method, and computer-readable nonvolatile storage medium for storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018014662A JP7073122B2 (ja) 2018-01-31 2018-01-31 電子機器、制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019133385A JP2019133385A (ja) 2019-08-08
JP7073122B2 true JP7073122B2 (ja) 2022-05-23

Family

ID=67393562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018014662A Active JP7073122B2 (ja) 2018-01-31 2018-01-31 電子機器、制御方法及びプログラム

Country Status (2)

Country Link
US (1) US20190236924A1 (ja)
JP (1) JP7073122B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11868940B2 (en) * 2019-06-12 2024-01-09 Shoppertrak Rct Llc Methods and systems for monitoring workers in a retail environment
JP6839242B2 (ja) * 2019-08-21 2021-03-03 エア・ウォーター防災株式会社 警報器、警報器の制御方法、および、警報器の制御プログラム
US11551543B2 (en) 2020-06-02 2023-01-10 Hollymatic Corporation Safety monitoring system
KR20210157874A (ko) * 2020-06-22 2021-12-29 도시바 데지타루 소류숀즈 가부시키가이샤 작업 내용 분석 장치, 작업 내용 분석 방법, 프로그램, 및 센서
WO2023224839A1 (en) * 2022-05-16 2023-11-23 One Million Metrics Corp. System and method for evaluating risk for workers
WO2024090468A1 (ja) * 2022-10-25 2024-05-02 株式会社ニコン プログラム、見守りシステム、及び制御装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036491A (ja) 2001-07-24 2003-02-07 Dokomo Eng Kk 個人の安否を確認できる安否確認システム
JP2009018158A (ja) 2007-06-14 2009-01-29 Hideo Hirose 姿勢モニタシステムおよび身体モニタシステム
JP2009163538A (ja) 2008-01-08 2009-07-23 Hoya Corp 転倒判定システム、転倒判定方法、および転倒判定プログラム
JP2014229199A (ja) 2013-05-24 2014-12-08 一般社団法人Jmii 転倒時通報システム及び転倒時通報システム用プログラム
JP2016066314A (ja) 2014-09-25 2016-04-28 綜合警備保障株式会社 警備システム及び警備方法
JP2016115978A (ja) 2014-12-11 2016-06-23 セコム株式会社 携帯端末、監視システム及び携帯端末用プログラム
JP2016177449A (ja) 2015-03-19 2016-10-06 セコム株式会社 転倒検知端末およびプログラム
JP2016181224A (ja) 2015-03-25 2016-10-13 株式会社日本総合研究所 見守りシステム
US20170180294A1 (en) 2015-12-21 2017-06-22 Google Inc. Automatic suggestions for message exchange threads
JP2018000871A (ja) 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201406167D0 (en) * 2014-04-04 2014-05-21 Acticheck Ltd Wearable apparatus and network for communication therewith
US9269252B2 (en) * 2014-04-17 2016-02-23 Honeywell International Inc. Man down detector
US9547970B2 (en) * 2015-04-14 2017-01-17 General Electric Company Context-aware wearable safety system
US9905107B2 (en) * 2016-07-27 2018-02-27 Accenture Global Solutions Limited Providing predictive alerts for workplace safety

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036491A (ja) 2001-07-24 2003-02-07 Dokomo Eng Kk 個人の安否を確認できる安否確認システム
JP2009018158A (ja) 2007-06-14 2009-01-29 Hideo Hirose 姿勢モニタシステムおよび身体モニタシステム
JP2009163538A (ja) 2008-01-08 2009-07-23 Hoya Corp 転倒判定システム、転倒判定方法、および転倒判定プログラム
JP2014229199A (ja) 2013-05-24 2014-12-08 一般社団法人Jmii 転倒時通報システム及び転倒時通報システム用プログラム
JP2016066314A (ja) 2014-09-25 2016-04-28 綜合警備保障株式会社 警備システム及び警備方法
JP2016115978A (ja) 2014-12-11 2016-06-23 セコム株式会社 携帯端末、監視システム及び携帯端末用プログラム
JP2016177449A (ja) 2015-03-19 2016-10-06 セコム株式会社 転倒検知端末およびプログラム
JP2016181224A (ja) 2015-03-25 2016-10-13 株式会社日本総合研究所 見守りシステム
US20170180294A1 (en) 2015-12-21 2017-06-22 Google Inc. Automatic suggestions for message exchange threads
JP2018000871A (ja) 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法

Also Published As

Publication number Publication date
US20190236924A1 (en) 2019-08-01
JP2019133385A (ja) 2019-08-08

Similar Documents

Publication Publication Date Title
JP7073122B2 (ja) 電子機器、制御方法及びプログラム
US20170038838A1 (en) Information processing system and information processing method
JP2015156610A (ja) 電子機器、および電源制御方法
US11061565B2 (en) Electronic device and control method
US11145304B2 (en) Electronic device and control method
US20200226893A1 (en) Electronic edge computing device
US10852548B2 (en) Electronic device, wearable device, and setting method
US20200098361A1 (en) Electronic device, recognition method, and non-transitory computer-readable storage medium
US20190236260A1 (en) Electronic apparatus, control system, control method, and storage medium
JP6968689B2 (ja) 電子機器、ウェアラブル機器及び表示制御方法
JP6995650B2 (ja) ウェアラブル機器及びその操作方法
JP7062500B2 (ja) 電子機器、接続方法及びプログラム
US10705726B2 (en) Electronic device, wearable device, and character input control method
US11042705B2 (en) Electronic device, recognition method, and non-transitory computer-readable storage medium
US11068573B2 (en) Electronic device and method of starting electronic device
JP6995651B2 (ja) 電子機器、ウェアラブル機器および表示制御方法
US11063822B2 (en) Electronic apparatus and control method
KR20170047060A (ko) 전원차단을 수행하는 이동 단말기 및 그 제어방법
US20220374145A1 (en) Electronic device for outputting keyboard interface and control method therefor
KR20160027813A (ko) 글래스형 단말기
KR20170028626A (ko) 이동 단말기 및 그의 동작 방법

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220511

R150 Certificate of patent or registration of utility model

Ref document number: 7073122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150