JP2017027098A - 操作認識装置、操作認識方法及びプログラム - Google Patents

操作認識装置、操作認識方法及びプログラム Download PDF

Info

Publication number
JP2017027098A
JP2017027098A JP2015141458A JP2015141458A JP2017027098A JP 2017027098 A JP2017027098 A JP 2017027098A JP 2015141458 A JP2015141458 A JP 2015141458A JP 2015141458 A JP2015141458 A JP 2015141458A JP 2017027098 A JP2017027098 A JP 2017027098A
Authority
JP
Japan
Prior art keywords
user
information
location
motion information
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015141458A
Other languages
English (en)
Other versions
JP6483556B2 (ja
Inventor
俊信 中洲
Toshinobu Nakasu
俊信 中洲
司 池
Tsukasa Ike
司 池
山内 康晋
Yasuaki Yamauchi
康晋 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015141458A priority Critical patent/JP6483556B2/ja
Priority to US15/208,289 priority patent/US10296096B2/en
Publication of JP2017027098A publication Critical patent/JP2017027098A/ja
Application granted granted Critical
Publication of JP6483556B2 publication Critical patent/JP6483556B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザが操作を行う前に、ユーザの操作誤りを検出し、操作の誤りを事前に防ぐ。【解決手段】本発明の一態様としての操作認識装置は、ユーザの動きに関する動き情報と、前記ユーザによる操作対象である第1操作箇所の領域情報とを取得する取得部と、前記動き情報に基づき、前記ユーザが着目している位置を推定し、推定した位置と、前記第1操作箇所の領域との位置関係に基づき、前記ユーザが前記第1操作箇所を操作する尤度を算出する算出部と、前記尤度が予め定められた閾値以上の場合に前記動き情報を前記第1操作箇所に対する前記ユーザの操作とする決定部と、を備える。【選択図】図1

Description

本発明の実施形態は、操作認識装置、操作認識方法及びプログラムに関する。
電力制御盤などの保守点検操作において、点検操作員は、事前に定められた点検項目に従い、各地に設置された点検対象機器を操作する。点検操作員は、各点検対象機器の各点検項目に対応する点検操作内容が記載された手順書に従うことで、正しい操作を行うことができる。
しかし、点検対象機器にはボタンやスイッチが複数配置されていることもあり、点検作業に不慣れな点検操作員は、手順書を読み間違え、操作箇所または操作内容を間違える可能性がある。このような点検操作の誤りを放置しないよう、カメラなどにより撮影された点検操作の様子を、管理者が監視室から監視するシステムや、操作前と操作後の機器状態を比較し、正しい操作が行われたかを自動的に判定する手法などが知られている。しかし、これらの手法でも、操作された後でなければ、操作の誤りを認識することができない。
特開平8−328645号公報
Sebastian O.H. Madgwick, Andrew J.L. Harrison, Ravi Vaidyanathan:"Estimation of IMU and MARG orientation using a gradient descent algorithm", 2011 IEEE International Conference on Rehabilitation Robotics, 2011.June
本発明の実施形態は、ユーザが操作を行う前に、ユーザの操作誤りを検出することで、操作の誤りを事前に防ぐ。
本発明の一態様としての操作認識装置は、ユーザの動きに関する動き情報と、前記ユーザによる操作対象である第1操作箇所の領域情報とを取得する取得部と、前記動き情報に基づき、前記ユーザが着目している位置を推定し、推定した位置と、前記第1操作箇所の領域との位置関係に基づき、前記ユーザが前記第1操作箇所を操作する尤度を算出する算出部と、前記尤度が予め定められた閾値以上の場合に前記動き情報を前記第1操作箇所に対する前記ユーザの操作とする決定部と、を備える。
第1の実施形態における操作認識装置の概略構成の一例を示すブロック図。 操作対象の一例を示す図。 動き情報の計測方法の一例を示す図。 ピッチを説明する図。 ヨーを説明する図。 ロールを説明する図。 操作位置推定の一例を示す図。 確率密度分布の一例を示す図。 接触尤度の算出の一例を示す図。 第1の実施形態における操作認識装置の全体処理の概略フローチャート。 加速度センサが計測したセンサデータの一例を示す図。 第2の実施形態における操作認識装置の全体処理の概略フローチャート。 第3の実施形態における操作認識装置の全体処理の概略フローチャート。 第4の実施形態における操作認識装置の概略構成の一例を示すブロック図。 代表的な基本操作における動作パターンの一例を示す図。 第4の実施形態における操作認識装置の全体処理の概略フローチャート。 第5の実施形態における操作認識装置の全体処理の概略フローチャート。 トリガ検出部105をさらに備えた操作認識装置100の概略構成の一例を示すブロック図。 モード切替ジェスチャの一例を示す図。 第6の実施形態における操作認識装置の概略構成の一例を示すブロック図。 第7の実施形態における操作位置推定方法について説明する図。 本発明の一実施形態におけるハードウェア構成の一例を示すブロック図。 本発明の一実施形態におけるハードウェアをウェアラブル端末に含めた場合のシステム構成の一例を示す図。 本発明の一実施形態におけるハードウェアを、ウェアラブル端末の外部の機器により実現した場合のシステム構成の一例を示す図。 カメラを備えたシステム構成の一例を示す図。 本発明の一実施形態におけるハードウェアの外部の機器が警告を出力する場合のシステム構成の一例を示す図。 カメラを備え、本発明の一実施形態におけるハードウェアの外部の機器が警告を出力する場合のシステム構成の一例を示す図。
以下、図面を参照しながら、本発明の実施形態について説明する。
(第1の実施形態)
図1は、第1の実施形態における操作認識装置100の概略構成の一例を示すブロック図である。第1の実施形態における操作認識装置100は、取得部101と、操作認識部102と、出力制御部103と、を備える。
第1の実施形態における操作認識装置100は、操作対象に対し操作を行うユーザの動きを取得し、ユーザが行おうとする操作の位置を推定し、推定した位置が正しい操作箇所であるかを判定し、ユーザの操作の正誤を判断する。ユーザが操作を誤ると判断した場合は、ユーザが操作を行う前に、警告等を行うことにより、操作の誤りを防ぐことができる。ここで、ユーザの動きとは、操作対象に対し操作を行う動作、である。例えば加速度センサを使う場合、ユーザの操作に伴って加速度が変化するので、加速度を用いてユーザの動作を検出することができる。また、カメラ等でユーザの手や指等の位置を検出してもよい。
以下、各部について説明する。
取得部は、操作対象に関する領域情報(以下、領域情報と呼ぶ)と、ユーザの動き情報(以下、動き情報と呼ぶ)を取得する。領域情報と動き情報は、操作認識部102の処理に用いられる。取得部が取得する情報は、上記に限られるわけではなく、これら以外の情報、例えば、管理者からの指示、画像情報などを取得してもよい。
領域情報は、ユーザが操作を行う対象において、操作が行われる領域である操作領域に関する情報を含む。図2は、操作対象の一例を示す図である。この操作対象とされる操作対象機器201には、機器を識別するID、制御用のボタン、スイッチ、メーターなどの操作される部品(操作箇所)が配置されている。ユーザは、手順書などに記載された識別ID202の操作対象機器に対し、操作項目に従い、操作を行う。操作内容としては、図2の例のように、1番目の操作として、ボタン203を押し、2番目の操作として、左の制御スイッチ204を上げるといったものがある。なお、ここでは、複数の操作をまとめて1つの作業と称する。
操作領域は、操作対象の一部分としてもよいし、操作される各部品の領域としてもよいし、1つの作業に含まれる各操作で操作される各部品の領域全てとしてもよい。例えば、図2の例のように、1つの作業において、ボタンとスイッチを操作するのであれば、そのボタンとスイッチの領域を合わせた領域としてもよい。操作領域および各部品の領域は、例えば、操作対象機器の左端を原点として、右に80cm、下に1m離れた位置を中心とした1辺5cmの正方形の領域などとすることが考えられる。
なお、以降の説明では、特に断りがなければ、操作される各部品の領域を操作領域とし、1つの作業に含まれる各操作で操作される各部品の領域全てを作業領域として説明する。
なお、操作対象は、図2のような機器に限られず、ユーザの操作に関連するものであればよい。ボタンなどが配置された分電盤のような機器以外にも、例えば、ボタンなどがないタッチパネルの表示機を備える機器でもよい。また、タッチパネルを用いないデジタルサイネージ(電子看板)、プロジェクタなどにより壁などの対象物に投影されたボタン等が配置された画面でもよい。
領域情報は、操作認識装置100の外部のデータベースなどに予め登録されているものとする。但し、当該データベースを操作認識装置100に含めてもよい。また、データベースに限らず、管理者の入力、ウェアラブル端末または他のシステムからの送信などにより、領域情報を取得してもよい。
領域情報には、操作領域以外の情報を含めてよい。例えば、操作対象機器のID、操作対象機器の寸法、操作対象機器が有するボタンなどの各部品、1つの作業に含まれる各操作が行われる箇所、操作の順番および内容などがある。操作内容としては、押下、上げる、下げる、ひねるなどがある。操作内容は、文章でデータベースに登録されていてもよいし、当該操作時における動き速度情報、あるいは指の傾き変化などのデータとして登録されていてもよい。
また、例えば、ユーザは1番目にボタンを押し、2番目にスイッチを上げて、3番目にダイヤルを回すなど、複数の操作を順番に行う必要がある場合がある。このような場合、次にユーザが行う操作に対応する操作領域を、正解領域と称することとする。なお、操作が1つしかない場合も、正解領域と称することとする。正解領域は、ユーザが行った操作に従い、切り替わる。先ほどの例で言えば、ユーザがボタンを押した後では、正解領域はスイッチを上げる操作にかかる操作領域であり、ユーザがスイッチを上げた後では、正解領域はダイヤルを回す操作にかかる操作領域となる。
取得部101は、領域情報を受動的に取得してもよいし、能動的に取得してもよい。能動的に取得する場合は、ユーザから操作対象の機器IDなどを取得し、当該機器IDなどから領域情報を特定すればよい。操作対象は、機器IDに限らず、ユーザのID、動き情報を取得する装置のIDなどから、過去の操作履歴を参照し、特定してもよい。また、ユーザからではなく、他のシステムから取得してもよい。例えば、ユーザの立ち位置を操作対象の近傍に設置されたカメラやRFID(Radio Frequency Identifier)などから判定するシステムなどが考えられる。
動き情報は、ユーザが操作対象に対し操作を行う動作を表す情報であり、一例として、操作を行うユーザの体の一部または全体に関する動きを示す情報を含む。動き情報は、例えば、加速度、角速度、および地磁気で表されるが、これに限られない。動き情報の計測方法は任意でよく、特定の計測方法に限定されるものではない。例えば、加速度センサ、角速度センサ、地磁気センサを用いて計測してもよい。以降の説明では、特に断りがなければ、動き情報として、加速度情報を用いることを想定する。
図3は、動き情報の計測方法の一例を示す図である。この図では、指に取り付けた指輪型の計測装置(ウェアラブル端末)から、ユーザの指の3軸の加速度を時系列的に取得する例について説明する。計測装置は、指輪型に限られない。例えば、グローブ型、腕輪型などでもよく、装着部位も、腕、手首、手のひら、手の甲など、体のどの部分でもよい。また、加速度に限らず、角速度、地磁気を含んでも良い。また、この図だけでなく、以降の説明において、ウェアラブル端末または指と記述されていても、それらに限られるものではない。
また、図3では、ユーザの指により操作が行われることを想定しているが、指以外の体の一部でもよく、また、ケーブルなどの道具を用いてもよい。
ウェアラブル端末は、標準状態における指の傾きを基準に、絶対空間上の座標軸を設定する。標準状態とは、所定のタイミングにおける指の状態のことを意味する。所定のタイミングは、例えば、ウェアラブル端末のプログラムが処理を開始したタイミングでもよい。音声、ボタンの押下などの外部入力により、ウェアラブル端末に所定の信号が入力されたタイミングでもよい。ウェアラブル端末が、特定の動きを検出したタイミングでもよい。例えば、図3のように、指の所定の形状、姿勢、および角度を、ユーザが一定時間保ち続けた場合、ウェアラブル端末は、標準状態を設定する特定の動きがなされたと判断し、この状態を標準状態として、座標軸を設定してもよい。
絶対空間上の座標軸を設定する方法は、任意でよい。例えば、センサにはxyz座標軸が予め定められており、標準状態におけるセンサのxyz座標軸を、絶対空間上のxyz座標軸と設定してもよい。図3では、標準状態における指先の方向をz軸、指の腹側から甲側の方向をy軸、y軸およびz軸と垂直な方向をx軸として設定している。また、例えば、静止時の3軸加速度の合成ベクトルは、重力加速度の方向になることを利用し、ウェアラブル端末の動きが重力加速度に比べて小さいと仮定して、3軸の加速度から重力加速度方向を算出し、重力加速度方向をy軸として設定してもよい。
ウェアラブル端末は、座標軸の設定後、3軸方向の加速度を取得する。また、座標軸上における指の3次元的な傾きは、例えば、標準状態における指の傾きを基準とした、ピッチ(pitch)、ヨー(yaw)、およびロール(roll)により表現できる。
図4から6はそれぞれ、ピッチ、ヨー、およびロールを説明する図である。ピッチとは、図4に示すように、標準状態における指の左右方向(図3ならばx軸)を軸とした上下方向の回転角である。ヨーとは、図5に示すように、標準状態における指の上下方向(図3ならばy軸)を軸にした左右方向の回転角である。ロールとは、図6に示すように、標準状態における指の前後方向(図3ならばz軸)を軸とした回転角である。
図4から図6に示したピッチ、ヨー、およびロールは、それぞれ下方向、右方向、右回りを正方向としているが、逆でもよい。これらのピッチ、ヨー、およびロールは、加速度、角速度、および地磁気などの動き情報に基づき算出することができる。
ウェアラブル端末と推定装置100との通信は、無線LAN、Bluetooth(登録商標)など、様々な通信手段によって実現されるものとする。また、ウェアラブル端末に推定装置100を含めてもよい。
なお、ここでは取得部101が2つの情報、領域情報と動き情報を取得したが、それぞれの情報を取得する2つの取得部に分離してもよい。
操作認識部102は、ユーザの動きが、正解領域の操作箇所に対する操作かを判断する。算出部102Aは、動き情報に基づき、ユーザが着目している位置を推定し、推定した位置と、正解領域との位置関係に基づき、ユーザが当該正解領域の操作箇所を操作する尤度を算出する。決定部102Bは、一例として、尤度が予め定められた閾値以上の場合に、動き情報を、正解領域の操作箇所に対するユーザの操作と決定、すなわち、ユーザは、正解領域の操作箇所を操作しようとしていると決定する。一方、決定部102Bは、尤度が当該閾値未満の場合に、動き情報が、正解領域の操作箇所に対するユーザの操作でない、すなわち、ユーザは、正解領域の操作箇所を操作しようとしていないと決定する。以下、操作認識部102についてさらに詳細に説明する。
操作認識部102は、算出部102Aを用いて、動き情報に基づき、ユーザが着目している位置を推定する。以下では、ユーザが操作対象機器の操作領域における何らかの箇所(正解領域の操作箇所かもしれないし、それ以外の操作箇所かもしれない)を操作しようとしている状況を想定して、ユーザが着目している位置のことを、ユーザが操作を行おうとしている位置と呼ぶ。また当該位置の推定を行うことを操作位置推定と称する。ここで、操作位置推定は、当該位置を含む領域を推定することを含んでもよい。この場合、推定した領域を推定領域と呼ぶ。算出部102Aは、推定された位置(または領域)と正解領域との位置関係に応じて、ユーザが正解領域の操作箇所を操作する尤度を算出する。この尤度は、ユーザが正解領域に接触する確からしさを表し、接触尤度と呼ぶこともある一例として、推定された位置が正解領域に含まれていれば第1の値、含まれていなければ第2の値を、尤度として算出する。または推定された領域と、正解領域との重複具合に応じて尤度を算出してもよい。例えば推定された領域のうち正解領域と重複する領域サイズが大きいほど、高い尤度を算出してもよい。あるいは、後述するように推定された領域を確率密度分布で表現する場合に、重複領域内の確率密度分布部分を積分した値または確率密度分布部分内の最大値を用いるなど、他の方法を用いて尤度を算出してもよい。決定部102Bは、当該尤度に応じて、ユーザが正解領域の操作箇所を操作しようとしているかを判定(正解領域判定と称する)する。例えば尤度が閾値以上のときは、正解領域の操作箇所を操作しようとしていると判定し、閾値未満のときは、正解領域以外の領域の操作箇所を操作しようとしていると判定する。正解領域の操作箇所を操作しようとしていると判定したときは、ユーザの操作が正しいと判断し、それ以外の場合は、ユーザの操作は誤りと判断する(当該正しいか否かの判断を、正誤判断と称する)。
図7は、操作位置推定の一例を示す図である。左側の四角で表された操作対象機器の操作面に対して垂直に指が向いた状態を標準状態とする。標準状態において、指の指す方向と操作面との交差位置をPsとする。標準状態から指の角度が変化した際に、指の指す方向と操作面とが交差する位置をPとする。ユーザは、操作する箇所に指を向け、その方向に向けて腕を伸ばして操作面にアクセスすると仮定すると、位置Pがユーザの操作を行おうとする位置と推定できる。
手首を支点に、指を標準状態から右方向に角度θr、上方向に角度θuだけ傾けた場合、指している操作面上の位置がPsからPに移動したとして、Pの位置を求める。標準状態におけるユーザの手首の位置Qとし、位置Qと操作対象機器との距離をLとすると、距離Lは距離QPsを表す。Psを通る水平線とPを通る垂直線の交点をPrとすると、角度PsQPrがθrとなる。Psを通る垂直線とPを通る水平線の交点をPuとすると、PsQPuがθuとなる。したがって、位置Pは、Psから右にLtanθrだけ移動し、上にLtanθuだけ移動した位置と表示できる。
指の傾きθrとθuは、設定した絶対空間上のxyz座標軸から求めることができる。しかし、指の傾きは、体の微妙な振動、計測時のノイズなどの影響を受ける。これらのノイズにロバストにするため、ローパスフィルタなどを用いて算出した平均値を用いてもよい。
また、位置Pを、平均値に標準偏差を増減させた範囲として表してもよい。標準偏差を用いると、単に平均値を用いた場合よりも、扱える情報を増やすことができる。例えば、ほとんどの値が平均値付近に分布している場合と、平均値から同程度の離れた2箇所に分布している場合とは、単に平均値を用いると、同じ値となる。しかし、分散を用いることにより、異なるデータとして扱うことができる。
また、位置Pを、確率密度分布を用いて表してもよい。図8は、確率密度分布の一例を示す図である。xy平面における中心点は、図7で示した位置Pを示す。x軸は位置Pに対してのθrの差分、y軸は位置Pに対してのθuの差分、z軸は、各位置におけるサンプル数を全サンプル数で除算した値を示す。このような確率密度分布を用い、位置Pを一点で表すのではなく、領域(範囲)として表してもよい。
操作認識部102は、各操作領域における接触尤度を求める。接触尤度は、操作領域にユーザが接触する確からしさを意味する。図9は、接触尤度の算出の一例を示す図である。実線で描かれた矢印が、指が一定の角度で動くと想定した場合における指の軌跡と接触位置を表す。太枠で描かれた四角は、図8で示した確率密度分布の領域を示す。ここでは、太枠で描かれた四角を試行領域と称する。試行領域は、ユーザが操作しようとしている位置を含む領域に相当する。この試行領域には、2つの操作領域と重複している部分(図9の太枠四角内の白い部分)が存在する。ゆえに、これら2つの重複部分に対し、接触尤度を求める。そして、接触尤度が最も大きい操作領域にかかる操作箇所を、ユーザが操作しようとしている操作箇所と推定する。なお、接触尤度を求めずに、これら重複部分を有する複数の操作領域にユーザが接触する可能性があるとしてもよい。
接触尤度の求め方は、例えば、重複部分の確率密度分布を積分した値で表す方法が考えられる。または、重複部分に含まれる確率密度分布の最大値で表す方法などもある。例えば、図9では、2つの操作領域が同じ大きさである操作箇所を想定したが、操作領域が小さい操作箇所と、操作領域が大きい操作箇所が試行領域に含まれる場合もあり得る。その場合において、接触尤度を重複部分の確率密度分布を積分した値とすると、操作領域が小さい操作箇所のほうが、試行領域の中心に存在しているにも関わらず、接触尤度が小さくなる恐れがある。ゆえに、接触尤度は、確率密度分布の最大値としてもよいし、操作領域における重複部分の割合を考慮してもよいし、操作領域の大きさ、または作業における操作箇所であるか等に応じた重み付けを行ってもよい。
操作認識部102は、上記のように接触尤度などを用いて、ユーザの操作位置が正解領域であるか判定を行い、ユーザの操作の正誤を判断する。ここでは、ユーザの操作の正誤を判断したが、ユーザが正解領域の操作箇所を操作しようとしていないと判断した場合に、ユーザの操作が誤りと判断するのではなく、ユーザは正解領域の操作箇所を操作しようとしていないとの判断を行ってもよい。また、操作対象機器の各部品の作業領域に、ユーザが接触する可能性は無いと判定された場合は、ユーザには操作の意図が無いと判断してもよい。
距離Lおよび指の動き出す位置は、ユーザが操作を開始する時に、ユーザの指または手首などを所定の位置にセットすることとし、その所定の位置としてもよい。または、相対対象の近傍などに置かれたカメラなどの撮像装置の画像に基づき、距離Lなど指の位置を割り出すことのできるシステムから、取得部101を介して取得してもよい。ユーザの作業履歴から算出した平均値を用いてもよい。また距離Lも角度θrとθu同様、確率密度分布にて表してもよい。
なお、ここでは、指がボタンなどに接触して操作が行われることを想定したが、接触しなくとも操作が行われるものも操作として扱ってもよい。例えば、非接触式のICカードなどをカードリーダーにかざす場合などは、カードリーダーに接触しないが、当該かざす行為を、操作箇所(カードリーダー)に対する操作として扱ってもよい。
出力制御部103は、操作認識部102の判断結果に基づき、出力の形式および内容を決定する。また、操作認識部102が、ユーザには操作の意図が無いと判断した場合などでは、何も出力しないとしてもよい。
出力の形式および内容は、任意に定めてよい。出力の形式としては、例えば、警告音もしくはガイダンス音声といった聴覚情報、色彩もしくは「OK」、「NG」などの画像といった視覚情報、またはユーザに付けられたウェアラブル端末などを振動させるといった体感情報などが考えられる。
出力の内容も、任意に定めてよい。「OK」、「NG」など、単純に判定結果を出力するだけでもよい。ユーザの利便性を考慮し、音の強弱、光の点滅度合い、または、誤りなら赤色、正しければ青色、操作ミスをしそうな場合は橙色といった色彩の変化などにより、正解領域との距離を相対的に認識させてもよい。または、具体的に「右隣のボタンを操作して下さい」と表示または音声出力してもよい。上記のように、正解領域を案内するときは、操作認識部102または算出部102Aが、正解領域と試行領域との距離を、領域情報に基づいて算出すればよい。
出力先は、例えば、モニタ、スピーカなど操作対象機器の近傍に設置された出力機器、ユーザが携帯するモバイル端末、ユーザの体に取り付けられたメガネ、ヘッドフォンなどのウェアラブル端末などが考えられる。また、ウェアラブル端末がスクリーンに投影するなど、出力先の機器がさらに別の場所に出力してもよい。出力制御部103は、判定結果に基づき、これら予め定められた複数の出力方法から、一の出力方法を選択すればよい。
次に、第1の実施形態における操作認識装置100の処理のフローについて説明する。図10は、第1の実施形態における操作認識装置100の全体処理の概略フローチャートである。当該フローは、操作認識装置100の電源が入力されたタイミング、または、ユーザもしくは管理者等から操作対象の情報が入力されたタイミングで開始される。
取得部101は、領域情報を取得する(S101)。領域情報を取得する相手先、取得すべき領域情報などは、予め取得部101に設定しておいてもよいし、ユーザもしくは管理者等が通知してもよい。取得された領域情報は、操作認識部に送られる。
取得部101は、ウェアラブル端末などから、ユーザの動き情報を取得する(S102)。動き情報は、随時、操作認識部102に送られる。
操作認識部102の算出部102Aは、動き情報に基づき、ユーザが操作を行おうとする操作位置(領域)を算出する(S103)。そして、算出した操作位置と、正解領域との位置関係に基づいて、ユーザが正解領域の操作箇所を操作する尤度を算出する。
操作認識部102の決定部102Bは、算出部102Aで算出した尤度に応じて、ユーザが正解領域の操作箇所を操作しようとしているかを判定(正解領域判定)し、判定結果に基づき、操作の正誤を判断する(S104)。
出力制御部103は、操作認識部102から判断結果を取得し、出力方法を決定する(S105)。以上が、第1の実施形態の全体の処理のフローとなる。
以上のように、第1の実施形態によれば、ユーザが操作を誤ることを事前に検出することができる。よって、ユーザが誤った操作を実際に行う前に警告等を行うことで、操作の誤りを防ぐことができる。
(第2の実施形態)
次に、第2の実施形態について説明する。以降の説明において、先に説明した実施形態と重複する説明は省略する。
第1の実施形態において、操作認識部102は、図8で示した通り、操作対象から離れた状態における指の動きなどから、ユーザが操作を行おうとしている位置(ユーザが着目している位置)を推定した。この推定には、体動およびノイズ等の影響を受けることから、確率密度分布等を用いることで、推定の精度を高めることができる。それに対し、第2の実施形態における操作認識部102は、ユーザが操作対象に接触したときに、接触位置を推定し、正解領域であるか否かを判定する。ユーザが操作対象機器に接触したか否かは、動き情報で判断することができる。
第2の実施形態において行われる、実際に接触した際の操作位置推定を接触位置推定と称することとする。接触位置推定は、第1の実施形態の操作位置推定と同じく、標準状態との指の角度の変化量に基づき求められるが、接触位置推定は、操作位置推定よりも高精度に推定することが可能である。第1の実施形態では、指が空中にある時点で(操作対象に接触する前に)推定が行われるため、指の振動、実際の方向とのずれなど、誤差が多く含まれる可能性がある。一方で、第2の実施形態では、指が接触した時点の情報で推定するため、指の振動が静止し、また方向のずれはないものとして、接触位置をより正しく推定することができる。
ユーザが操作対象機器に接触した場合でも、操作領域に触れただけでは操作が開始または完了しないような操作であれば、ユーザの誤操作を事前に防ぐことはできる。例えば、ダイヤルを回す、レバーを引くなどの操作を行う場合を考える。ダイヤルやレバーが正解領域の操作箇所でない場合に、ダイヤルやレバーに触れた瞬間に警告を出すことができれば、操作を完了させるために必要な「回す」、「引く」などの動作は行われない。これにより、実際の誤操作が発生するのが事前に防止される。
図11は、加速度センサが計測したセンサデータの一例を示す図である。指が操作箇所等に接触すると、加速度の波形が急峻に変化し、パルス波形が形成される。このため、加速度のパルス波形を検出し、これを用いることにより、操作認識部102は、接触を検出することができる。
なお、操作認識部102は、以下で説明する第1条件と第2条件に基づき、接触を高精度に検出することもできる。
第1条件は、過去の所定時間の加速度の平均値を基準値として、加速度の変化量が所定の閾値「A1」以上であるという条件である。
第2条件は、基準値からの加速度の変化量が最大となる時刻を「Tmax」、所定の時間間隔を「T1」、「T2」として、時刻「Tmax−T2」から時刻「Tmax−T1」までの間と、時刻「Tmax+T1」から時刻「Tmax+T2」までの間とにおける、加速度の変化量が所定の閾値「A2」未満であるという条件である。
なお、時間間隔「T1」、「T2」は、「T2>T1」の関係を有する。また、所定の閾値「A1」、「A2」は、「A1>A2」の関係を有する。例えば、所定の閾値「A2」は、「A1」の半分程度、若しくは半分以下の値をとればよく、基準値よりも大きい値とする。過去の所定時間は、例えば、100〜300ms(ミリセック)程度の時間である。あまり長い時間における加速度の平均値を基準値とした場合、操作領域への指の接触が繰り返し行なわれた場合の検出が困難になる可能性があるため、適宜変更してもよい。また、「A1」は、例えば「0.5×重力加速度」と定義してもよいし、初期設定時に、操作領域への接触を行ない、計測されたデータのピーク値を基準に定めてもよい。
また、時刻「Tmax−T2」から時刻「Tmax−T1」までの間と、時刻「Tmax+T1」から時刻「Tmax+T2」までの間とは、加速度の変化量が最大となる時刻「Tmax」の前後の時間間隔である。
上述のように、接触時の加速度の波形は、加速度の波形が検知される時間が短く、急峻な形状となる。このため、加速度の変化量が最大となる時刻の前後の波形が、基準値と同等の値となっていれば、操作認識部102は、操作領域に指が接触したものと判定してもよい。第1条件および第2条件を用いることにより、本来、指が操作領域に接触しない動作による接触を検出することを抑制することができる。
また、第1条件および第2条件に、第3条件をさらに加えても良い。第3条件は、時刻「Tmax」の前後の時間間隔において、手首の位置が一定の範囲におさまるような静止状態であるという条件である。手首の位置が時系列で算出可能な場合には、操作認識部102は、第3条件をさらに加えて接触を判定することにより、より高精度に接触を検出することができる。
第2の実施形態の構成および機能は、第1の実施形態と同じであるため省略する。図12は、第2の実施形態における操作認識装置100の全体処理の概略フローチャートである。第2の実施形態では、第1の実施形態のフロー同様、領域情報の取得(S101)、動き情報の取得(S102)は同じであるが、接触を検知する(S201)まで、他の処理は行われない。操作認識部102が接触を検知した(S201)ら、操作認識部102により接触位置推定(S202)が行われる。接触位置推定の方法およびその後のフローは、第1の実施形態と同様である。
以上のように、第2の実施形態によれば、操作箇所に触れただけでは操作が完了しない操作に対し、ユーザが操作を誤るのを事前に防ぐことができ、正しい操作箇所を操作するようにユーザに促すことが可能となる。
(第3の実施形態)
第3の実施形態における操作認識部102は、第1の実施形態で行われた操作位置推定だけでなく、第2の実施形態で示した接触位置推定も行う。つまり、操作認識部102は、ユーザが操作箇所に触れる前に操作の正誤を判断し、ユーザが操作対象機器に接触した時にも操作の正誤を判断する。これにより、複数の操作を有する作業において、次々に操作が行われたとしても、操作認識部102が各操作の正誤を判断し、正しい操作であれば、次の操作の正解領域を把握し、次の操作が正しいかを判断することができる。
第3の実施形態のブロック図は、第1および第2の実施形態と同じである。また、本実施形態で行われる操作位置推定と接触位置推定の処理は、第1の実施形態で行われる操作位置推定と、第2の実施形態で行われる接触位置推定と同様であるため、これらの説明は省略する。
なお、距離Lおよび指が動き出す位置は、動き情報だけでは、完全に認識することはできないため、ユーザは次の操作を行う前に、所定の位置に指を再セットするといった動作、またはカメラなどの位置認識システムで、1つの操作終了後に新たに指の位置を把握するといった処理が必要となる。
図13は、第3の実施形態における操作認識装置100の全体処理の概略フローチャートである。当該フローは、第1の実施形態におけるフロー(S101からS105)の後に、第2の実施形態における接触の検知(S201)およびその後のフロー(S202、S104、S105)が実行される。そして、新たに正誤判断の結果に基づく処理が追加されている。ここでは、新たな処理のフローについて説明する。
接触位置の正誤判断により、接触位置が正解領域でないと判断された場合は(S301の誤)、処理は終了する。接触位置が正解領域であると判断された場合は(S301の正)、操作認識部102は、作業の残り操作の有無を確認し、残り操作がない場合は(S302の無)、処理を終了する。残り操作がある場合は(S302の有)、操作認識部102は、正解領域を次の操作に対応する正解領域に更新する(S303)。これにより、操作認識部102は、次の操作における操作位置推定においても、正解領域を把握することができる。更新後は、再度動き情報を取得して(S102)、操作位置推定が行われる(S103)。以上が、第3の実施形態における全体の処理のフローとなる。
なお、図13では、出力制御部103が、接触位置推定に基づく判断結果に従い、出力制御を行った後に、正誤判断の結果に基づくフローが実行されるようにしたが、当該フローの実行は、出力制御と同時に行われて、順番を入れ替えて行われてもよい。
操作認識部102は、出力制御部103に送る判断結果を、操作位置推定と接触位置推定のどちらの判断結果なのかを判別し、出力制御部103は、操作位置推定の判定結果と、接触位置推定の判定結果とで、出力する形式または内容を変更してもよい。例えば、操作位置推定の結果に基づく警告は、小さな表示または音を出力することとし、接触位置推定の結果に基づく警告は、ユーザが気づくように、大きな表示または音を出力するよう制御してよい。これにより、接触前の予備的な警告と、接触後の警告とを区別できるようにして、ユーザの利便性を向上できる。
また、操作位置推定および接触位置推定の履歴を取り、操作位置推定の精度を高める学習機能を有していてもよい。これらの履歴は、確率密度分布の算出または更新に用いることができる。例えば操作位置推定の結果が、接触位置推定の結果に一致するように確率密度分布の形状を更新することが考えられる。また、操作位置推定により推定された操作箇所と、接触位置推定で推定された操作箇所が一致する場合は、操作位置推定を正解として、このときの接触位置推定の履歴を正解データとして用い、一致しない場合は、操作位置推定を誤りとして、このときの接触位置推定の履歴を誤りデータとして用いてもよい。これらの正解データと誤りデータに基づき、操作位置推定の方法を修正することができる。例えば、誤りデータの比率が高い場合は、接触尤度の算出の際の重み付けに傾斜をつけることが考えられる。この学習機能により、より高い精度で操作位置推定を行うことができる。
また、カメラなどを用いて操作箇所を判定する他のシステムなどから、操作箇所のデータを入手し、その操作箇所のデータと接触位置推定の結果を比較して、接触位置推定についても精度を高めてもよい。
以上のように、第3の実施形態によれば、接触前の正誤判断だけでなく、接触時の正誤判断も行うことで、ユーザの操作誤りを防ぐ可能性を高めることができる。そして、複数の操作を順番に行う作業においても、各作業それぞれにおいて、操作の正誤を判断することが可能となる。
(第4の実施形態)
第4の実施形態では、ユーザによる操作箇所への接触後の操作内容についても推定し、接触後の操作内容が正しいかを判定する。
操作箇所が正しくても、例えば、スイッチを上げるべきところを下げてしまうなど、操作内容を誤る場合がある。本実施形態では、動き情報から、ユーザが行った操作内容である動作パターンを認識する。ここでは、この認識を動作パターン認識と称する。そして、動作パターンと、行うべき操作内容である正解動作パターンに基づき、操作内容の正誤を判定する。この判定を正解操作判定と称する。これにより、操作内容についての操作誤りを検知することができる。
図14は、第4の実施形態における操作認識装置100の概略構成の一例を示すブロック図である。第4の実施形態は、第1の実施形態に対し、動作パターン認識部104をさらに備える。
取得部101は、動作パターン認識部104に認識させる動作を、正解動作パターンとして取得する。
正解動作パターンは、領域情報に含めてもよい。手順書の内容として、操作認識装置100の外部または内部のデータベース、システム、ウェアラブル端末などに予め登録され、取得部101は、領域情報を取得した際に、正解動作パターンも取得しているとしてもよい。
また、取得部101は、ユーザまたはウェアラブル端末などの指示を受けて、操作対象機器または操作内容について認識した上で、正解動作パターンを能動的に取得してもよい。
なお、ここでは、取得部101が正解動作パターンを取得することとしたが、領域情報と正解動作パターンが異なる装置、システムなどに格納されている場合などでは、正解動作パターンを取得する部を、取得部101と分けてもよい。
動作パターン認識部104は、取得部101より、動き情報を取得し、動き情報からユーザの動作パターンを認識する。動作パターンは、時系列で得られた加速度、指の傾き、または、それらの特徴量に基づき、判断してもよい。特徴量としては、周波数解析により得られる周波数分布、所定時間ごとに算出した加速度のヒストグラム、傾きの変化方向のヒストグラムなどがある。また、複数の操作それぞれに対応する識別器に、操作の識別を行わせ、各識別器が算出した各操作における当該操作の尤度の分布に基づき、特徴量を定めてもよい。動作パターン認識部104は、当該特徴量と正解動作パターンの特徴量との類似度を算出してもよい。類似度は例えば両者の差分に応じた値でもよい。例えば両者の差分の絶対値またはその2乗でもよいし、その他の値でもよい。正解動作パターンは、特徴量によって記述されてもよいし、パターンを示す識別子によって記述されてもよい。
動作パターンは、算出した特徴量と、予め定められた基準となる基準特徴量を比較し、これらの特徴量の類似度を求め、類似度が予め定めた閾値を越えているかなどにより、決定することができる。動作パターンを決定する基準は、動作パターン認識部104に予め与えられていてもよいし、取得部101が正解動作パターンとともに取得してもよい。
図15は、代表的な基本操作における動作パターンの一例を示す図である。図15(A)がボタンの押下、15(B)がスイッチの切替、15(C)がケーブルの接続、15(D)がテスターの接触に関する動作が描かれている。これらの基本動作パターンには、それぞれ異なる基準特徴量がある。
例えば、ボタン押下とケーブル接続は、同じ押し込む動作ではあるが、押し込む際の反発力および衝撃が異なり、その際に発生する加速度パターンにも差が生ずる。動作パターン認識部104は、例えば、動き情報に対し、これら4つの基本動作パターンの識別を行い、各基本動作に対応する当該動作の尤度を算出してもよい。また、動作パターン認識部が、各尤度の分布に基づき、当該動作の特徴量を算出し、1つの動作パターンを決定してもよい。決定した動作パターンは、当該特徴量によって表現してもよいし、当該パターンに対応する識別子によって表現してもよい。
また、加速度以外にも、装着したセンサから角速度、地磁気、気圧、光、音、生体信号などが取得できる場合は、それらを特徴量として用いてもよい。
識別器としては、ニューラルネットワーク、サポートベクタマシンといった公知のパターン認識手法を用いればよい。
なお、ここでは、動作パターン認識部104が動作パターンを1つに決定し、決定した動作パターンを操作認識部102が正解操作かを判定することを想定しているが、動作パターン認識部104は、特徴量または各基本動作の尤度を算出し、操作認識部102が、当該特徴量または各基本動作の尤度に基づき動作パターンを決定し、さらに当該動作パターンが正解操作かを判定してもよい。
操作認識部102は、今までの実施形態同様、取得部101から動き情報と領域情報を取得する。領域情報には、今までの実施形態同様に各操作の情報が含まれ、本実施形態では正解動作パターンも含まれる。したがって、操作認識部102は、現在の操作に対する正解動作パターンを把握することができ、正解操作判定を行うことができる。
正解操作判定は、動作パターン認識部104から操作認識部102に類似度が送られてきた場合は、動作パターンが正解動作パターンであるかを、類似度が閾値以上かで確認すればよい。類似度が閾値未満であるときは、正解の動作パターンではないと判定し、操作誤りと判断する。あるいは、動作パターン認識部104が操作認識部102に特徴量を送り、操作認識部102が、当該特徴量を正解動作パターンの特徴量と比較することで、類似度を算出し、類似度に基づき同様にして判定してもよい。あるいは、動作パターン認識部104が動作パターンの識別子を操作認識部102に送り、操作認識部102が当該識別子と正解動作パターンの識別子を比較することで判定することも可能である。
図16は、第4の実施形態における操作認識装置100の全体処理の概略フローチャートである。このフローチャートでは、動作パターン認識部104は、操作認識部102とは独立して、取得部101から動き情報を常時取得し、動作パターンを検出することを想定している。操作認識部102がユーザの接触を検知した後に、動作パターンの検出を開始するように制御してもよい。
動作パターン認識部104は、動き情報を取得し、動作パターンを検出する(S401)。検出された動作パターンは操作認識部102に送られ、操作認識部102は、動作パターンが正解動作パターンであるかを判定し、操作の正誤を判断する(S402)。なお、このフローでは、操作の正誤を判断する際、操作認識部102は、動作パターンを検出した時刻が、ユーザの接触を検知した時刻よりも後であることを確認してもよい。出力制御部103の制御は、今までの制御と同様である(S105)。
以上のように、第4の実施形態によれば、操作箇所だけでなく、操作内容についても正誤の判断を行うことができる。また、操作完了後に更新ボタンを押す必要がある場合などでは、事前に操作誤りを認識することができ、ユーザの操作誤りを防ぐことができる。
(第5の実施形態)
第5の実施形態では、操作認識部102が、ある特定の動作(トリガ)を検出した後から、操作位置推定を開始する。操作認識部102が、動き情報に基づき、常に操作位置推定、正解領域判定、正誤判断を行うと、処理の負荷が高くなる。ユーザが計測装置(ウェアラブル端末)を取り付けてから、ユーザに操作開始を指示させることが考えられるが、これはユーザの利便性を欠くことになる。そこで、第5の実施形態では、ユーザが操作を行おうとする前に行う動作をトリガとして検出し、トリガの検出後に、操作位置推定を開始することで、推定装置100の処理の負荷を減らすことができる。
操作認識部102は、動き情報に基づき、トリガを検出する。操作認識部102はトリガを検出するトリガ検出部を含む。トリガを検出するまでは、操作位置推定は行われないものとする。また、トリガとなる動作は、複数定めてもよい。
トリガとなる動作は、例えば、ユーザが操作対象に触れようとする動きが考えられる。ユーザが操作対象に触れようとする動きは、指先方向の加速度、速度、または移動距離などの任意のパラメータに基づき、定めればよい。例えば、ユーザが指を前に伸ばすという動作をユーザが操作対象に触れようとする動きと定義した場合は、指の一定値(基準値)以上の速度で、一定量(基準値)以上移動した場合を、ユーザが指を前に伸ばす動作と定義してもよい。単に加速度が閾値を越えた場合としてもよい。また、過去のユーザの動作の履歴や実験データから、ユーザが指を前に伸ばす動作の特徴量を算出し、その特徴量に基づいて、トリガ判定してもよい。
トリガを判定する閾値(基準値)は、ユーザごとにまたは操作ごとに変えてもよい。また、トリガとなる動きの履歴を取ることにより、ユーザごと操作ごとなど、トリガとなる動きの判定値を変更していってもよい。
また、トリガを検出した後の一定期間内に、操作対象への接触を認識しない場合は、操作認識部102は、再度トリガを検出するまで、操作位置推定を行わないとすることもできる。
トリガと判定するための加速度などの閾値は、操作認識部102に予め定められていてもよいし、取得部101を介して、取得してもよい。
図17は、第5の実施形態における操作認識装置100の全体処理の概略フローチャートである。本フローチャートは、第1の実施形態のフローにおいて、操作認識部102の操作位置推定(S103)の前に、トリガを検知する処理(S501)を有することだけが異なる。トリガを検知する処理(S501)が行われるまで、次の処理である操作位置推定(S103)は行われない。
これにより、操作認識部102は、常に操作位置推定、正解領域判定、正誤判断を行う必要がなくなり、処理負荷を減らすことができる。
また、トリガの検出は、操作認識部102とは別に設けたトリガ検出部105(図18参照)で行ってもよい。または、トリガ検出部105は、操作認識部102が認識する第1のトリガとは別に、第2のトリガを検出してもよい。なお、第2のトリガは第4の実施形態における動作パターン検出部104に検出を行わせてもよい。これにより、第2のトリガを検出するまで、電源制御機能などによって、操作認識部102をスリープ状態など、低消費電力な状態にし、消費エネルギーを削減することができる。つまり、第2のトリガに応じて操作認識部102を起動してもよい。
図18は、トリガ検出部105をさらに備えた操作認識装置100の概略構成の一例を示すブロック図である。トリガ検出部105は、取得部101から動き情報を取得し、動き情報に基づき、第2のトリガとなる動作を検出する。第2のトリガとなる動作は、トリガ検出部105に予め定められていてもよいし、取得部101を介して取得してもよい。
第2のトリガも、第1のトリガ同様、任意に定めてよい。例えば、ユーザが操作を行う前に行われる動作(予備動作)などが考えられる。例えば、指が所定値(基準値)以上の加速度かつ角度変化量が所定値(基準値)以下で動いた場合は、ユーザが意図的に指を動かしたといえ、操作の前段階の準備動作を行ったと考えられる。そして、次の動作として、操作対象に触れようとする動きを行うことが予想される。
また、ユーザが操作を開始する際に、予め定められた動作を必ず行うようにしている場合は、その動作をトリガとしてもよい。例えば、操作を行う前に、必ず操作対象の機器のナンバーや表示器の値を指さし確認すると定められている場合は、その指さしの動作をトリガとしておけば、これから操作が行われることを検知することができる。
また、第1のトリガおよび第2のトリガを認識した場合に履歴を取り、また、その後予想される操作が実際に行われたかの履歴を取り、両履歴に基づき第1のトリガまたは第2のトリガの認識の精度を高める学習機能を有していてもよい。例えばユーザが操作対象に触れようとする動きを第1のトリガとして検知した場合に、その後ユーザが操作を行ったときは、その検知は正解として正解データとして用い、ユーザが操作を行わなかったときは、その検知は誤りとして、誤りデータとして用いてもよい。操作認識部102は、誤りデータと正解データから、その操作対象に触れようとする動きを判定するための加速度などのパラメータの値を見直すことが考えられる。
操作が実際に行われたか否かは、接触位置判定の結果を用いることが考えられる。また、過去の操作履歴を他のシステムなどから入手してもよい。ユーザの接触を検知した時刻とユーザが操作対象に触れようとする動きを検知した時刻を比較し、一定時間の差がある場合は、検知が誤りとして、誤りデータとして活用してもよい。
以上のように、第5の実施形態によれば、操作認識部102の処理数を減らすことができる。また、トリガ検出を、操作認識部102ではなく他の部に行わせることにより、操作認識部102の消費電力を削減するといった利点を得ることができる。
(第6の実施形態)
上記説明した実施形態は、ユーザの指等の動きに従い、操作しようとする箇所や内容を認識するものである。第6の実施形態では、今までに説明した処理に加え、ユーザの特定の動きに従い、ユーザの要望を認識するものである。具体的には、ジェスチャなど、ユーザが特定の動作を行うと、操作認識装置100がその動作を認識し、動作に対応した処理を行う。これにより、操作の合間に、ユーザの要望に応じ、手順書などの表示、音声指示などの処理を行い、ユーザの操作を支援することができる。
第6の実施形態では、今までの実施形態の動作を実現するモード、すなわち、ユーザの操作の正誤を判断する操作正誤判断モードと、本実施形態で新たに導入するジェスチャ操作モードのモードを有する。操作正誤判断モードにあるときに、ユーザがジェスチャ操作モードに切り替える特定のモード切替ジェスチャを行うと、モード切替ジェスチャを認識し、ジェスチャ操作モードに切り替える。
図19は、モード切替ジェスチャの一例を示す図である。この図では、ユーザが打指または指上げのジェスチャを行うと、操作正誤判断モードからジェスチャ操作モードに切り替わることを示す。打指は、親指と人差し指を打ち付ける動作を意味する。また、ユーザが指下げのジェスチャを行うと、ジェスチャ操作モードから操作正誤判断モードに切り替わることを示す。このように、モード切替ジェスチャは、切替える先のモードに対応付けて異なるものとしてもよい。また、1つのモード切替ジェスチャで、順々にモードを切り替えてもよい。なお、モード切替ジェスチャは、モード切替ジェスチャを正しく判別するために、各モードで行われる可能性が低い動作であるほうが望ましい。
なお、ジェスチャ操作モードを、行われる処理などに応じて、複数のモードに分けてもよい。例えば、手順書を表示するモード、手順書の音声ガイダンスを再生するモード、行った操作の履歴を記録するモード、操作認識装置100を管理するモードなど、に分けてもよい。モード切替ジェスチャもそれらのモードに個別に対応づけてもよい。
図19では、ジェスチャ操作として、指を上に上げた状態から左または右方向に傾けることで手順書のページ切替を行うジェスチャ、上または下方向に傾けることで手順書のページスクロールを行うジェスチャ、打指をすることで作業完了記録を行うジェスチャの例を示す。なお、ジェスチャは、計測装置の設置位置同様、指に限られるものではなく、これらの例に限られるものではない。また、打指のあとに手首をひねるなど、同一または異なる部位で行われる複数の動作をジェスチャとしてもよい。または同じ動作を繰り返し行うことをジェスチャとしてもよい。
図20は、第6の実施形態における操作認識装置100の概略構成の一例を示すブロック図である。第1の実施形態に対し、新たにモード切替認識部106を備える。
モード切替認識部106は、取得部101で取得した動き情報からモード切替ジェスチャを検出する。モード切替ジェスチャは、動作パターン認識部104の処理同様、時系列で得られた加速度、指の傾き、または、それらの特徴量に基づき、判断してもよい。
また、打指など、急速に動きが変わるジェスチャは、加速度の波形が急峻に変化する。ゆえに、ユーザが操作対象機器に接触した場合と同様に、図11で示した加速度のパルス波形により検出することができる。
モード切替ジェスチャを検出する基準は、モード切替認識部106に予め定められているものとする。また、管理者などは、取得部101を介して、モード切替認識部106に対し、モード切替ジェスチャの変更、追加、削除を行うことができるものとする。
また、ここでは、モード切替認識部106が、モード切替ジェスチャを認識し、モードの切替およびモード切替後のジェスチャの認識は、操作認識部102が行うことを想定しているが、モード切替後のジェスチャの認識もモード切替認識部106が行ってもよい。
また、動作パターン認識部104またはトリガ検出部105を有する場合は、モード切替認識部106の機能を、動作パターン認識部104またはトリガ検出部105にて行なってもよい。
操作認識部102は、モード切替認識部106よりモード切替ジェスチャの検知を通知された場合は、操作モードを切り替える。また、モード切替ジェスチャであるかの判定を操作認識部102が行う場合は、モード切替認識部106より送られてきた特徴量と、モード切替ジェスチャの特徴量とを比較し、類似度を算出する。類似度が閾値以上であるときは、モード切替操作であると認識し、ジェスチャ操作モードに切り替えるとしてもよい。
なお、操作認識部102は、操作正誤を判断するモードにおいて、操作誤りの判断を行っていたとしても、ジェスチャ操作モードに切り替えるためのジェスチャを認識した時点で、判断結果を取り消してもよい。
ジェスチャ操作モードでは、操作認識部102は、操作位置推定の代わりに、ジェスチャ認識を行う。ジェスチャ認識は、動作パターン認識と同様に、時系列で得られた加速度、指の傾き、または、それらの特徴量を算出し、ユーザの動きが予め定められた特定のジャスチャであるかを判断する。なお、ジェスチャ操作モードでは、操作位置推定を行わないため、例えば、ジェスチャ操作モードであるというフラグを立て、そのフラグがある間は、操作誤り判定を行わず、ジェスチャ判定を行うものとすればよい。
操作認識部102は、ジェスチャ操作モードにおいて、モード切替ジェスチャを認識した場合、モード切替認識部106によらず、ジェスチャ操作モードであるというフラグを下ろして、操作位置推定を再開してもよい。その場合、モード切替認識部106は、操作認識部102から操作正誤判断モードへの切替通知を受けるまで、処理を停止してもよい。
出力制御部103は、操作正誤判断結果の取消およびジェスチャ操作モードへの切り替えを通知された場合、今までの制御を取り消して、ジェスチャ操作モードに対応する制御を行う。例えば、手順書の表示、音声ガイダンスのメニューを表示させるなどの制御を行う。
以上のように、第6の実施形態によれば、操作認識装置100から情報の提供を受けてきたユーザが、操作認識装置100に対して、情報の提供を求めることができ、操作箇所・内容を能動的に確認することができ、より質の高いユーザ支援を行うことができる。
(第7の実施形態)
上記説明した実施形態では、計測装置が計測した動き情報に基づき、ユーザの指などの角度の変化を認識して、操作位置推定を行った。第7の実施形態では、さらにカメラの画像を用いて、操作位置推定を行う。
本実施形態の構成は、第1の実施形態と同じである。
取得部101は、撮像装置で撮影された画像を取得する。画像には、ユーザの操作箇所が映るものとする。また、画像として動画を用いてもよい。撮像装置は、特に限られるものではない。深度センサなどを有する3Dカメラでもよい。
カメラは、操作対象機器の近傍に設置されていてもよいし、ユーザまたはユーザが所持する物に取り付けられていてもよい。例えば、ユーザの装着したメガネ、ヘルメットなどに取り付けられていてもよいし、ユーザ自体が首から下げる形で所持してもよい。
操作認識部102は、今まで説明した実施形態と同様、操作位置推定を行うが、本実施形態では、取得部101が取得した画像をさらに用いて、操作位置推定を行う。例えば、取得部101から取得した操作対象、操作領域、正解領域などの幾何情報と、当該画像内の対応する部分の幾何情報を用いて、当該画像に映されたユーザの指などの位置、縮尺を認識し、操作位置を推定する。
図21は、第7の実施形態における操作位置推定方法について説明する図である。接触対象機器の上方にカメラ301が設置されており、カメラ301はユーザの操作の画像を映すことができるものとする。図21では、ユーザが操作対象機器201のボタン203に対し操作を行おうとしているが、操作を行おうとする指の動き出す位置およびボタン203が、カメラ301の画像に含まれるものとする。カメラ301の画像は、取得部101に送られる。
操作認識部102は、操作対象が判明した後で、領域情報に含まれる実際の操作対象の寸法と、カメラ301の画像に映された操作対象のサイズとに基づき、カメラ301の角度と位置を推定する。操作対象ではなく、操作対象の各操作部品またはその他の物から推定してもよい。操作対象にサイズを認識するためのシールなどを取り付けてもよい。操作対象または操作部品の各辺のサイズと、カメラ301の画像に映された対応する部分のサイズとの縮尺、あるいは、当該画像内での前記対象機器の歪み方などから、カメラ301の角度と位置を算出できる。
操作認識部102は、動き情報の変化の累積に基づき、指の移動速度および移動方向を算出する。同時に、カメラ301の画像内の指を認識し、当該画像内における指の移動方向成分に対する移動速度が算出できる。
算出した移動速度とカメラ301の画像内の移動速度との関係により、指とカメラとのおおよその距離、相対的な位置を把握することができる。また、操作対象または操作領域とのおおよその距離または相対的な位置も判明する。これにより、指の動き出す位置を推定することができる。その動き出す位置と前記算出した移動方向に基づき、操作位置および接触位置を推定することができる。
なお、画像により認識されるこれらのパラメータは、一定の幅を持たせた値として設定してもよく、それに伴い、操作位置等は尤度分布で表わされてもよい。
また、画像により、接触位置を把握してもよい。操作認識部102が、ユーザが操作対象に接触した時刻を把握し、その時刻における画像情報から、ユーザの接触位置を把握することができる。
以上のように、第7の実施形態によれば、ユーザと操作対象との距離、標準状態の姿勢の影響を受けずに、操作位置を推定することができる。
上記に説明した実施形態における各処理は、ソフトウェア(プログラム)によって実現することが可能である。よって、上記に説明した実施形態における操作認識装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用い、コンピュータ装置に搭載されたCPU(プロセッサ)にプログラムを実行させることにより実現することが可能である。
図22は、本発明の一実施形態におけるハードウェア構成の一例を示すブロック図である。操作認識装置100は、CPU401、記憶装置402、ネットワークインタフェース403、デバイスインタフェース404、入力装置405を備え、これらがバス406を介して接続された、コンピュータ装置400として実現できる。
CPU401は、コンピュータ装置400の制御装置および演算装置である。CPU401は、バス406を介して接続された各装置(例えば、主記憶装置402、ネットワークインタフェース403、入力装置406)から入力されたデータやプログラムに基づいて演算処理を行い、演算結果や制御信号を、バス406を介して接続された各装置(例えば、記憶装置402、ネットワークインタフェース403、デバイスインタフェース404)に出力する。
具体的には、CPU401は、コンピュータ装置400のOS(オペレーティングシステム)や、各実施形態の処理を実現するプログラム(認識プログラム)などを実行し、コンピュータ装置400を構成する各装置を制御する。認識プログラムとは、コンピュータ装置400に、認識装置の上述の各機能構成を実現させるプログラムである。CPU401が認識プログラムを実行することにより、コンピュータ装置400が操作認識装置100として機能する。
記憶装置402は、コンピュータ装置400のOSや、認識プログラム、認識プログラムの実行に必要なデータ、および認識プログラムの実行により生成されたデータなどを記憶する記憶媒体である。記憶装置402には、主記憶装置と外部記憶装置とが含まれる。主記憶装置は、例えば、RAM、DRAM、SRAMであるが、これに限られない。記憶装置402は、加速度情報センサ等から取得する動きデータ、データベース等から取得する領域情報、操作認識部102の推定結果などを記憶することができる。
ネットワークインタフェース403は、コンピュータ装置400が外部装置と無線又は有線で通信するための装置である。ネットワークインタフェース403は、例えば、モデム、ハブ、およびルータであるが、これに限られない。加速度情報センサ等から取得する動きデータ、データベース等から取得する領域情報は、ネットワークインタフェース403を介して取得することができる。また、出力制御部103の出力制御の情報は、ネットワークインタフェース403を介して、外部の通信装置に送信されてもよい。
デバイスインタフェース404は、外部装置501と接続する。外部装置501は、外部記憶装置でもよい。外部記憶装置は、ハードディスク、光ディスク、フラッシュメモリ、および磁気テープであるが、これに限られない。また、外部装置501は、出力制御部103により制御される出力装置であってもよい。例えば、LCD(液晶ディスプレイ)、CRT(ブラウン管)、タッチパネル、およびPDP(プラズマディスプレイ)であるが、これに限られない。また、出力装置は、コンピュータ装置400の管理するための出力装置であってもよい。例えば、取得部101が取得した加速度センサなどのセンサデータなどの情報を表示してもよい。
入力装置405は、コンピュータ装置400に情報を入力するための装置である。入力装置102は、例えば、キーボード、マウス、およびタッチパネルであるが、これに限られない。
なお、コンピュータ装置400は、CPU401、記憶装置402、ネットワークインタフェース403、デバイスインタフェース404、入力装置405を、1つ又は複数備えてもよい。また、デバイスインタフェース404を介して、プリンタやスキャナなどの周辺機器と接続されていてもよい。
また、認識装置は、単一のコンピュータにより構成されてもよいし、相互に接続された複数のコンピュータからなるシステムとして構成されてもよい。
さらに、認識プログラムは、記憶装置402に予め記憶されていてもよいし、CD−ROMなどの記憶媒体に記憶されていてもよいし、インターネット上にアップロードされていてもよい。いずれの場合も、認識プログラムをコンピュータ装置400にインストールして実行することにより、認識装置を構成することができる。
図23から27は、本発明の一実施形態におけるシステム構成の一例を示す図である。
図23は、本発明の一実施形態におけるハードウェアをウェアラブル端末に含めた場合のシステム構成の一例を示す図である。当該ウェアラブル端末の一例として示された指輪型ウェアラブル端末302Aおよび腕輪型ウェアラブル端末302Bは、加速度センサなど動き情報を取得する取得部と、当該ハードウェアと、光、音声、振動などを出力する出力部を備える。そして、ユーザの操作誤りを検出したときは、出力制御部103の指示に従い、光、音声、振動などにより、当該出力部がユーザに警告を行う。
図24は、本発明の一実施形態におけるハードウェアを、ウェアラブル端末の外部の機器により実現した場合のシステム構成の一例を示す図である。当該外部機器の一例として示されたサーバ502および携帯端末503は、当該ハードウェアと、光、音声、振動などを出力する出力部を備える。なお、サーバ502には、外部装置501が接続されていてもよい。サーバ502および携帯端末503は、ウェアラブル端末から送られた動き情報を、ネットワークインタフェース403を介して取得する。そして、ユーザの操作誤りを検出したときは、出力制御部103の指示に従い、光、音声、振動などにより、当該出力部がユーザに警告を行う。
図25は、カメラを備えたシステム構成の一例を示す図である。カメラ301は、操作対象機器201の近傍に設置された監視カメラでも、ユーザのヘルメット、メガネなどに取り付けられたウェブカメラなどでもよい。カメラ301は、ユーザの指の位置などを認識することのできる画像を、サーバ502に送る。また、ウェアラブル端末は、動き情報をサーバ502に送る。サーバ502は、当該画像により、ユーザが操作を行おうとする位置を、画像なしのときよりも正確に認識する。そして、ユーザの操作誤りを検出したときは、サーバ502の出力部がユーザに警告を行う。
図26は、本発明の一実施形態におけるハードウェアの外部の機器が警告を出力する場合のシステム構成の一例を示す図である。警告を出力する機器として示された眼鏡型ディスプレイ504は、画像などの視覚的な情報を出力する出力部を備える。眼鏡型ディスプレイ504の出力部は、ネットワークインタフェース403を介して送られた出力制御部103の指示に従い、ユーザに警告を行う。視覚的な情報は、ユーザが眼鏡を介して見る実景に重畳させてもよい。なお、出力させる機器は、動き情報を取得する機器と同じでもよい。
図27は、カメラを備え、本発明の一実施形態におけるハードウェアの外部の機器が警告を出力する場合のシステム構成の一例を示す図である。各構成機器の構成および動作は、他のシステムと同様である。
上記に、本発明の一実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 操作認識装置
101 取得部
102 操作認識部
103 出力制御部
104 動作パターン認識部
105 トリガ検出部
106 モード切替認識部
201 操作対象機器
202 機器ID
203 ボタン
204 制御スイッチ
301 カメラ
302A 指輪型ウェアラブル端末
302B 腕輪型ウェアラブル端末
400 コンピュータ装置
401 CPU
402 記憶装置
403 ネットワークインタフェース
404 デバイスインタフェース
405 入力装置
406 バス
501 外部装置
502 サーバ
503 携帯端末
504 眼鏡型ディスプレイ

Claims (17)

  1. ユーザの動きに関する動き情報と、前記ユーザの操作対象である第1操作箇所を含む領域情報とを取得する取得部と、
    前記動き情報に基づき、前記ユーザが着目している位置を推定し、推定した位置と、前記第1操作箇所の領域との位置関係に基づき、前記ユーザが前記第1操作箇所を操作する尤度を算出する算出部と、
    前記尤度が予め定められた閾値以上の場合に前記動き情報を前記第1操作箇所に対する前記ユーザの操作とする決定部
    を備える操作認識装置。
  2. 出力制御部をさらに備え、
    前記決定部は、前記尤度が予め定められた閾値未満の場合に前記動き情報は前記第1操作箇所に対する操作ではないと決定し、
    前記出力制御部は、前記決定部の決定に応じた信号を出力するよう制御する
    を備えた請求項1に記載の操作認識装置。
  3. 前記領域情報は、前記第1操作箇所とは異なる第2から第N(Nは2以上の整数)操作箇所の領域情報を含み、
    前記算出部は、前記ユーザが着目している位置を含む領域を推定し、
    前記決定部は、前記推定した領域と、前記第1〜第N操作領域のそれぞれとの重複具合に応じて、前記ユーザが前記第1〜N操作箇所を操作する第1〜N尤度を算出し、前記第1〜N尤度に基づき、前記動き情報が前記第1操作箇所に対する前記ユーザの操作かを判断する
    請求項1ないし2のいずれか一項に記載の操作認識装置。
  4. 前記算出部は、前記推定した領域内の各位置について前記ユーザが各位置で操作する確率を表す確率密度情報を算出し、前記確率密度情報を用いて前記第1〜第N尤度を算出する
    請求項3に記載の操作認識装置。
  5. 前記決定部は、前記推定した領域の一部または全部が、前記第1から前記第N操作領域のいずれとも重複しない場合には、前記動き情報が前記第1操作箇所に対する前記ユーザの操作かの判断を行わない
    請求項3に記載の操作認識装置。
  6. 前記動き情報は、前記ユーザの加速度に関する加速度情報を含み、
    前記決定部は、前記加速度情報に基づき、操作対象機器に接触したと認識した場合に、前記動き情報に基づき、前記ユーザが接触した領域を算出し、算出した領域と前記第1操作箇所の領域との関係に基づき、前記ユーザが前記第1操作箇所を操作したかを判断する
    請求項4または5に記載の操作認識装置。
  7. 前記領域情報は、前記ユーザが前記第1操作箇所に接触した後の前記ユーザの操作対象である第2操作箇所の領域情報を含み、
    前記決定部は、前記ユーザが前記第1操作箇所を操作したかを判断した後に、前記ユーザの動き情報が、前記第2操作箇所に対する前記ユーザの操作かの判断を行う
    請求項6に記載の操作認識装置。
  8. 前記算出部は、前記接触した領域に基づき、前記確率密度情報を更新する
    請求項6または7に記載の操作認識装置。
  9. 前記決定部は、前記ユーザの動き情報が前記第1操作箇所に対する前記ユーザの操作かを判断することなく、前記ユーザが前記第1操作箇所を操作したかを判断する
    請求項6に記載の操作認識装置。
  10. 前記決定部は、前記ユーザが前記操作対象機器に接触したと認識した場合に、前記動き情報と第1基準値に基づき、前記ユーザが前記第1操作箇所に対して第1動作を行ったかを判断する
    請求項6ないし9のいずれか一項に記載の操作認識装置。
  11. 前記動き情報と第2基準値に基づき、前記ユーザが前記第1操作箇所を操作する前に行われるトリガとなる第2動作を検出するトリガ検出部を備え、
    前記算出部は、前記第2動作が検出された後に、前記ユーザが着目している位置を推定する処理を開始する
    請求項1ないし10のいずれか一項に記載の操作認識装置。
  12. 前記算出部は、前記第2動作が検出される前は、前記ユーザが着目している位置を推定する処理を行わない
    請求項1ないし10のいずれか一項に記載の操作認識装置。
  13. 前記算出部は、前記ユーザの動き情報が前記第1操作箇所に対する前記ユーザの操作かどうかの判断結果に応じて、前記第2基準値を更新する
    請求項11または12に記載の操作認識装置。
  14. 少なくとも、前記ユーザの動き情報が前記第1操作箇所に対する前記ユーザの操作かを判断するモードと、前記ユーザの動作に応じて前記モードとは異なる処理を行うモードの2つの動作モードを有し、
    前記動き情報に基づき前記動作モードの切り替えを指示する動作を検出した場合に、前記動作モードの切り替えを行う
    請求項1ないし13のいずれか一項に記載の操作認識装置。
  15. 前記取得部は、前記ユーザと、前記第1操作箇所を含む画像情報を取得し、
    前記算出部は、前記動き情報と前記領域情報と前記画像情報とに基づき、前記ユーザと、前記第1操作箇所との距離または相対的な位置を認識する
    請求項1ないし14のいずれか一項に記載の操作認識装置。
  16. ユーザの動きに関する動き情報と、前記ユーザによる操作対象である第1操作箇所の領域情報とを取得する取得ステップと、
    前記動き情報に基づき、前記ユーザが着目している位置を推定し、推定した位置と、前記第1操作箇所の領域との位置関係に基づき、前記ユーザが前記第1操作箇所を操作する尤度を算出するステップと、
    前記尤度が予め定められた閾値以上の場合に前記動き情報を前記第1操作箇所に対する前記ユーザの操作と決定するステップと
    を備える操作認識方法。
  17. ユーザの動きに関する動き情報と、前記ユーザによる操作対象である第1操作箇所の領域情報とを取得する取得ステップと、
    前記動き情報に基づき、前記ユーザが着目している位置を推定し、推定した位置と、前記第1操作箇所の領域との位置関係に基づき、前記ユーザが前記第1操作箇所を操作する尤度を算出するステップと、
    前記尤度が予め定められた閾値以上の場合に前記動き情報を前記第1操作箇所に対する前記ユーザの操作と決定するステップと
    をコンピュータに実行させるためのプログラム。
JP2015141458A 2015-07-15 2015-07-15 操作認識装置、操作認識方法及びプログラム Active JP6483556B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015141458A JP6483556B2 (ja) 2015-07-15 2015-07-15 操作認識装置、操作認識方法及びプログラム
US15/208,289 US10296096B2 (en) 2015-07-15 2016-07-12 Operation recognition device and operation recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015141458A JP6483556B2 (ja) 2015-07-15 2015-07-15 操作認識装置、操作認識方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017027098A true JP2017027098A (ja) 2017-02-02
JP6483556B2 JP6483556B2 (ja) 2019-03-13

Family

ID=57776598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015141458A Active JP6483556B2 (ja) 2015-07-15 2015-07-15 操作認識装置、操作認識方法及びプログラム

Country Status (2)

Country Link
US (1) US10296096B2 (ja)
JP (1) JP6483556B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160096A (ja) * 2018-03-15 2019-09-19 株式会社リコー 情報処理システム、情報処理方法、情報処理装置及びプログラム
JP6884911B1 (ja) * 2020-07-14 2021-06-09 九電ビジネスソリューションズ株式会社 運用保守システム、運用保守方法および運用保守プログラム
JP7502123B2 (ja) 2020-09-10 2024-06-18 株式会社日立製作所 画面操作教育システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095795A (ja) 2014-11-17 2016-05-26 株式会社東芝 認識装置、方法、及びプログラム
FR3080696B1 (fr) * 2018-04-25 2021-02-26 Renault Sas Systeme d'ajustement de localisation en environnement virtuel immersif
CN109697407A (zh) * 2018-11-13 2019-04-30 北京物灵智能科技有限公司 一种图像处理方法及装置
US10956295B1 (en) * 2020-02-26 2021-03-23 Sap Se Automatic recognition for smart declaration of user interface elements

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JP2006518237A (ja) * 2003-02-21 2006-08-10 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド データ処理の制御
JP2009217477A (ja) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp 入力装置
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
JP2011170866A (ja) * 1998-10-13 2011-09-01 Sony Electronics Inc 動作検知インターフェース
JP2012146220A (ja) * 2011-01-13 2012-08-02 Olympus Corp ジェスチャ入力装置
JP2014082668A (ja) * 2012-10-17 2014-05-08 Sony Corp 通信システムおよびプログラム
JP2014526822A (ja) * 2011-09-12 2014-10-06 マイクロソフト コーポレーション ソフトキーボードインタフェース
JP2015099574A (ja) * 2013-11-20 2015-05-28 株式会社東芝 認識装置、認識方法、認識プログラム及び端末装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152870A (ja) 1993-12-01 1995-06-16 Matsushita Electric Ind Co Ltd 手書き文字表示装置
JPH07271506A (ja) 1994-03-30 1995-10-20 Nippon Telegr & Teleph Corp <Ntt> 書き込み指輪
JPH08328645A (ja) 1995-05-31 1996-12-13 Toshiba Corp プラント監視装置、プラント操作支援装置及びプラント監視・操作支援装置
JP4119187B2 (ja) 2002-07-17 2008-07-16 国立大学法人金沢大学 入力装置
JP2004258837A (ja) 2003-02-25 2004-09-16 Nippon Hoso Kyokai <Nhk> カーソル操作装置、その方法およびそのプログラム
KR100543703B1 (ko) 2003-09-08 2006-01-20 삼성전자주식회사 포인팅 장치 및 그 방법
JP4474529B2 (ja) 2004-11-29 2010-06-09 独立行政法人産業技術総合研究所 作業状況記録装置、その記録方法及び記録プログラム
JP5133515B2 (ja) 2005-11-14 2013-01-30 任天堂株式会社 ゲーム装置およびゲームプログラム
JP2007194958A (ja) 2006-01-19 2007-08-02 Matsushita Electric Ind Co Ltd 入力装置および携帯端末装置
KR100793079B1 (ko) 2006-12-08 2008-01-10 한국전자통신연구원 손목착용형 사용자 명령 입력 장치 및 그 방법
JP4683148B2 (ja) * 2009-02-27 2011-05-11 株式会社デンソー 電気機器
JP5418187B2 (ja) 2009-12-02 2014-02-19 ソニー株式会社 接触操作判定装置、接触操作判定方法およびプログラム
JP5370144B2 (ja) 2009-12-28 2013-12-18 ソニー株式会社 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム
JP2011253292A (ja) * 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP5658500B2 (ja) 2010-07-26 2015-01-28 キヤノン株式会社 情報処理装置及びその制御方法
JP2012089083A (ja) 2010-10-22 2012-05-10 Dipross Co Ltd 電子機器の情報入力装置及び方法
US8817087B2 (en) * 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
JP5845969B2 (ja) 2012-02-27 2016-01-20 カシオ計算機株式会社 情報処理装置、情報処理方法及びプログラム
US20120317516A1 (en) 2011-06-09 2012-12-13 Casio Computer Co., Ltd. Information processing device, information processing method, and recording medium
JP5547139B2 (ja) 2011-07-29 2014-07-09 株式会社東芝 認識装置、方法及びプログラム
JP5989479B2 (ja) 2012-09-20 2016-09-07 シャープ株式会社 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP6329469B2 (ja) 2014-09-17 2018-05-23 株式会社東芝 認識装置、認識方法及び認識プログラム
JP2016095795A (ja) 2014-11-17 2016-05-26 株式会社東芝 認識装置、方法、及びプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JP2011170866A (ja) * 1998-10-13 2011-09-01 Sony Electronics Inc 動作検知インターフェース
JP2006518237A (ja) * 2003-02-21 2006-08-10 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド データ処理の制御
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
JP2009217477A (ja) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp 入力装置
JP2012146220A (ja) * 2011-01-13 2012-08-02 Olympus Corp ジェスチャ入力装置
JP2014526822A (ja) * 2011-09-12 2014-10-06 マイクロソフト コーポレーション ソフトキーボードインタフェース
JP2014082668A (ja) * 2012-10-17 2014-05-08 Sony Corp 通信システムおよびプログラム
JP2015099574A (ja) * 2013-11-20 2015-05-28 株式会社東芝 認識装置、認識方法、認識プログラム及び端末装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160096A (ja) * 2018-03-15 2019-09-19 株式会社リコー 情報処理システム、情報処理方法、情報処理装置及びプログラム
JP7102809B2 (ja) 2018-03-15 2022-07-20 株式会社リコー 情報処理システム及び情報処理方法
JP6884911B1 (ja) * 2020-07-14 2021-06-09 九電ビジネスソリューションズ株式会社 運用保守システム、運用保守方法および運用保守プログラム
JP2022017914A (ja) * 2020-07-14 2022-01-26 九電ビジネスソリューションズ株式会社 運用保守システム、運用保守方法および運用保守プログラム
JP7502123B2 (ja) 2020-09-10 2024-06-18 株式会社日立製作所 画面操作教育システム

Also Published As

Publication number Publication date
US20170017303A1 (en) 2017-01-19
JP6483556B2 (ja) 2019-03-13
US10296096B2 (en) 2019-05-21

Similar Documents

Publication Publication Date Title
JP6483556B2 (ja) 操作認識装置、操作認識方法及びプログラム
US9329714B2 (en) Input device, input assistance method, and program
US9829998B2 (en) Information processing apparatus, input apparatus, information processing system, information processing method, and program
US9134800B2 (en) Gesture input device and gesture input method
US10055064B2 (en) Controlling multiple devices with a wearable input device
US9229573B2 (en) Input device, input support method, and program
JP5412227B2 (ja) 映像表示装置、および、その表示制御方法
TWI546724B (zh) 用以在通訊設備間傳送資訊項目之裝置及方法
US10042386B2 (en) Information processing apparatus, information processing method, and program
US20130106700A1 (en) Electronic apparatus and input method
CN105308538A (zh) 基于所检测到的示意动作执行装置动作的系统和方法
US11886643B2 (en) Information processing apparatus and information processing method
JP2012027515A (ja) 入力方法及び入力装置
US20160370861A1 (en) Input device and input control method
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
US20150002417A1 (en) Method of processing user input and apparatus using the same
WO2021004413A1 (zh) 一种手持输入设备及其指示图标的消隐控制方法和装置
JP2016119019A (ja) 情報処理装置、情報処理方法、プログラム
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
JP6384376B2 (ja) 情報処理装置、プログラム、携帯端末、及び情報処理システム
JP7069887B2 (ja) 携帯端末装置および携帯端末装置の表示制御方法
JP2013109538A (ja) 入力方法及び入力装置
JP7035662B2 (ja) 携帯端末装置および携帯端末装置の表示制御方法
US20140152622A1 (en) Information processing apparatus, information processing method, and computer readable storage medium
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190214

R151 Written notification of patent or utility model registration

Ref document number: 6483556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151