JP6982656B2 - 眼で操作するアイポインティングシステム - Google Patents

眼で操作するアイポインティングシステム Download PDF

Info

Publication number
JP6982656B2
JP6982656B2 JP2020081086A JP2020081086A JP6982656B2 JP 6982656 B2 JP6982656 B2 JP 6982656B2 JP 2020081086 A JP2020081086 A JP 2020081086A JP 2020081086 A JP2020081086 A JP 2020081086A JP 6982656 B2 JP6982656 B2 JP 6982656B2
Authority
JP
Japan
Prior art keywords
eye
user
image
pointing system
gui
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020081086A
Other languages
English (en)
Other versions
JP2020123396A (ja
Inventor
信策 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016032874A external-priority patent/JP6700849B2/ja
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Priority to JP2020081086A priority Critical patent/JP6982656B2/ja
Publication of JP2020123396A publication Critical patent/JP2020123396A/ja
Application granted granted Critical
Publication of JP6982656B2 publication Critical patent/JP6982656B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、測定システムに関し、具体的には、測定作業を行いながら測定データの記録や編集を容易に行うための測定システムに関する。
ワークを測定機で測定した結果はコンピュータ等の外部機器に転送され記録されるようになっている。そのための測定システムが種々提案されている(例えば、特許文献1、2、3)。例えば、図1に測定システムの一例を示す。
図1においては、ワークWをデジタルマイクロメータ10で測定している。デジタルマイクロメータ10とコンピュータ80とは無線または有線で通信接続されている。
ユーザがマイクロメータ10でワークWを測定し、データ転送ボタン11を押す。すると、測定値がマイクロメータ10からコンピュータ80に転送され、コンピュータ80が測定値を記録していく。
なお、データ転送ボタン11は、マイクロメータ10上の押しやすいところにあってもよいし、あるいは、フットスイッチを利用してもよい。フットスイッチように足で操作できれば、手はワークWとマイクロメータ10をつかんだままでよいので、便利である。
マイクロメータ10からコンピュータ80へ転送された測定値は自動的に記録されていくが、その測定値がどのワークのどの箇所に対応しているものであるか整理されていなければならない。
例えば図1のように5つの段差をもつワークWの場合を考える。
太い方から順番に測定し、さらにひとつのワークWにつき測定を5回繰り返すように測定手順が決まっているとする。この測定手順をコンピュータ80に予め登録しておき、測定者は決められた順番通りに測定を進めていく。すると、自動的に整理された測定データが記録されていく。このような測定システムにより、極めて高い作業効率を実現できるし、測定者にとっては身体的にも精神的にも負担が軽い作業となる。
実開平5−59597号公報 特開2012−48377号公報 特開2015−106299号公報
実際の測定作業にあっては、誤操作が必ずあるのであり、データの取消しや再測定が必要になってくる。
測定手順や測定箇所を飛ばしてしまうこともあるし、データ転送ボタン11の操作ミスもあり得る。このような場合、測定者がコンピュータ80を操作して、データを取り消したり、編集したりすることになる。すなわち、一旦ワークWとマイクロメータ10から手を離し、コンピュータ80のキーボードかマウスを操作しなければならない。コンピュータ80が手元ではなく少し離れたところにある場合には、数歩歩くという動作も必要である。
ワークWやマイクロメータ10から手を離したり、体を移動させたりという動作があると、作業の連続性が断たれてしまい、作業効率がとたんに悪くなる。そのため、想定したほどには作業効率のアップが図れないという問題がある。
また、測定者にとっても面倒な作業であり、身体的にも心理的にも負担が大きい。ちなみに、フットスイッチを利用してコンピュータ80を操作することも考えられるが、これだけでは複雑な操作は難しい。
音声コマンドも考えられるが、工場などでは騒音が避けられないので、認識率が低く、むしろ誤操作が増えるおそれもある。フットスイッチや音声コマンドだけではコンピュータ80の複雑な操作をハンズフリーで行うのは難しい。
そこで、本発明の目的は、コンピュータの複雑な操作をハンズフリーで行えるユーザインターフェースを提供することにある。
また、本発明の目的は、利便性が高く、高効率な測定作業を支援する測定システムを提供することにある。
本発明のアイポインティングシステムは、
ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、
前記ホストコンピュータから与えられるGUI画像を画面に表示するモニタと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
前記モニタには、対象物および/または前記対象物のうちの対象箇所が表示され、
ユーザが前記モニタの画面に表示された前記対象物および/または前記対象物のうちの対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、視線の位置とモニタ画面の表示内容とを対比して、ユーザが意図する前記対象物および/または前記対象物のうちの対象箇所を特定する
ことを特徴とする。
また、本発明のアイポインティングシステムは、
ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
さらに、
実際の対象物のなかの対象箇所に対して対象箇所コマンドが予め設定されており、
ユーザが実際の対象物のなかの対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、前記外部カメラで撮像された画像の画像認識と視線の位置とを対比して、ユーザが意図する対象箇所を特定する
ことを特徴とする。
測定システムの一例を示す図である。 第1実施形態に係る測定システムの全体構成を例示する図である。 制御部の機能ブロック図である。 アイポインティングデバイスの動作を説明するためのフローチャートである。 アイポインティングデバイスの動作を説明するためのフローチャートである。 ユーザの視界の例であり、AR−GUI画像の一例を示す図である。 アイポインタの一例を示す図である。 モニタ画面の表示例を示す図である。 変形例1の動作を説明するためのフローチャートである。 外部カメラの撮像画像のなかからモニタの部分だけを抜き出した図である。 変形例2を例示する図である。 変形例2を例示する図である。
本発明の実施形態を図示するとともに図中の各要素に付した符号を参照して説明する。
(第1実施形態)
本発明の測定システムに係る第1実施形態について説明する。
図2は、測定システムの全体構成を例示する図である。
測定システムは、測定工具10と、コンピュータユニット100と、を具備する。
測定工具10としては、デジタル式の小型測定器であってもよい。デジタル式の小型測定器としては、デジタルマイクロメータ10や、デジタルノギス、デジタルダイヤルゲージなどがある。図2中では、デジタルマイクロメータ10を例示している。
デジタルマイクロメータ10は、コンピュータユニット100と無線接続されている。デジタルマイクロメータ10は、データ転送ボタン11を有し、データ転送ボタン11が押されると、測定値をコンピュータユニット100に送信する。
コンピュータユニット100は、ホストコンピュータ110と、モニタ120と、アイポインティングデバイス200と、を備える。
ホストコンピュータ110は、CPU、ROM、RAMを有するいわゆるコンピュータである。ホストコンピュータ110は、デジタルマイクロメータ10、モニタ120およびアイポインティングデバイス200と無線で通信接続されている。
ホストコンピュータ110は、測定データ管理用プログラムを実行することにより、測定データの収集、記録、編集を行う測定データ管理装置としての役割を果たす。このとき、ホストコンピュータ110は、測定データ管理用のGUI(グラフィカルユーザインターフェース)をモニタ120を介してユーザ(測定者)に提供する。GUI画面の例としては、例えば図1を参照されたい。
GUI画面の操作方法については後述する。
モニタ120は、ホストコンピュータ110から与えられる表示データを画面に表示する。また、モニタ120はタッチディスプレイパネルであって、ユーザ(測定者)によるタッチ操作を受け付けて、ホストコンピュータ110に転送する。
アイポインティングデバイス200について説明する。
アイポインティングデバイス200は、大きく2つの機能を有している。
第1の機能は、小型画像投影機(プロジェクションディスプレー)としての機能である。
第2の機能は、視線トラッキングを利用するポインティングデバイスとしての機能である。
具体的に説明する。
アイポインティングデバイス200は、メガネ部210と、表示ユニット部220と、アイカメラ230と、外部カメラ240と、制御部260と、を有する。
メガネ部210は、略U字状のフレーム部211と、フレーム部211に取り付けられたレンズ部212と、を有する。フレーム部211の両端には、耳に引っ掛かるつる部213が設けられている。つる部213を耳に引っ掛けてメガネ部210を顔に装着すると、眼の真ん前にレンズ部212がくるようになっている。
表示ユニット部220は、支持アーム部221と、プロジェクター部222と、を有する。
支持アーム部221の一端はフレーム部211の端部に固定されている。支持アーム部221の他端は、ユーザ(測定者)の顔の前方に向けて延伸するとともに、ユーザ(測定者)の眼の前に位置するように湾曲している。
そして、支持アーム部221の他端にプロジェクター部222が設けられている。プロジェクター部222は、画像を投射してユーザ(測定者)に情報を提示する。プロジェクター部222は、レンズ部212に画像を投影してもよいし、ユーザ(測定者)の網膜で結像するように画像を投射してもよい。
このようなプロジェクター部222は、例えば、レーザー光源と、マイクロミラーと、で構成できる。マイクロミラーを上下左右に往復駆動させ、レーザー光でフレームを描画する。
ユーザ(測定者)の眼(視界)には、外界の実物からの光と、プロジェクター部222からの投射光と、が同時に入ってくる。すると、ユーザ(測定者)の眼(視界)には、外界の実景と、プロジェクター部222からの画像情報と、がオーバーレイ(重畳)して見える。
プロジェクター部222は、ユーザ(測定者)の両方の眼に情報を提供してもよく、片方の眼だけに情報を提供してもよい。本実施形態では、測定者の片方の眼、ここでは、右眼に情報を提供するように設けられている。
アイカメラ230は、ユーザ(測定者)の眼を撮像するようにフレーム部211に取り付けられている。さらに、アイポインティングデバイス200は、スイッチ242、マイク243、外部カメラ240を有する。
スイッチ242およびマイク243は、補助的な入力手段である。また外部カメラ240は、ユーザ(測定者)の前方を撮像し、すなわち、ユーザ(測定者)に見えている外界の実像を撮像する。
図3は、制御部260の機能ブロック図である。
制御部260は、通信回路部261と、画像データ生成部262と、アイ画像解析部263と、中央処理部264と、を有する。
通信回路部261は、アンテナを介して、ホストコンピュータ110とデータの送受信を行う。アイ画像解析部263は、アイカメラ230で撮像されるユーザ(測定者)の瞳の動きから、ユーザ(測定者)の視線がどこにあるか特定する。さらに、アイ画像解析部263は、アイカメラ230で撮像される瞳、眼、あるいはまぶたの動きから、選択操作の有無を判別する。
中央処理部264は、制御部260全体の動作を統合的に制御する。
アイポインティングデバイス200の動作をフローチャートと画像例とを参照しながら説明する。
図4、図5は、アイポインティングデバイス200の動作を説明するためのフローチャートである。
ユーザは、アイポインティングデバイス200を使用するにあって、アイポインティングデバイス200をメガネと同じように顔に装着する。すなわち、つる部213を耳に引っ掛けて、レンズ部212が眼を覆うようにする。
さて、アイポインティングデバイス200の電源がオンになると(ST101)、アイポインティングデバイス200は、ホストコンピュータ110と通信を確立し、ホストコンピュータ110からAR−GUI画像のデータを取得する(ST110)。本明細書では、アイポインティングデバイス200によってユーザに提供される画像のことをAR−GUI(オーグメンティッドリアリティーグラフィカルユーザインターフェース)画像と称することにする。AR−GUI画像データは、画像データ生成部262に一時バッファされる。
画像データ生成部262は、AR−GUI画像をプロジェクター部222で表示できるようにビデオ信号に変換し、ビデオ信号をプロジェクター部222に出力する。すると、プロジェクター部222がAR−GUI画像を投影し(ST120)、ユーザの眼にAR−GUI画像が見えるようになる。
図6は、ユーザの視界の例であり、AR−GUI画像の一例を示す。ユーザの視界には、自分の手、マイクロメータ10、モニタ120といった実物が見えており、さらに、実物の実景に重畳してプロジェクター部222によって提供されるAR−GUI画像300が見える。AR−GUI画像300として、例えば、データ編集用のツールのアイコン301−308が提供される。
ここでは、上下左右方向の方向指示アイコン301−304、実行(エンター)指示アイコン305、削除(デリート)指示アイコン306、オプションアイコン307、データ収集アイコン308がある。
方向指示アイコン301−304でモニタ120内のカーソルや選択セルを移動させる。実行指示アイコン305、削除アイコン306は、データの入力あるいは削除を行う。
オプションアイコン307は、例えば、モード切替えやアイコンセットの切替えを指示する。データ収集アイコン308は、マイクロメータ10から測定データの取得を指示する。
図6においては、実物であるマイクロメータ10あるいはモニタ120をユーザの顔の正面で捉えたとき、AR−GUI画像300は、視野の中央領域を避けて、視野の周辺に見えるように配置されている。ここではAR−GUI画像300としての8つのアイコン301−308は、視野の周辺において円環状に配置されている。
さて、アイポインティングデバイス200は、AR−GUI画像300を表示したら(ST120)、続いて、アイカメラ230を起動してユーザの眼を撮像する(ST130)。
アイカメラ230の撮像データはアイ画像解析部263に入力される。そして、アイ画像解析部263は、アイカメラ230の画像からユーザの瞳の動きを解析し(ST150)、ユーザの視線がどこを見ているか特定する。
(なお、ステップST140の説明を飛ばしたが、これは変形例1で後述する。)
中央処理部264は、ユーザの視線とAR−GUI画像300の位置とを比べて、ユーザがAR−GUI画像300を見ているか否かを判定する(ST160)。
ユーザの視線がAR−GUI画像300から外れていてAR−GUI画像300を見ていない場合(ST160:NO)、ユーザはAR−GUI画像300以外の何か、例えばマイクロメータ10やワークWを見て測定しているということである。
この場合、ポインティングデバイスとしての役割はなく、フローの先頭(ST110)に戻ってAR−GUI画像300の表示を継続する。
さて、ユーザの視線がAR−GUI画像300に重なっていて、ユーザがAR−GUI画像300を見ている場合について説明する(ST160:YES)。
ユーザがAR−GUI画像300を見ているということは(ST160:YES)、測定ではなく、データの編集をしたいということである。
ユーザがAR−GUI画像300を見ていると判定される場合(ST160:YES)、中央処理部264は、画像データ生成部262に視線の位置を通知する。すると、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST210)。
図7にアイポインタ390の一例を図示する。
ここでは、アイポインタ390は目をモチーフにデザイン化されたものである。もちろん、アイポインタ390は、ただの矢印、単純な円や四角といったものでもよい。
ユーザは、選択したいツールのアイコン301−308を見るように眼球を視野の端の方へ動かす。するとアイポインタ390が現れるので、アイポインタ390が意図したアイコン301−308に重なるように眼を動かす。このとき、ユーザは眼球のみを動かせばよいのであって、図7に示すように両手はマイクロメータ10とワークWを掴んだままでよい。
ユーザは、アイポインタ390を意図したアイコン301−308に重ねておいて、選択操作を行う。
選択操作としては例えばウインクが例として挙げられる。その他、数秒間同じ場所(アイコン)を見つめることを選択操作としてもよい。
ユーザの選択操作(ウインク)は、アイカメラ230を介してアイ画像解析部263で検出される(ST220:YES).
アイコン301−308が選択されたことはアイ画像解析部263から中央処理部264に通知される。中央処理部264は、アイコン選択時(ウインク時)の視線とAR−GUI画像300の各アイコン301−308の位置とを比べて、ユーザが選択した操作を特定する(ST230)。図7の例でいえば、選択された操作は、カーソル(あるいは選択セル)を下方向へ移動させる操作である。
中央制御部260は、選択された操作を通信回路部261を介してホストコンピュータ110に通知する(ST240)。すると、ホストコンピュータ110は通知された操作を実行する。今回の例でいえば、モニタ120の画面中においてカーソル(あるいは選択セル)が下方向に移動する。
続いて、例えば、データを削除したければ同じように視線でアイポインタ390を移動させて削除アイコン306を選択すればよい。
データを上書きしたいのであればマイクロメータ10のデータ転送ボタン11を押してもよく、あるいは、眼でデータ収集アイコン308を選択してもよい。
いずれにしても、ユーザは、データの記録や編集にあたって、手をマイクロメータ10およびワークWから離す必要はなく、目を動かすだけである。データ編集に手を使わなくてよいのであるから測定作業の効率化が図られるのはもちろんである。
さらに、目を使うユーザインターフェースは直観的に誰にでもわかりやすく、操作が簡単である。例えば、同じ操作を複数のフットスイッチの組み合わせで行うとすれば、かなりの訓練が必要になるだろう。
本実施形態の測定システムは、誰にでも使える素晴らしく便利な測定環境を提供できる。
(変形例1)
第1実施形態においては、アイポインティングデバイス200が提供するAR−GUI画像300のアイコン301−308を視線で操作(選択)する例を説明した。
アイポインティングデバイス200は、自己が提供するAR−GUI画像300の画像データを保有しているわけであるから、アイカメラ230で取得する視線の方向をAR−GUI画像データに対比すれば、ユーザが選択したい操作(アイコン301−308)をAR−GUI画像300のなかから特定できる。
ここで、変形例1としては、アイポインティングデバイス200のアイポインタ390を利用して、モニタ120に表示された情報やツールを操作する例を説明する。
図8に例示するように、モニタ120画面にはワークWのCADデータ、ワークW中の測定対象箇所、測定データなどが表示されている。そして、測定作業をしながら測定箇所の指定(あるいは指定の再設定)をしたいとする。
この場合、ユーザは、モニタ120の画面を見る。
図4のフローチャートに戻っていただいて、外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれている(ST140)。そして、視線解析(ST150)の結果、ユーザの視線がモニタ120画面上にあることが検出される(ST170:YES)。外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれているから(ST140)、中央処理部264は、画像認識により、モニタ120の位置を特定できる。
たとえば、太い黒枠の内側をモニタ120と認識させるようにしてもよい。
ユーザの視線がモニタ120上にある場合の処理動作を図9のフローチャートを参照しながら説明する。
ユーザの視線がモニタ120画面上にあると判定される場合(図4のST170:YES)、中央処理部264は画像データ生成部262に視線の位置を通知し、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST310)。
図8にアイポインタ390の一例を図示する。
ユーザは、意図した測定箇所にアイポインタ390が重なるように眼球を動かす。そして、モニタ120画面上で所望の測定箇所にアイポインタ390が重なったところで選択操作(たとえばウインク)を行う。ユーザの選択操作(ウインク)はアイカメラ230を介してアイ画像解析部263で検出される(ST320:YES)。
選択操作が検出されると(ST320:YES)、中央処理部264は、選択操作時(ウインク時)の視線とモニタ120画面との位置関係を解析する(ST330)。
図10は、外部カメラ240画像のなかからモニタ120の部分だけを抜き出したものである。
例えば、図10に示すように、モニタ画面の左下隅を原点とし、モニタ画面の横方向にX軸(横軸)をとり、モニタ画面の縦方向にY軸(縦軸)をとる。
(ユーザがモニタ120に正対していない場合には必要に応じて台形補正などを行えばよい。)モニタ画面中における視線の位置(アイポインタ390の位置)を(x,y)とする。また、モニタ画面の横軸をL、高さをHとする。
このとき、モニタ画面中の視線の位置は、(x/L,y/H)で表される。
中央処理部264は、このように得られた視線の位置(x/L,y/H)をホストコンピュータ110に通知する(ST340)。すると、ホストコンピュータ110は視線の位置(x/L,y/H)と、モニタ画面の表示内容と、を対比して、ユーザが意図する操作(コマンド)を特定する。
今回の例でいえば、モニタ画面中のCADデータで測定箇所Dが選択されたことを特定する。そして、ホストコンピュータ110は、指示された操作を実行したり、モニタ120の表示を更新したりする。
さらに、アイポインティングデバイス200で選択する対象は、AR−GUI画像300やモニタ120上の画像だけに限らず、実際の実物の任意の領域や部位に割り当てられたコマンドであってもよい。
例えば、実際のワークW上に測定箇所コマンドを設定しておくとする。
ユーザが実際のワークW上の測定箇所を目で選択(見てからウインク)する。(外部カメラ240で撮像した画像を画像認識すれば、ワークWのどの箇所が選択されたかわかる。コマンドが割り当てられた対象物については画像認識できるようにCADデータ(3DCADデータ)をホストコンピュータに予め記憶させておいてもよい。)
このように実際のワークW上で測定箇所を選択したうえで、データ転送ボタン11を押す。あるいは、データ転送の操作もアイポインティングで行ってもよい。
このような測定作業の手順は自然であり、スムースで効率的な測定ができるようになる。
(変形例2)
次に、図11を参照して変形例2を説明する。
図11は、ポータブルアーム型(可搬性多関節形)の三次元測定機20でワークWを測定する様子の一例である。このようなアーム形三次元測定機20にあっては必然的に両手で測定機20を保持しながら測定作業を行うことになる。この場合、アイポインティングデバイス200によって提供されるGUI画像300およびアイポインタ390により、ハンズフリーのデータ編集が可能になる。したがって、ユーザは両手を測定機20から離す必要はなく、効率よく測定作業を進めることができる。
ここで、第1実施形態においては視界の周辺寄りにAR―GUI画像300が見えるようにしていた。
これに対し、変形例2においては、ワークWの周囲にAR−GUI画像が見えるようにしている。例えば、外部カメラ240でユーザの視界を取り込み、画像認識によってワークWの位置を特定する。そして、ワークWの周辺にGUI画像300を投影する。
これで、ユーザの視界には、ワークWを囲むようにGUI画像が見えるようになる。
測定作業中、ユーザの視線はワークWに注がれていることが多い。そして、ワークWから少しだけ視線をずらすとアイポインタ390でAR―GUI画像300を用いたデータ編集が可能になる。
また、図11においては、編集ツールのアイコンだけではなくて、モニタ120に表示される表示データ、ここでは測定値のデータ(309)もAR−GUI画像300として提供される。
これによりユーザはモニタ120の画面を見なくても測定作業を進行できるようになる。可搬性の中型測定機20を使用するときには、ワークWの測定箇所に応じてユーザ自身の立ち位置や姿勢も変わってくるため、いつもモニタ120が見えるとは限らない。
この点、モニタ画面の内容がAR−GUI画像300として提供されれば、ユーザは、モニタ120やホストコンピュータ110の位置を気にすることなく、自由にポジションを変えながら測定作業を進めることができる。
また、図12に示すように、大型の三次元測定機30を操作するような場合、ユーザは、ジョイスティック等の操作盤32だけを持ってワークWに近づいて操作することがある。この場合、ユーザの立ち位置からはモニタ120やホストコンピュータ110が見えにくいことがある。
この点、アイポインティングデバイス200によってAR−GUI画像300が提供されるので、ユーザは、モニタ120やホストコンピュータ110の位置を気にする必要はなくなる。
なお、大型の三次元測定機30の場合、測定プローブ31の周囲にGUI画像が表示されるようにしてもよい。大型の三次元測定機30の場合、プローブ31が大きく動くことが多い。そして、ユーザはプローブ31を目で追いかける。プローブ31から少しだけ視線を動かすだけでアイポインタ390でGUI画像300を操作できるようになると極めて便利である。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施形態の説明では、ユーザが視線でアイポインタ390を動かし、アイポインタ390をアイコンに重ねてツールを選択するとした。
このほか、例えば、眼の動きのパターンとコマンドとを対応付けておき、ジェスチャコントロールのように眼の動きでダイレクトにコマンド入力するようにしてもよい。例えば、視線を上から下、あるいは、右から左に動かすと、選択セルが移動したり、見つめたらモニタの表示を拡大/縮小したり、モニタの端の方に視線を移動させたら上下左右にスクロールするなどが考えられる。
本発明は視線を使ってアイポインタを動かすのであるが、人の視線は非常に素早く揺らぐものである。そこで、アイ画像解析部263でユーザ(測定者)の視線がどこにあるか特定するにあたっては、眼の動き検出の感度を下げたり、瞬間的な動きは無視する等のためのフィルタなどを組み込んでもよい。
また、選択操作としてのウインクを"まばたき"と混同しないように、"選択"の意図を持った意図的なウインクと生理的な眼の開閉(まばたき)とを区別するようにする。例えば、ウインクとまばたきとを区別するための判定閾値となる時間を設定するなどの方策が考えられる。
10…マイクロメータ(測定機)、11…データ転送ボタン、
20…アーム形三次元測定機、
30…三次元測定機、31…プローブ、32…操作盤、
80…コンピュータ、
100…コンピュータユニット、
110…ホストコンピュータ、
120…モニタ、
200…アイポインティングデバイス、
210…メガネ部、211…フレーム部、212…レンズ部、213…つる部、
220…表示ユニット部、221…支持アーム部、222…プロジェクター部、
230…アイカメラ、
240…外部カメラ、
242…スイッチ、243…マイク、
260…制御部、
261…通信回路部、262…画像データ生成部、263…アイ画像解析部、264…中央処理部、
300…AR−GUI画像、
301−308…アイコン、
390…アイポインタ。

Claims (11)

  1. ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
    GUI画像データをユーザに提供するホストコンピュータと、
    前記ホストコンピュータから与えられるGUI画像を画面に表示するモニタと、を備えるアイポインティングシステムであって、
    前記アイポインティングデバイスは、
    ユーザの眼を撮像するように配置されたアイカメラと、
    前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
    ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
    ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
    前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
    前記モニタには、対象物のうちの対象箇所が表示され、
    ユーザが前記モニタの画面に表示された前記対象物のうちの前記対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、視線の位置とモニタ画面の表示内容とを対比して、ユーザが意図する前記対象物のうちの前記対象箇所を特定する
    ことを特徴とするアイポインティングシステム。
  2. ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
    GUI画像データをユーザに提供するホストコンピュータと、を備えるアイポインティングシステムであって、
    前記アイポインティングデバイスは、
    ユーザの眼を撮像するように配置されたアイカメラと、
    前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
    ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
    ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
    前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
    さらに、
    実際の対象物のなかの対象箇所に対して対象箇所コマンドが予め設定されており、
    ユーザが実際の前記対象物のなかの前記対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、前記外部カメラで撮像された画像の画像認識と視線の位置とを対比して、ユーザが意図する前記対象箇所を特定する
    ことを特徴とするアイポインティングシステム。
  3. 請求項1または請求項2に記載のアイポインティングシステムにおいて、
    前記ホストコンピュータは、前記外部カメラで撮像された画像の画像認識と視線の位置とを対比してユーザが意図する前記対象箇所を特定した場合、前記特定された対象箇所に対して必要な操作をするのに用いる前記GUI画像を実景にオーバーラップするように前記プロジェクター部に提供する
    ことを特徴とするアイポインティングシステム。
  4. 請求項3に記載のアイポインティングシステムにおいて、
    前記特定された対象箇所に対して必要な操作をするのに用いる前記GUI画像は、前記対象物のうちの前記対象箇所にオーバーラップするように投影される
    ことを特徴とするアイポインティングシステム。
  5. 請求項1から請求項4のいずれかに記載のアイポインティングシステムにおいて、
    前記GUI画像には、データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
    前記アイコン画像は、ユーザの視界の周辺に配置される
    ことを特徴とするアイポインティングシステム。
  6. 請求項5に記載のアイポインティングシステムにおいて、
    前記アイコン画像を選択する場合に、
    ウインクによって選択操作する
    ことを特徴とするアイポインティングシステム。
  7. 請求項5または請求項6に記載のアイポインティングシステムにおいて、
    前記アイコン画像を選択する場合に、
    数秒間見つめることによって選択操作する
    ことを特徴とするアイポインティングシステム。
  8. 請求項5から請求項7のいずれかに記載のアイポインティングシステムにおいて、
    前記アイコン画像を選択する場合に、
    前記アイコン画像と視線の動きのパターンを事前に対応付けておき、
    眼の動きのパターンによって前記アイコン画像を選択操作する
    ことを特徴とするアイポインティングシステム。
  9. 請求項1から請求項8のいずれかに記載のアイポインティングシステムにおいて、
    前記外部カメラで撮影した画像から、前記対象箇所として、
    定プローブ、測定対象、および、前記測定対象の所定の領域あるいは部位、のうちの少なくとも1つを認識する
    ことを特徴とするアイポインティングシステム。
  10. 請求項9に記載のアイポインティングシステムにおいて、
    前記GUI画像には、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれる
    ことを特徴とするアイポインティングシステム。
  11. 請求項9または請求項10に記載のアイポインティングシステムにおいて、
    前記GUI画像には、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
    前記アイコン画像は、測定対象であるワークの周辺、または、測定プローブの周辺に配置される
    ことを特徴とするアイポインティングシステム。
JP2020081086A 2016-02-24 2020-05-01 眼で操作するアイポインティングシステム Active JP6982656B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020081086A JP6982656B2 (ja) 2016-02-24 2020-05-01 眼で操作するアイポインティングシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016032874A JP6700849B2 (ja) 2016-02-24 2016-02-24 測定システム
JP2020081086A JP6982656B2 (ja) 2016-02-24 2020-05-01 眼で操作するアイポインティングシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016032874A Division JP6700849B2 (ja) 2016-02-24 2016-02-24 測定システム

Publications (2)

Publication Number Publication Date
JP2020123396A JP2020123396A (ja) 2020-08-13
JP6982656B2 true JP6982656B2 (ja) 2021-12-17

Family

ID=79169998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081086A Active JP6982656B2 (ja) 2016-02-24 2020-05-01 眼で操作するアイポインティングシステム

Country Status (1)

Country Link
JP (1) JP6982656B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114285984B (zh) * 2020-09-27 2024-04-16 宇龙计算机通信科技(深圳)有限公司 基于ar眼镜的摄像头切换方法、装置、存储介质以及终端

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004301869A (ja) * 2003-03-28 2004-10-28 Takuya Shinkawa 音声出力装置およびポインティングデバイス
JP5651386B2 (ja) * 2010-06-23 2015-01-14 ソフトバンクモバイル株式会社 眼鏡型表示装置
US9791921B2 (en) * 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands

Also Published As

Publication number Publication date
JP2020123396A (ja) 2020-08-13

Similar Documents

Publication Publication Date Title
JP6393367B2 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
US10606441B2 (en) Operation control device and operation control method
US9323343B2 (en) Information processing method and information processing apparatus
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10429941B2 (en) Control device of head mounted display, operation method and operation program thereof, and image display system
JP6652613B2 (ja) ウェアラブル装置、制御方法、制御プログラム及び撮像装置
EP2287708B1 (en) Image recognizing apparatus, operation determination method, and program
JP2013069224A (ja) 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
JP4968922B2 (ja) 機器制御装置及び制御方法
JP6554948B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
KR20140002009A (ko) 입력 장치, 입력 방법 및 기록 매체
WO2021044745A1 (ja) 表示処理装置、表示処理方法及び記録媒体
JP6982656B2 (ja) 眼で操作するアイポインティングシステム
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
WO2018198272A1 (ja) 制御装置、情報処理システム、制御方法、及びプログラム
WO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230031913A1 (en) Information processing device, information processing method, computer program, and augmented reality system
CN113498531A (zh) 头戴式信息处理装置以及头戴式显示系统
JP6700849B2 (ja) 測定システム
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP5887805B2 (ja) 眼科装置
CN106095088B (zh) 一种电子设备及其图像处理方法
JP6169462B2 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211119

R150 Certificate of patent or registration of utility model

Ref document number: 6982656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150