JP6982656B2 - 眼で操作するアイポインティングシステム - Google Patents
眼で操作するアイポインティングシステム Download PDFInfo
- Publication number
- JP6982656B2 JP6982656B2 JP2020081086A JP2020081086A JP6982656B2 JP 6982656 B2 JP6982656 B2 JP 6982656B2 JP 2020081086 A JP2020081086 A JP 2020081086A JP 2020081086 A JP2020081086 A JP 2020081086A JP 6982656 B2 JP6982656 B2 JP 6982656B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- user
- image
- pointing system
- gui
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
ユーザがマイクロメータ10でワークWを測定し、データ転送ボタン11を押す。すると、測定値がマイクロメータ10からコンピュータ80に転送され、コンピュータ80が測定値を記録していく。
なお、データ転送ボタン11は、マイクロメータ10上の押しやすいところにあってもよいし、あるいは、フットスイッチを利用してもよい。フットスイッチように足で操作できれば、手はワークWとマイクロメータ10をつかんだままでよいので、便利である。
例えば図1のように5つの段差をもつワークWの場合を考える。
太い方から順番に測定し、さらにひとつのワークWにつき測定を5回繰り返すように測定手順が決まっているとする。この測定手順をコンピュータ80に予め登録しておき、測定者は決められた順番通りに測定を進めていく。すると、自動的に整理された測定データが記録されていく。このような測定システムにより、極めて高い作業効率を実現できるし、測定者にとっては身体的にも精神的にも負担が軽い作業となる。
測定手順や測定箇所を飛ばしてしまうこともあるし、データ転送ボタン11の操作ミスもあり得る。このような場合、測定者がコンピュータ80を操作して、データを取り消したり、編集したりすることになる。すなわち、一旦ワークWとマイクロメータ10から手を離し、コンピュータ80のキーボードかマウスを操作しなければならない。コンピュータ80が手元ではなく少し離れたところにある場合には、数歩歩くという動作も必要である。
また、測定者にとっても面倒な作業であり、身体的にも心理的にも負担が大きい。ちなみに、フットスイッチを利用してコンピュータ80を操作することも考えられるが、これだけでは複雑な操作は難しい。
音声コマンドも考えられるが、工場などでは騒音が避けられないので、認識率が低く、むしろ誤操作が増えるおそれもある。フットスイッチや音声コマンドだけではコンピュータ80の複雑な操作をハンズフリーで行うのは難しい。
また、本発明の目的は、利便性が高く、高効率な測定作業を支援する測定システムを提供することにある。
ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、
前記ホストコンピュータから与えられるGUI画像を画面に表示するモニタと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
前記モニタには、対象物および/または前記対象物のうちの対象箇所が表示され、
ユーザが前記モニタの画面に表示された前記対象物および/または前記対象物のうちの対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、視線の位置とモニタ画面の表示内容とを対比して、ユーザが意図する前記対象物および/または前記対象物のうちの対象箇所を特定する
ことを特徴とする。
ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
さらに、
実際の対象物のなかの対象箇所に対して対象箇所コマンドが予め設定されており、
ユーザが実際の対象物のなかの対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、前記外部カメラで撮像された画像の画像認識と視線の位置とを対比して、ユーザが意図する対象箇所を特定する
ことを特徴とする。
(第1実施形態)
本発明の測定システムに係る第1実施形態について説明する。
図2は、測定システムの全体構成を例示する図である。
測定システムは、測定工具10と、コンピュータユニット100と、を具備する。
測定工具10としては、デジタル式の小型測定器であってもよい。デジタル式の小型測定器としては、デジタルマイクロメータ10や、デジタルノギス、デジタルダイヤルゲージなどがある。図2中では、デジタルマイクロメータ10を例示している。
ホストコンピュータ110は、CPU、ROM、RAMを有するいわゆるコンピュータである。ホストコンピュータ110は、デジタルマイクロメータ10、モニタ120およびアイポインティングデバイス200と無線で通信接続されている。
ホストコンピュータ110は、測定データ管理用プログラムを実行することにより、測定データの収集、記録、編集を行う測定データ管理装置としての役割を果たす。このとき、ホストコンピュータ110は、測定データ管理用のGUI(グラフィカルユーザインターフェース)をモニタ120を介してユーザ(測定者)に提供する。GUI画面の例としては、例えば図1を参照されたい。
GUI画面の操作方法については後述する。
アイポインティングデバイス200は、大きく2つの機能を有している。
第1の機能は、小型画像投影機(プロジェクションディスプレー)としての機能である。
第2の機能は、視線トラッキングを利用するポインティングデバイスとしての機能である。
具体的に説明する。
メガネ部210は、略U字状のフレーム部211と、フレーム部211に取り付けられたレンズ部212と、を有する。フレーム部211の両端には、耳に引っ掛かるつる部213が設けられている。つる部213を耳に引っ掛けてメガネ部210を顔に装着すると、眼の真ん前にレンズ部212がくるようになっている。
支持アーム部221の一端はフレーム部211の端部に固定されている。支持アーム部221の他端は、ユーザ(測定者)の顔の前方に向けて延伸するとともに、ユーザ(測定者)の眼の前に位置するように湾曲している。
ユーザ(測定者)の眼(視界)には、外界の実物からの光と、プロジェクター部222からの投射光と、が同時に入ってくる。すると、ユーザ(測定者)の眼(視界)には、外界の実景と、プロジェクター部222からの画像情報と、がオーバーレイ(重畳)して見える。
プロジェクター部222は、ユーザ(測定者)の両方の眼に情報を提供してもよく、片方の眼だけに情報を提供してもよい。本実施形態では、測定者の片方の眼、ここでは、右眼に情報を提供するように設けられている。
スイッチ242およびマイク243は、補助的な入力手段である。また外部カメラ240は、ユーザ(測定者)の前方を撮像し、すなわち、ユーザ(測定者)に見えている外界の実像を撮像する。
制御部260は、通信回路部261と、画像データ生成部262と、アイ画像解析部263と、中央処理部264と、を有する。
通信回路部261は、アンテナを介して、ホストコンピュータ110とデータの送受信を行う。アイ画像解析部263は、アイカメラ230で撮像されるユーザ(測定者)の瞳の動きから、ユーザ(測定者)の視線がどこにあるか特定する。さらに、アイ画像解析部263は、アイカメラ230で撮像される瞳、眼、あるいはまぶたの動きから、選択操作の有無を判別する。
アイポインティングデバイス200の動作をフローチャートと画像例とを参照しながら説明する。
図4、図5は、アイポインティングデバイス200の動作を説明するためのフローチャートである。
ユーザは、アイポインティングデバイス200を使用するにあって、アイポインティングデバイス200をメガネと同じように顔に装着する。すなわち、つる部213を耳に引っ掛けて、レンズ部212が眼を覆うようにする。
方向指示アイコン301−304でモニタ120内のカーソルや選択セルを移動させる。実行指示アイコン305、削除アイコン306は、データの入力あるいは削除を行う。
オプションアイコン307は、例えば、モード切替えやアイコンセットの切替えを指示する。データ収集アイコン308は、マイクロメータ10から測定データの取得を指示する。
アイカメラ230の撮像データはアイ画像解析部263に入力される。そして、アイ画像解析部263は、アイカメラ230の画像からユーザの瞳の動きを解析し(ST150)、ユーザの視線がどこを見ているか特定する。
(なお、ステップST140の説明を飛ばしたが、これは変形例1で後述する。)
ユーザの視線がAR−GUI画像300から外れていてAR−GUI画像300を見ていない場合(ST160:NO)、ユーザはAR−GUI画像300以外の何か、例えばマイクロメータ10やワークWを見て測定しているということである。
この場合、ポインティングデバイスとしての役割はなく、フローの先頭(ST110)に戻ってAR−GUI画像300の表示を継続する。
ユーザがAR−GUI画像300を見ているということは(ST160:YES)、測定ではなく、データの編集をしたいということである。
ユーザがAR−GUI画像300を見ていると判定される場合(ST160:YES)、中央処理部264は、画像データ生成部262に視線の位置を通知する。すると、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST210)。
ここでは、アイポインタ390は目をモチーフにデザイン化されたものである。もちろん、アイポインタ390は、ただの矢印、単純な円や四角といったものでもよい。
ユーザは、選択したいツールのアイコン301−308を見るように眼球を視野の端の方へ動かす。するとアイポインタ390が現れるので、アイポインタ390が意図したアイコン301−308に重なるように眼を動かす。このとき、ユーザは眼球のみを動かせばよいのであって、図7に示すように両手はマイクロメータ10とワークWを掴んだままでよい。
選択操作としては例えばウインクが例として挙げられる。その他、数秒間同じ場所(アイコン)を見つめることを選択操作としてもよい。
ユーザの選択操作(ウインク)は、アイカメラ230を介してアイ画像解析部263で検出される(ST220:YES).
アイコン301−308が選択されたことはアイ画像解析部263から中央処理部264に通知される。中央処理部264は、アイコン選択時(ウインク時)の視線とAR−GUI画像300の各アイコン301−308の位置とを比べて、ユーザが選択した操作を特定する(ST230)。図7の例でいえば、選択された操作は、カーソル(あるいは選択セル)を下方向へ移動させる操作である。
データを上書きしたいのであればマイクロメータ10のデータ転送ボタン11を押してもよく、あるいは、眼でデータ収集アイコン308を選択してもよい。
いずれにしても、ユーザは、データの記録や編集にあたって、手をマイクロメータ10およびワークWから離す必要はなく、目を動かすだけである。データ編集に手を使わなくてよいのであるから測定作業の効率化が図られるのはもちろんである。
さらに、目を使うユーザインターフェースは直観的に誰にでもわかりやすく、操作が簡単である。例えば、同じ操作を複数のフットスイッチの組み合わせで行うとすれば、かなりの訓練が必要になるだろう。
本実施形態の測定システムは、誰にでも使える素晴らしく便利な測定環境を提供できる。
第1実施形態においては、アイポインティングデバイス200が提供するAR−GUI画像300のアイコン301−308を視線で操作(選択)する例を説明した。
アイポインティングデバイス200は、自己が提供するAR−GUI画像300の画像データを保有しているわけであるから、アイカメラ230で取得する視線の方向をAR−GUI画像データに対比すれば、ユーザが選択したい操作(アイコン301−308)をAR−GUI画像300のなかから特定できる。
ここで、変形例1としては、アイポインティングデバイス200のアイポインタ390を利用して、モニタ120に表示された情報やツールを操作する例を説明する。
この場合、ユーザは、モニタ120の画面を見る。
図4のフローチャートに戻っていただいて、外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれている(ST140)。そして、視線解析(ST150)の結果、ユーザの視線がモニタ120画面上にあることが検出される(ST170:YES)。外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれているから(ST140)、中央処理部264は、画像認識により、モニタ120の位置を特定できる。
たとえば、太い黒枠の内側をモニタ120と認識させるようにしてもよい。
ユーザの視線がモニタ120画面上にあると判定される場合(図4のST170:YES)、中央処理部264は画像データ生成部262に視線の位置を通知し、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST310)。
図8にアイポインタ390の一例を図示する。
ユーザは、意図した測定箇所にアイポインタ390が重なるように眼球を動かす。そして、モニタ120画面上で所望の測定箇所にアイポインタ390が重なったところで選択操作(たとえばウインク)を行う。ユーザの選択操作(ウインク)はアイカメラ230を介してアイ画像解析部263で検出される(ST320:YES)。
図10は、外部カメラ240画像のなかからモニタ120の部分だけを抜き出したものである。
例えば、図10に示すように、モニタ画面の左下隅を原点とし、モニタ画面の横方向にX軸(横軸)をとり、モニタ画面の縦方向にY軸(縦軸)をとる。
(ユーザがモニタ120に正対していない場合には必要に応じて台形補正などを行えばよい。)モニタ画面中における視線の位置(アイポインタ390の位置)を(x,y)とする。また、モニタ画面の横軸をL、高さをHとする。
このとき、モニタ画面中の視線の位置は、(x/L,y/H)で表される。
今回の例でいえば、モニタ画面中のCADデータで測定箇所Dが選択されたことを特定する。そして、ホストコンピュータ110は、指示された操作を実行したり、モニタ120の表示を更新したりする。
例えば、実際のワークW上に測定箇所コマンドを設定しておくとする。
ユーザが実際のワークW上の測定箇所を目で選択(見てからウインク)する。(外部カメラ240で撮像した画像を画像認識すれば、ワークWのどの箇所が選択されたかわかる。コマンドが割り当てられた対象物については画像認識できるようにCADデータ(3DCADデータ)をホストコンピュータに予め記憶させておいてもよい。)
このように実際のワークW上で測定箇所を選択したうえで、データ転送ボタン11を押す。あるいは、データ転送の操作もアイポインティングで行ってもよい。
このような測定作業の手順は自然であり、スムースで効率的な測定ができるようになる。
次に、図11を参照して変形例2を説明する。
図11は、ポータブルアーム型(可搬性多関節形)の三次元測定機20でワークWを測定する様子の一例である。このようなアーム形三次元測定機20にあっては必然的に両手で測定機20を保持しながら測定作業を行うことになる。この場合、アイポインティングデバイス200によって提供されるGUI画像300およびアイポインタ390により、ハンズフリーのデータ編集が可能になる。したがって、ユーザは両手を測定機20から離す必要はなく、効率よく測定作業を進めることができる。
これに対し、変形例2においては、ワークWの周囲にAR−GUI画像が見えるようにしている。例えば、外部カメラ240でユーザの視界を取り込み、画像認識によってワークWの位置を特定する。そして、ワークWの周辺にGUI画像300を投影する。
これで、ユーザの視界には、ワークWを囲むようにGUI画像が見えるようになる。
これによりユーザはモニタ120の画面を見なくても測定作業を進行できるようになる。可搬性の中型測定機20を使用するときには、ワークWの測定箇所に応じてユーザ自身の立ち位置や姿勢も変わってくるため、いつもモニタ120が見えるとは限らない。
この点、モニタ画面の内容がAR−GUI画像300として提供されれば、ユーザは、モニタ120やホストコンピュータ110の位置を気にすることなく、自由にポジションを変えながら測定作業を進めることができる。
この点、アイポインティングデバイス200によってAR−GUI画像300が提供されるので、ユーザは、モニタ120やホストコンピュータ110の位置を気にする必要はなくなる。
なお、大型の三次元測定機30の場合、測定プローブ31の周囲にGUI画像が表示されるようにしてもよい。大型の三次元測定機30の場合、プローブ31が大きく動くことが多い。そして、ユーザはプローブ31を目で追いかける。プローブ31から少しだけ視線を動かすだけでアイポインタ390でGUI画像300を操作できるようになると極めて便利である。
上記実施形態の説明では、ユーザが視線でアイポインタ390を動かし、アイポインタ390をアイコンに重ねてツールを選択するとした。
このほか、例えば、眼の動きのパターンとコマンドとを対応付けておき、ジェスチャコントロールのように眼の動きでダイレクトにコマンド入力するようにしてもよい。例えば、視線を上から下、あるいは、右から左に動かすと、選択セルが移動したり、見つめたらモニタの表示を拡大/縮小したり、モニタの端の方に視線を移動させたら上下左右にスクロールするなどが考えられる。
また、選択操作としてのウインクを"まばたき"と混同しないように、"選択"の意図を持った意図的なウインクと生理的な眼の開閉(まばたき)とを区別するようにする。例えば、ウインクとまばたきとを区別するための判定閾値となる時間を設定するなどの方策が考えられる。
20…アーム形三次元測定機、
30…三次元測定機、31…プローブ、32…操作盤、
80…コンピュータ、
100…コンピュータユニット、
110…ホストコンピュータ、
120…モニタ、
200…アイポインティングデバイス、
210…メガネ部、211…フレーム部、212…レンズ部、213…つる部、
220…表示ユニット部、221…支持アーム部、222…プロジェクター部、
230…アイカメラ、
240…外部カメラ、
242…スイッチ、243…マイク、
260…制御部、
261…通信回路部、262…画像データ生成部、263…アイ画像解析部、264…中央処理部、
300…AR−GUI画像、
301−308…アイコン、
390…アイポインタ。
Claims (11)
- ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、
前記ホストコンピュータから与えられるGUI画像を画面に表示するモニタと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
前記モニタには、対象物のうちの対象箇所が表示され、
ユーザが前記モニタの画面に表示された前記対象物のうちの前記対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、視線の位置とモニタ画面の表示内容とを対比して、ユーザが意図する前記対象物のうちの前記対象箇所を特定する
ことを特徴とするアイポインティングシステム。 - ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
さらに、
実際の対象物のなかの対象箇所に対して対象箇所コマンドが予め設定されており、
ユーザが実際の前記対象物のなかの前記対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、前記外部カメラで撮像された画像の画像認識と視線の位置とを対比して、ユーザが意図する前記対象箇所を特定する
ことを特徴とするアイポインティングシステム。 - 請求項1または請求項2に記載のアイポインティングシステムにおいて、
前記ホストコンピュータは、前記外部カメラで撮像された画像の画像認識と視線の位置とを対比してユーザが意図する前記対象箇所を特定した場合、前記特定された対象箇所に対して必要な操作をするのに用いる前記GUI画像を実景にオーバーラップするように前記プロジェクター部に提供する
ことを特徴とするアイポインティングシステム。 - 請求項3に記載のアイポインティングシステムにおいて、
前記特定された対象箇所に対して必要な操作をするのに用いる前記GUI画像は、前記対象物のうちの前記対象箇所にオーバーラップするように投影される
ことを特徴とするアイポインティングシステム。 - 請求項1から請求項4のいずれかに記載のアイポインティングシステムにおいて、
前記GUI画像には、データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、ユーザの視界の周辺に配置される
ことを特徴とするアイポインティングシステム。 - 請求項5に記載のアイポインティングシステムにおいて、
前記アイコン画像を選択する場合に、
ウインクによって選択操作する
ことを特徴とするアイポインティングシステム。 - 請求項5または請求項6に記載のアイポインティングシステムにおいて、
前記アイコン画像を選択する場合に、
数秒間見つめることによって選択操作する
ことを特徴とするアイポインティングシステム。 - 請求項5から請求項7のいずれかに記載のアイポインティングシステムにおいて、
前記アイコン画像を選択する場合に、
前記アイコン画像と視線の動きのパターンを事前に対応付けておき、
眼の動きのパターンによって前記アイコン画像を選択操作する
ことを特徴とするアイポインティングシステム。 - 請求項1から請求項8のいずれかに記載のアイポインティングシステムにおいて、
前記外部カメラで撮影した画像から、前記対象箇所として、
測定プローブ、測定対象、および、前記測定対象の所定の領域あるいは部位、のうちの少なくとも1つを認識する
ことを特徴とするアイポインティングシステム。 - 請求項9に記載のアイポインティングシステムにおいて、
前記GUI画像には、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれる
ことを特徴とするアイポインティングシステム。 - 請求項9または請求項10に記載のアイポインティングシステムにおいて、
前記GUI画像には、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、測定対象であるワークの周辺、または、測定プローブの周辺に配置される
ことを特徴とするアイポインティングシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020081086A JP6982656B2 (ja) | 2016-02-24 | 2020-05-01 | 眼で操作するアイポインティングシステム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016032874A JP6700849B2 (ja) | 2016-02-24 | 2016-02-24 | 測定システム |
JP2020081086A JP6982656B2 (ja) | 2016-02-24 | 2020-05-01 | 眼で操作するアイポインティングシステム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016032874A Division JP6700849B2 (ja) | 2016-02-24 | 2016-02-24 | 測定システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123396A JP2020123396A (ja) | 2020-08-13 |
JP6982656B2 true JP6982656B2 (ja) | 2021-12-17 |
Family
ID=79169998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020081086A Active JP6982656B2 (ja) | 2016-02-24 | 2020-05-01 | 眼で操作するアイポインティングシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6982656B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114285984B (zh) * | 2020-09-27 | 2024-04-16 | 宇龙计算机通信科技(深圳)有限公司 | 基于ar眼镜的摄像头切换方法、装置、存储介质以及终端 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004301869A (ja) * | 2003-03-28 | 2004-10-28 | Takuya Shinkawa | 音声出力装置およびポインティングデバイス |
JP5651386B2 (ja) * | 2010-06-23 | 2015-01-14 | ソフトバンクモバイル株式会社 | 眼鏡型表示装置 |
US9791921B2 (en) * | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
-
2020
- 2020-05-01 JP JP2020081086A patent/JP6982656B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020123396A (ja) | 2020-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6393367B2 (ja) | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 | |
US8139087B2 (en) | Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program | |
US10606441B2 (en) | Operation control device and operation control method | |
US9323343B2 (en) | Information processing method and information processing apparatus | |
JP4701424B2 (ja) | 画像認識装置および操作判定方法並びにプログラム | |
JP6598617B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US10429941B2 (en) | Control device of head mounted display, operation method and operation program thereof, and image display system | |
JP6652613B2 (ja) | ウェアラブル装置、制御方法、制御プログラム及び撮像装置 | |
EP2287708B1 (en) | Image recognizing apparatus, operation determination method, and program | |
JP2013069224A (ja) | 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム | |
JP4968922B2 (ja) | 機器制御装置及び制御方法 | |
JP6554948B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
KR20140002009A (ko) | 입력 장치, 입력 방법 및 기록 매체 | |
WO2021044745A1 (ja) | 表示処理装置、表示処理方法及び記録媒体 | |
JP6982656B2 (ja) | 眼で操作するアイポインティングシステム | |
JP6638392B2 (ja) | 表示装置、表示システム、表示装置の制御方法、及び、プログラム | |
WO2018198272A1 (ja) | 制御装置、情報処理システム、制御方法、及びプログラム | |
WO2020080107A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20230031913A1 (en) | Information processing device, information processing method, computer program, and augmented reality system | |
CN113498531A (zh) | 头戴式信息处理装置以及头戴式显示系统 | |
JP6700849B2 (ja) | 測定システム | |
JP6740613B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP5887805B2 (ja) | 眼科装置 | |
CN106095088B (zh) | 一种电子设备及其图像处理方法 | |
JP6169462B2 (ja) | 情報処理装置及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200526 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210521 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6982656 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |