JP2021128784A - 端末操作システム、および、端末操作プログラム - Google Patents
端末操作システム、および、端末操作プログラム Download PDFInfo
- Publication number
- JP2021128784A JP2021128784A JP2021067391A JP2021067391A JP2021128784A JP 2021128784 A JP2021128784 A JP 2021128784A JP 2021067391 A JP2021067391 A JP 2021067391A JP 2021067391 A JP2021067391 A JP 2021067391A JP 2021128784 A JP2021128784 A JP 2021128784A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- terminal
- coordinates
- display screen
- operation reference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Abstract
【課題】簡便かつ安価な非接触式の入力を実現するための端末操作システム等を提供する。【解決手段】上記端末操作システム100等は、操作用基準部Yおよび操作用基準部Yの周囲を含む画像データG中において、操作用基準部Yを中心とする1つの矩形の領域Rおよび領域Rの対角の座標Xが設定された教師データKを複数取得し、教師データKを用いて、入力された画像データGにおける操作用基準部Yを中心とする1つの矩形の領域Rの対角の座標Xを出力する学習済みモデル10を生成することで成立する。【選択図】図1
Description
本発明は、端末操作に用いられる学習済みモデル生成方法、学習済みモデル、プログラム、端末操作システム、および、端末操作プログラムに関する。
パーソナルコンピュータ等の端末を操作するデバイスとしては、従前より、キーボード、マウス、ペンタブレット等の多種多様なものが開発されている。
加えて、近年では、衛生面で非常に高いレベルが要求される医療従事者が端末を操作する際の入力装置として、非接触式の入力装置が提案されている(例えば、特許文献1)。
この非接触式入力装置にはカルテシアン座標システムが使用されており、端末を操作するオペレータ(例えば、手術を行う医師)は、端末の表示画面やマウス等の入力装置に直接接触することなく当該端末の操作を行うことができる。
これにより、手術中の医師等、非常に高い無菌環境が求められる医療従事者であっても端末の操作が可能となる。
しかしながら、従来の非接触式入力装置には非接触を実現するための特殊なハードウェアが必要であったことから、装置自身が大がかりなものとなり、これに伴って装置の費用も高額になってしまうという問題があった。
本発明は、このような課題に鑑みてなされたものであり、その目的は、簡便かつ安価な非接触式の入力を実現するための端末操作システム等を提供することにある。
本発明の一局面によれば、
操作用基準部および前記操作用基準部の周囲を含む画像データ中において、前記操作用基準部を中心とする1つの矩形の領域および前記領域の対角の座標が設定された教師データを複数取得し、
前記教師データを用いて、入力された画像データにおける操作用基準部を中心とする1つの矩形の領域の対角の座標を出力する学習済みモデルを生成する
学習済みモデル生成方法が提供される。
操作用基準部および前記操作用基準部の周囲を含む画像データ中において、前記操作用基準部を中心とする1つの矩形の領域および前記領域の対角の座標が設定された教師データを複数取得し、
前記教師データを用いて、入力された画像データにおける操作用基準部を中心とする1つの矩形の領域の対角の座標を出力する学習済みモデルを生成する
学習済みモデル生成方法が提供される。
本発明の他の局面によれば、
操作用基準部および前記操作用基準部の周囲を含む画像データ中において、前記操作用基準部を中心とする1つの矩形の領域および前記領域の対角の座標が設定された複数の教師データを用いて機械学習により生成され、
入力された画像データにおける操作用基準部を中心とする1つの矩形の領域の対角の座標を出力する
学習済みモデルが提供される。
操作用基準部および前記操作用基準部の周囲を含む画像データ中において、前記操作用基準部を中心とする1つの矩形の領域および前記領域の対角の座標が設定された複数の教師データを用いて機械学習により生成され、
入力された画像データにおける操作用基準部を中心とする1つの矩形の領域の対角の座標を出力する
学習済みモデルが提供される。
本発明の他の局面によれば、
操作用基準部および前記操作用基準部の周囲を含む画像データを取得し、
前記画像データを入力とし、前記画像データ中における前記操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師画像データを用いて学習させた学習済みモデルに、
取得した画像データを入力して、操作用基準部を中心とする1つの矩形の領域の対角の座標を出力する
処理をコンピュータに実行させるプログラムが提供される。
操作用基準部および前記操作用基準部の周囲を含む画像データを取得し、
前記画像データを入力とし、前記画像データ中における前記操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師画像データを用いて学習させた学習済みモデルに、
取得した画像データを入力して、操作用基準部を中心とする1つの矩形の領域の対角の座標を出力する
処理をコンピュータに実行させるプログラムが提供される。
本発明の他の局面によれば、
操作用基準部および前記操作用基準部の周囲を含む画像データを連続的に撮像する撮像手段と、
教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師画像データを用いて学習させた学習済みモデルを記憶する記憶手段と、
前記撮像手段から画像データを取得し、前記学習済みモデルを用いて前記画像データにおける操作用基準部を中心とする1つの矩形の領域の対角の座標を検出する検出手段と、
前記検出手段から送られてきた前記画像データにおける前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理手段と、
前記座標処理手段で算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作手段とを有する
端末操作システムが提供される。
操作用基準部および前記操作用基準部の周囲を含む画像データを連続的に撮像する撮像手段と、
教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師画像データを用いて学習させた学習済みモデルを記憶する記憶手段と、
前記撮像手段から画像データを取得し、前記学習済みモデルを用いて前記画像データにおける操作用基準部を中心とする1つの矩形の領域の対角の座標を検出する検出手段と、
前記検出手段から送られてきた前記画像データにおける前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理手段と、
前記座標処理手段で算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作手段とを有する
端末操作システムが提供される。
好適には、
前記座標処理手段は、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別する機能を有しており、
前記端末操作手段は、前記初期面積と比較して前記領域の面積が所定の倍率以上になったときに、前記端末に対して所定のイベントを実施させる。
前記座標処理手段は、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別する機能を有しており、
前記端末操作手段は、前記初期面積と比較して前記領域の面積が所定の倍率以上になったときに、前記端末に対して所定のイベントを実施させる。
本発明の他の局面によれば、
教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師データを用いて学習させた学習済みモデルに対して、撮像手段によって撮像された、操作用基準部および前記操作用基準部の周囲を含む画像データを入力する入力ステップと、
前記学習済みモデルを用いて前記画像データにおける前記操作用基準部を中心とする1つの矩形の領域の対角の座標を検出する検出ステップと、
前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理ステップと、
算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作ステップとを有する
端末操作プログラムが提供される。
教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師データを用いて学習させた学習済みモデルに対して、撮像手段によって撮像された、操作用基準部および前記操作用基準部の周囲を含む画像データを入力する入力ステップと、
前記学習済みモデルを用いて前記画像データにおける前記操作用基準部を中心とする1つの矩形の領域の対角の座標を検出する検出ステップと、
前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理ステップと、
算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作ステップとを有する
端末操作プログラムが提供される。
好適には、
前記座標処理ステップでは、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別し、
前記端末操作ステップでは、さらに、前記初期面積と比較して前記領域の面積が所定の倍率以上になったときに、前記端末に対して所定のイベントを実施させる。
前記座標処理ステップでは、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別し、
前記端末操作ステップでは、さらに、前記初期面積と比較して前記領域の面積が所定の倍率以上になったときに、前記端末に対して所定のイベントを実施させる。
好適には、
前記フォーカスとは、ポインタを前記表示画面座標の位置に移動させることであり、
前記イベントとは、マウスのクリックおよびダブルクリックである。
前記フォーカスとは、ポインタを前記表示画面座標の位置に移動させることであり、
前記イベントとは、マウスのクリックおよびダブルクリックである。
本発明に係る端末操作システムによれば、単純な動画撮影ができるカメラを用いて、操作用基準部を動かすことにより、このようなカメラを標準的に備えている通常のノートPC、スマートフォン、タブレット等の端末を非接触で操作することのできるシステムを提供できた。
(学習済みモデル10、および、それを用いた端末操作システム100)
本発明が適用された実施形態に係る学習済みモデル10、および、それを用いた端末操作システム100について説明する。
本発明が適用された実施形態に係る学習済みモデル10、および、それを用いた端末操作システム100について説明する。
本実施形態に係る端末操作システム100は、図1に示すように、大略、学習済みモデル10と、撮像手段20と、制御手段30と、記憶手段40と、検出手段50と、座標処理手段60と、端末操作手段70とで構成されている。
学習済みモデル10は、図2に示すように、端末のオペレータの人差し指Yおよび当該人差し指Yの周囲を含む画像データGの入力を受けて、当該画像データにおける人差し指Yを中心とする少なくとも1つの矩形の領域(以下、「矩形領域R」という。)の対角の座標X[X1,Y1、X2,Y2]を出力するものである。
なお、画像データGに含まれるオペレータの人差し指Yの向きは、上向きでも、下向きでも、その他いずれの方向を向いていてもよい。撮像手段20に対して、人差し指Yを異なる位置、異なる角度、異なる距離、異なる側面といったように、人差し指Yの見え方を様々に変えて撮像した画像データGを機械学習に用いるのが好適である。
この学習済みモデル10は、図3に示すような学習済みモデル生成手段11を用いて生成される。学習済みモデル生成手段11は、例えば、教師データ生成部12と、学習済みモデル生成部13と、学習済みモデル記憶部14と、出力部15とを有している。
教師データ生成部12は、オペレータの人差し指Yおよび当該人差し指Yの周囲を含む画像データGの入力を受けた後、当該画像データGに人差し指Yを中心とする1つの矩形領域Rおよび当該矩形領域Rの対角の座標Xを設定することにより、教師データKを生成する。また、教師データ生成部12は、生成した教師データKを学習済みモデル生成部13へ出力する。
学習済みモデル生成部13は、教師データ生成部12で生成された教師データKを用いて学習済みモデル10を生成し、生成した学習済みモデル10を学習済みモデル記憶部14に出力する。
教師データKを用いた学習済みモデル10の生成には、公知の機械学習手法が使用される。機械学習手法としては、例えば、機械学習フレームワークのPyTorchを挙げることができる。このPyTorchを利用して、シングルショットディテクター(SSD)にVGG16のネットワークを組み合わせて人差し指Yの特徴量と位置検出方法を学習させる。学習済みモデル10は、学習により得られた人差し指Yの特徴情報を持っている。もちろん、機械学習手法はこれに限定されるものではなく、上述した「PyTorch」の代わりに「Keras」、「SSD」の代わりに「Keras Retinanet」、「VGG16」の代わりに「mobilenet」をそれぞれ任意に使用してもよい。
この学習済みモデル10を使用すると、SSDが撮像手段20から送られてきた画像データGから人差し指Yの特徴量を持つピクセル上の位置を特定し、対角の座標X[X1,Y1、X2,Y2]によって囲まれる矩形領域Rを検出位置として出力する。
また、この学習済みモデル10は、対角の座標Xに加えて、当該矩形領域Rに含まれる物体の特徴量と、学習済みモデル10内にある人差し指Yの特徴量との一致度合いを「確度」として0から100の数値で出力するようになっている。「確度」の数値が大きいほど、矩形領域Rに含まれる物体の特徴量と、学習済みモデル10内にある人差し指Yの特徴量との一致度合いが高いことを意味している。
学習済みモデル記憶部14は、学習済みモデル生成部13で生成された学習済みモデル10を記憶する。
出力部15は、学習済みモデル記憶部14に記憶されている学習済みモデル10を取得し、取得した学習済みモデル10を端末操作システム100の記憶手段40に出力する。学習済みモデル生成手段11から記憶手段40への学習済みモデル10の出力は、例えば、学習済みモデル生成手段11に対するオペレータの指示に基づいて行われる。
次に、図4に示すように、撮像手段20は、オペレータの指Yおよびその指Yの周囲を含む画像データGを撮像するものであり、例えば、通常のノートPC、スマートフォン、タブレット等の端末Tに標準的に備えられている、単純な動画撮影ができるカメラが考えられる。当該カメラと端末Tとの接続方式も特に限定されるものではなく、内蔵型やUSB接続型等どのような方式であってもよい。また、PLC(Programmable Logic Controller)等の専用機に後付けしたカメラ等であってもよい。
制御手段30は、記憶手段40あるいは外部の記憶媒体に記憶されている端末操作プログラム200を実行することにより、後述する各種のステップを実行する手段である。本実施形態の場合、制御手段30は、オペレータが操作する端末Tに内蔵されたCPUである。
記憶手段40は、端末操作システム100を動作させる端末操作プログラム200や、学習済みモデル10等を記憶する手段である。本実施形態の場合、記憶手段40は、オペレータが操作する端末Tに内蔵されたハードディスクドライブである。なお、記憶手段40は、各種のRAM(Random Access Memory)、各種のROM(Read-Only Memory)、フラッシュメモリーなどによって実現される。また、記憶手段40は、インターフェイスを介して利用される、USB(Universal Serial Bus)(登録商標)メモリ、CD(Compact Disc)、DVD(Digital Versatile Disk)、メモリカード、ソリッドステートドライブ、IC(Integrated Circuit)カード、光カード、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの記憶媒体などによっても実現される。
検出手段50は、端末操作システム100を動作させる端末操作プログラム200によって実現される手段であり、撮像手段20から画像データGを連続的に取得し、学習済みモデル10を用いて各画像データGにおけるオペレータの指Yを中心とする1つの矩形領域Rの対角の座標Xを検出させるとともに、「確度」の値を出力する。
このとき、学習済みモデル10から出力された「確度」の値が、予め任意に設定しておいた設定値(例えば、「70」等)以下である場合、検出手段50は当該画像データGを破棄して、撮像手段20から次の画像データGを受け取る。
逆に、学習済みモデル10から出力された「確度」の値が、予め任意に設定しておいた設定値よりも大きい場合、検出手段50は、対角の座標Xが設定された画像データGを座標処理手段60に送る。
座標処理手段60も、端末操作システム100を動作させる端末操作プログラム200によって実現される手段であり、検出手段50から送られてきた画像データGにおける対角の座標Xに基づいて、端末Tの表示画面M(図4を参照)において対応する座標(以下、「表示画面座標」という。)を算出する。
座標処理手段60は、予め、撮像手段20によって取得される画像データGの解像度と、端末Tの表示画面Mの解像度とを取得しておき、両解像度に基づいて画像データGの四隅の座標と、対応する表示画面Mの四隅の座標とが一致するように設定しておく。例えば、画像データGの解像度がVGA(640,480)であり、端末Tの表示画面Mの解像度がフルHD(1920,1080)である場合、画像データGにおけるX座標の値を3倍した値(1920÷640=3)を表示画面MのX座標の値とし、画像データGにおけるY座標の値を2.25倍した値(1080÷480=2.25:端数は切り上げ等して整数にする)を表示画面MのY座標の値として互いの座標が一致するようにしておく。
このように予め設定しておくことにより、座標処理手段60は、検出手段50から送られてきた画像データGにおける対角の座標Xに基づいて人差し指Yの座標を決定し、然る後、端末Tの表示画面Mにおいて対応する座標(以下、「表示画面座標」という。)を算出することができる。
端末操作手段70は、端末操作システム100を動作させる端末操作プログラム200によって実現される手段であり、座標処理手段60で算出された表示画面座標に基づいて、端末Tの表示画面Mにおける当該表示画面座標にポインタを表示させる。
(端末操作システム100における端末操作プログラム200の動作)
次に、本実施態様に係る端末操作システム100における端末操作プログラム200の動作について説明する。なお、オペレータの人差し指Yおよび当該人差し指Yの周囲を含む画像データG中において、人差し指Yを中心とする1つの矩形領域Rおよび当該矩形領域Rの対角の座標Xが設定された教師データKを複数取得し、これら教師データKを用いた公知の機械学習手法により、入力された画像データGにおける人差し指Yを中心とする1つの矩形領域Rの対角の座標Xを出力する学習済みモデル10が生成されている。
次に、本実施態様に係る端末操作システム100における端末操作プログラム200の動作について説明する。なお、オペレータの人差し指Yおよび当該人差し指Yの周囲を含む画像データG中において、人差し指Yを中心とする1つの矩形領域Rおよび当該矩形領域Rの対角の座標Xが設定された教師データKを複数取得し、これら教師データKを用いた公知の機械学習手法により、入力された画像データGにおける人差し指Yを中心とする1つの矩形領域Rの対角の座標Xを出力する学習済みモデル10が生成されている。
最初に、端末操作システム100における端末操作プログラム200は、撮像手段20によって撮像された、オペレータの人差し指Yおよびその人差し指Yの周囲を含む画像データGを、検出手段50を介して記憶手段40の学習済みモデル10に入力する。(入力ステップ)
然る後、検出手段50により、当該学習済みモデル10から受け取った、当該画像データGにおける人差し指Yを中心とする1つの矩形領域Rおよび当該矩形領域Rの対角の座標X、および、「確度」の値が設定された画像データGを受け取り、当該「確度」の値が、予め任意に設定しておいた設定値以下である場合は当該画像データGを破棄して、撮像手段20から次の画像データGを受け取る。逆に、当該「確度」の値が予め任意に設定しておいた設定値よりも大きい場合、対角の座標Xが設定された画像データGを次のステップに送る。(検出ステップ)
そして、座標処理手段60により、予め取得しておいた画像データGの解像度と端末Tの表示画面Mの解像度とに基づいて、画像データGにおける対角の座標Xから端末Tの表示画面Mにおいて対応する表示画面座標を算出する。(座標処理ステップ)
最後に、端末操作手段70により、算出された表示画面座標に基づいて、端末Tの表示画面Mにおける当該表示画面座標にポインタを表示させる。(端末操作ステップ)
(端末操作システム100の特徴)
本実施形態に係る端末操作システム100によれば、単純な動画撮影ができるカメラを用いて、オペレータが自身の人差し指Yを動かすことにより、このようなカメラを標準的に備えている通常のノートPC、スマートフォン、タブレット等の端末を非接触で操作することのできるシステムを提供できる。
本実施形態に係る端末操作システム100によれば、単純な動画撮影ができるカメラを用いて、オペレータが自身の人差し指Yを動かすことにより、このようなカメラを標準的に備えている通常のノートPC、スマートフォン、タブレット等の端末を非接触で操作することのできるシステムを提供できる。
(変形例1)
上述した実施形態では、端末操作システム100の座標処理手段60において、連続的に取得された複数の画像データGから人差し指Yを中心とする矩形領域Rの対角の座標Xに基づいて、端末Tの表示画面Mにおける対応する表示画面座標にポインタを表示させるようになっていたが、これに加えて、カメラに対して人差し指Yを前後させる動きを識別させてもよい。
上述した実施形態では、端末操作システム100の座標処理手段60において、連続的に取得された複数の画像データGから人差し指Yを中心とする矩形領域Rの対角の座標Xに基づいて、端末Tの表示画面Mにおける対応する表示画面座標にポインタを表示させるようになっていたが、これに加えて、カメラに対して人差し指Yを前後させる動きを識別させてもよい。
具体的には、座標処理手段60に対して、さらに、所定の時間間隔で取得された複数の画像データGにおける矩形領域Rの面積(すなわち、人差し指Yの大きさ)が、最初に人差し指Yが識別された画像データGにおける矩形領域Rの面積(以下、「初期面積」という。)と比較して所定の倍率(例えば、1.5倍から2倍)以上になったか否かを判別する機能を付加する。
矩形領域Rの面積を算出する手法としては、例えば、画像データGで検出された対角の座標X[X1,Y1、X2,Y2]を用いて、(X2−X1)+(Y2−Y1)を算出することで、つまり矩形領域Rの全周長の半分を算出することで当該面積の指標とすることが考えられる。もちろん、矩形領域Rの面積を算出する手法はこれに限定されるものではなく、他の手法を用いてもよい。
そして、初期面積と比較して矩形領域Rの面積が所定の倍率以上になったとき、端末操作手段70が端末Tに対して所定のイベント(例えば、マウスの「クリック」に相当するイベントや「ダブルクリック」に相当するイベント等)を実行させる。
これにより、端末操作システム100は、オペレータによる端末Tのポインタの移動だけでなく、さらに別の操作を提供することができる。
(変形例2)
上述した実施形態では、座標処理手段60において、予め、撮像手段20によって取得される画像データGの解像度と、端末Tの表示画面Mの解像度とを取得しておき、両解像度に基づいて画像データGの四隅の座標と、対応する表示画面Mの四隅の座標とが一致するように設定しておき、検出手段50から送られてきた画像データGにおける対角の座標Xに基づいて人差し指Yの座標を決定し、然る後、端末Tの表示画面Mにおいて対応する表示画面座標を算出することにより、当該表示画面座標の位置にポインタを表示させるようにしていた。つまり、人差し指Yの座標とポインタを表示させる座標とを一対一に対応させていたが、これに変えて、ポインタを「差分」で移動させるようにしてもよい。
上述した実施形態では、座標処理手段60において、予め、撮像手段20によって取得される画像データGの解像度と、端末Tの表示画面Mの解像度とを取得しておき、両解像度に基づいて画像データGの四隅の座標と、対応する表示画面Mの四隅の座標とが一致するように設定しておき、検出手段50から送られてきた画像データGにおける対角の座標Xに基づいて人差し指Yの座標を決定し、然る後、端末Tの表示画面Mにおいて対応する表示画面座標を算出することにより、当該表示画面座標の位置にポインタを表示させるようにしていた。つまり、人差し指Yの座標とポインタを表示させる座標とを一対一に対応させていたが、これに変えて、ポインタを「差分」で移動させるようにしてもよい。
具体的には、最初に人差し指Yが識別された画像データGにおける対角の座標Xに基づいて人差し指Yの座標を決定し、端末Tの表示画面Mにおいて対応する表示画面座標を算出して当該位置にポインタを表示させる。そして、次の画像データGにおける対角の座標Xに基づいて人差し指Yの座標を決定したとき、ひとつ前の画像データGにおける人差し指Yの座標との「位置の差」を算出する。然る後、端末操作手段70にて、現在のポインタの座標から当該「位置の差」だけずれた位置にポインタの位置を移動させる。
これにより、撮像手段20によって取得される画像データGの解像度と、端末Tの表示画面Mの解像度とを取得しておき、両解像度に基づいて画像データGの四隅の座標と、対応する表示画面Mの四隅の座標とが一致するように設定せず、画像データGの解像度よりも端末Tの表示画面Mの解像度の方が大きい場合において、表示画面Mの端部にポインタを移動させる際、画像データGの端まで人差し指Yを移動させた後で当該人差し指Yを一旦撮像手段20の撮像範囲外に出し、然る後、人差し指Yを再度撮像手段20の撮像範囲の略中央部(画像データGの略中央部)から移動させることにより、表示画面Mの端部までポインタを移動させることができるようになる。
(変形例3)
上述した各実施形態では、本発明を利用して端末Tのポインタを移動させたり、さらに別の操作(例えば、マウスの「クリック」に相当するイベントや「ダブルクリック」に相当するイベント等)を実行させたりする例を示したが、これに限定されることなく、マウスの操作以外で、本発明を端末Tの表示画面M上の点にフォーカスする操作、および、フォーカスした点で何らかのイベントを実行させる入力手段として使用してもよい。
上述した各実施形態では、本発明を利用して端末Tのポインタを移動させたり、さらに別の操作(例えば、マウスの「クリック」に相当するイベントや「ダブルクリック」に相当するイベント等)を実行させたりする例を示したが、これに限定されることなく、マウスの操作以外で、本発明を端末Tの表示画面M上の点にフォーカスする操作、および、フォーカスした点で何らかのイベントを実行させる入力手段として使用してもよい。
(変形例4)
上述した各実施形態では、学習済みモデル10が矩形領域Rの対角の座標Xを検出するとともに、「確度」の値を出力するようになっていたが、「確度」の値の出力をすることなく、矩形領域Rの対角の座標Xを検出するだけでもよい。
上述した各実施形態では、学習済みモデル10が矩形領域Rの対角の座標Xを検出するとともに、「確度」の値を出力するようになっていたが、「確度」の値の出力をすることなく、矩形領域Rの対角の座標Xを検出するだけでもよい。
(変形例5)
上述した各実施形態では、端末Tを操作するために端末操作システム100が検出する「操作用基準部」の例としてオペレータの人差し指Yを使用していたが、「操作用基準部」はこれに限定されるものではなく、例えば、人差し指以外の指であったり、手袋を装着した状態の指であったり、ペンの先端部であったり、特定の形状をした棒の先端部であったり、特定形状の図形であったり、どのようなものであってもよい。
上述した各実施形態では、端末Tを操作するために端末操作システム100が検出する「操作用基準部」の例としてオペレータの人差し指Yを使用していたが、「操作用基準部」はこれに限定されるものではなく、例えば、人差し指以外の指であったり、手袋を装着した状態の指であったり、ペンの先端部であったり、特定の形状をした棒の先端部であったり、特定形状の図形であったり、どのようなものであってもよい。
今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10…学習済みモデル、11…学習済みモデル生成手段、12…教師データ生成部、13…学習済みモデル生成部、14…学習済みモデル記憶部、15…出力部
20…撮像手段
30…制御手段
40…記憶手段
50…検出手段
60…座標処理手段
70…端末操作手段
100…端末操作システム
200…端末操作プログラム
T…端末、Y…オペレータの人差し指、R…矩形領域、X…対角の座標、G…画像データ、K…教師データ、M…表示画面
20…撮像手段
30…制御手段
40…記憶手段
50…検出手段
60…座標処理手段
70…端末操作手段
100…端末操作システム
200…端末操作プログラム
T…端末、Y…オペレータの人差し指、R…矩形領域、X…対角の座標、G…画像データ、K…教師データ、M…表示画面
Claims (6)
- 操作用基準部および前記操作用基準部の周囲を含む画像データを連続的に撮像する撮像手段と、
教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師画像データを用いて学習させた学習済みモデルを記憶する記憶手段と、
前記撮像手段から画像データを取得し、前記学習済みモデルを用いて前記画像データにおける操作用基準部を中心とする1つの矩形の領域の対角の座標、および、前記学習済みモデル内の前記操作用基準部の特徴量と入力された前記操作用基準部の特徴量との一致度合いを示す確度の値を検出する検出手段と、
前記検出手段から送られてきた前記画像データにおける前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理手段と、
前記座標処理手段で算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作手段とを有しており、
前記撮像手段によって連続的に撮像された前記画像データ毎に、前記記憶手段、前記検出手段、前記座標処理手段、および前記端末操作手段による作業が実施されることを特徴とする
端末操作システム。 - 前記座標処理手段は、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別する機能を有しており、
前記端末操作手段は、前記初期面積と比較して前記領域の面積が所定の倍率以上になったときに、前記端末に対して所定のイベントを実施させることを特徴とする
請求項1に記載の端末操作システム。 - 前記フォーカスとは、ポインタを前記表示画面座標の位置に移動させることであり、
前記イベントとは、マウスのクリックおよびダブルクリックであることを特徴とする
請求項2に記載の端末操作システム。 - 教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師データを用いて学習させた学習済みモデルに対して、撮像手段によって撮像された、操作用基準部および前記操作用基準部の周囲を含む画像データを入力する入力ステップと、
前記学習済みモデルを用いて前記画像データにおける前記操作用基準部を中心とする1つの矩形の領域の対角の座標、および、前記学習済みモデル内の前記操作用基準部の特徴量と入力された前記操作用基準部の特徴量との一致度合いを示す確度の値を検出する検出ステップと、
前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理ステップと、
算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作ステップとを有しており、
連続的に撮像された前記画像データ毎に、前記入力ステップ、前記検出ステップ、前記座標処理ステップ、および、前記端末操作ステップが実施されることを特徴とする
端末操作プログラム。 - 前記座標処理ステップでは、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別し、
前記端末操作ステップでは、さらに、前記初期面積と比較して前記領域の面積が所定の倍率以上になったときに、前記端末に対して所定のイベントを実施させることを特徴とする
請求項4に記載の端末操作プログラム。 - 前記フォーカスとは、ポインタを前記表示画面座標の位置に移動させることであり、
前記イベントとは、マウスのクリックおよびダブルクリックであることを特徴とする
請求項5に記載の端末操作プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067391A JP2021128784A (ja) | 2020-02-14 | 2021-04-12 | 端末操作システム、および、端末操作プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020023857A JP6935887B2 (ja) | 2020-02-14 | 2020-02-14 | 端末操作システム、および、端末操作プログラム |
JP2021067391A JP2021128784A (ja) | 2020-02-14 | 2021-04-12 | 端末操作システム、および、端末操作プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020023857A Division JP6935887B2 (ja) | 2020-02-14 | 2020-02-14 | 端末操作システム、および、端末操作プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021128784A true JP2021128784A (ja) | 2021-09-02 |
Family
ID=77292301
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020023857A Active JP6935887B2 (ja) | 2020-02-14 | 2020-02-14 | 端末操作システム、および、端末操作プログラム |
JP2021067391A Pending JP2021128784A (ja) | 2020-02-14 | 2021-04-12 | 端末操作システム、および、端末操作プログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020023857A Active JP6935887B2 (ja) | 2020-02-14 | 2020-02-14 | 端末操作システム、および、端末操作プログラム |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6935887B2 (ja) |
WO (1) | WO2021162119A1 (ja) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5297530B2 (ja) * | 2009-07-15 | 2013-09-25 | 株式会社東芝 | 画像処理装置、及びインターフェース装置 |
JP2013080266A (ja) * | 2010-02-08 | 2013-05-02 | Nextedge Technology Inc | 入力装置 |
JP2013210875A (ja) * | 2012-03-30 | 2013-10-10 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
JP6039248B2 (ja) * | 2012-06-04 | 2016-12-07 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
JP6019947B2 (ja) * | 2012-08-31 | 2016-11-02 | オムロン株式会社 | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
JP2018032055A (ja) * | 2015-01-13 | 2018-03-01 | 三菱電機株式会社 | ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体 |
JP2017059207A (ja) * | 2015-09-18 | 2017-03-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像認識方法 |
CN107179826B (zh) * | 2016-03-11 | 2021-08-31 | 松下知识产权经营株式会社 | 姿势输入系统和姿势输入方法 |
JP6676256B2 (ja) * | 2016-08-10 | 2020-04-08 | 株式会社東海理化電機製作所 | 画像処理装置及び画像処理方法 |
JP2019096072A (ja) * | 2017-11-22 | 2019-06-20 | 株式会社東芝 | 物体検出装置、物体検出方法およびプログラム |
-
2020
- 2020-02-14 JP JP2020023857A patent/JP6935887B2/ja active Active
-
2021
- 2021-02-13 WO PCT/JP2021/005380 patent/WO2021162119A1/ja active Application Filing
- 2021-04-12 JP JP2021067391A patent/JP2021128784A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP6935887B2 (ja) | 2021-09-15 |
JP2021128643A (ja) | 2021-09-02 |
WO2021162119A1 (ja) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6371475B2 (ja) | 視線入力装置、視線入力方法、および、視線入力プログラム | |
RU2672181C2 (ru) | Способ и устройство для генерирования команды | |
JP4494002B2 (ja) | 切替器および切替器の切替方法 | |
JP6631541B2 (ja) | タッチ入力のための方法及びシステム | |
WO2014034031A1 (ja) | 情報入力装置及び情報表示方法 | |
TW201939260A (zh) | 一種利用手勢模擬滑鼠操作的方法、裝置及終端 | |
Matlani et al. | Virtual mouse using hand gestures | |
CN117472189B (zh) | 具有实物感的打字或触控的实现方法 | |
JP6935887B2 (ja) | 端末操作システム、および、端末操作プログラム | |
CN103154877A (zh) | 显示器上的第一图像和第二图像 | |
JP2017526061A (ja) | ウェアラブルデバイス、及びウェアラブルデバイスの動作方法 | |
US20160124602A1 (en) | Electronic device and mouse simulation method | |
JP2013077180A (ja) | 認識装置およびその制御方法 | |
US10185407B2 (en) | Display control apparatus, display control method and recording medium | |
WO2019134606A1 (zh) | 终端的控制方法、装置、存储介质及电子设备 | |
KR101911676B1 (ko) | 지시체의 움직임을 고려한 프리젠테이션 영상 처리장치 및 방법 | |
US20220343557A1 (en) | Information processing apparatus, non-transitory computer readable medium storing program, and information processing system | |
JP2014082605A (ja) | 情報処理装置、その制御方法及びプログラム | |
CN116048374B (zh) | 虚拟隐形键盘的在线考试方法及系统 | |
US20150323999A1 (en) | Information input device and information input method | |
JP2019012485A (ja) | ユーザインターフェース | |
Dell et al. | Mobile touch-free interaction for global health | |
JP5339234B2 (ja) | 操作性評価装置、操作性評価方法、操作性評価プログラム、及び操作性評価システム | |
Shimada et al. | New design for a dynamic tactile graphic system for blind computer users | |
JP2020160562A (ja) | 制御システム、制御方法、プログラム |