JP6935887B2 - 端末操作システム、および、端末操作プログラム - Google Patents

端末操作システム、および、端末操作プログラム Download PDF

Info

Publication number
JP6935887B2
JP6935887B2 JP2020023857A JP2020023857A JP6935887B2 JP 6935887 B2 JP6935887 B2 JP 6935887B2 JP 2020023857 A JP2020023857 A JP 2020023857A JP 2020023857 A JP2020023857 A JP 2020023857A JP 6935887 B2 JP6935887 B2 JP 6935887B2
Authority
JP
Japan
Prior art keywords
image data
terminal
coordinates
display screen
reference unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020023857A
Other languages
English (en)
Other versions
JP2021128643A (ja
Inventor
良司 大津
良司 大津
清一 林
清一 林
潤一 高津
潤一 高津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHINOUGIJUTSU CO., LTD.
Original Assignee
CHINOUGIJUTSU CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHINOUGIJUTSU CO., LTD. filed Critical CHINOUGIJUTSU CO., LTD.
Priority to JP2020023857A priority Critical patent/JP6935887B2/ja
Priority to PCT/JP2021/005380 priority patent/WO2021162119A1/ja
Priority to JP2021067391A priority patent/JP2021128784A/ja
Publication of JP2021128643A publication Critical patent/JP2021128643A/ja
Application granted granted Critical
Publication of JP6935887B2 publication Critical patent/JP6935887B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Description

本発明は、端末操作に用いられる学習済みモデル生成方法、学習済みモデル、プログラム、端末操作システム、および、端末操作プログラムに関する。
パーソナルコンピュータ等の端末を操作するデバイスとしては、従前より、キーボード、マウス、ペンタブレット等の多種多様なものが開発されている。
加えて、近年では、衛生面で非常に高いレベルが要求される医療従事者が端末を操作する際の入力装置として、非接触式の入力装置が提案されている(例えば、特許文献1)。
この非接触式入力装置にはカルテシアン座標システムが使用されており、端末を操作するオペレータ(例えば、手術を行う医師)は、端末の表示画面やマウス等の入力装置に直接接触することなく当該端末の操作を行うことができる。
これにより、手術中の医師等、非常に高い無菌環境が求められる医療従事者であっても端末の操作が可能となる。
特表2009−517728号公報
しかしながら、従来の非接触式入力装置には非接触を実現するための特殊なハードウェアが必要であったことから、装置自身が大がかりなものとなり、これに伴って装置の費用も高額になってしまうという問題があった。
本発明は、このような課題に鑑みてなされたものであり、その目的は、簡便かつ安価な非接触式の入力を実現するための端末操作システム等を提供することにある。
本発明の局面によれば、
操作用基準部および前記操作用基準部の周囲を含む画像データを連続的に撮像する撮像手段と、
教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師画像データを用いて学習させた学習済みモデルを記憶する記憶手段と、
前記撮像手段から画像データを取得し、前記学習済みモデルを用いて前記画像データにおける操作用基準部を中心とする1つの矩形の領域の対角の座標、および、前記学習済みモデル内の前記操作用基準部の特徴量と入力された前記操作用基準部の特徴量との一致度合いを示す確度の値を検出する検出手段と、
前記検出手段から送られてきた前記画像データにおける前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理手段と、
前記座標処理手段で算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作手段とを有しており、
前記撮像手段によって連続的に撮像された前記画像データ毎に、前記記憶手段、前記検出手段、前記座標処理手段、および前記端末操作手段による作業が実施されることを特徴とする
端末操作システムが提供される。
好適には、
前記座標処理手段は、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別する機能を有しており、
前記端末操作手段は、前記初期面積と比較して前記領域の面積が所定の倍率以上になったときときに、前記端末に対して所定のイベントを実施させる。
本発明の他の局面によれば、
教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師データを用いて学習させた学習済みモデルに対して、撮像手段によって撮像された、操作用基準部および前記操作用基準部の周囲を含む画像データを入力する入力ステップと、
前記学習済みモデルを用いて前記画像データにおける前記操作用基準部を中心とする1つの矩形の領域の対角の座標、および、前記学習済みモデル内の前記操作用基準部の特徴量と入力された前記操作用基準部の特徴量との一致度合いを示す確度の値を検出する検出ステップと、
前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理ステップと、
算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作ステップとを有しており、
連続的に撮像された前記画像データ毎に、前記入力ステップ、前記検出ステップ、前記座標処理ステップ、および、前記端末操作ステップが実施されることを特徴とする
端末操作プログラムが提供される。
好適には、
前記座標処理ステップでは、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別し、
前記端末操作ステップでは、さらに、前記初期面積と比較して前記領域の面積が所定の倍率以上になったときときに、前記端末に対して所定のイベントを実施させる。
好適には、
前記フォーカスとは、ポインタを前記表示画面座標の位置に移動させることであり、
前記イベントとは、マウスのクリックおよびダブルクリックである。
本発明に係る端末操作システムによれば、単純な動画撮影ができるカメラを用いて、操作用基準部を動かすことにより、このようなカメラを標準的に備えている通常のノートPC、スマートフォン、タブレット等の端末を非接触で操作することのできるシステムを提供できた。
本実施形態に係る端末操作システム100を示す図である。 画像データGの一例を示す図である。 本実施形態に係る学習済みモデル生成手段11を示す図である。 端末Tの一例を示す図である。
(学習済みモデル10、および、それを用いた端末操作システム100)
本発明が適用された実施形態に係る学習済みモデル10、および、それを用いた端末操作システム100について説明する。
本実施形態に係る端末操作システム100は、図1に示すように、大略、学習済みモデル10と、撮像手段20と、制御手段30と、記憶手段40と、検出手段50と、座標処理手段60と、端末操作手段70とで構成されている。
学習済みモデル10は、図2に示すように、端末のオペレータの人差し指Yおよび当該人差し指Yの周囲を含む画像データGの入力を受けて、当該画像データにおける人差し指Yを中心とする少なくとも1つの矩形の領域(以下、「矩形領域R」という。)の対角の座標X[X1,Y1、X2,Y2]を出力するものである。
なお、画像データGに含まれるオペレータの人差し指Yの向きは、上向きでも、下向きでも、その他いずれの方向を向いていてもよい。撮像手段20に対して、人差し指Yを異なる位置、異なる角度、異なる距離、異なる側面といったように、人差し指Yの見え方を様々に変えて撮像した画像データGを機械学習に用いるのが好適である。
この学習済みモデル10は、図3に示すような学習済みモデル生成手段11を用いて生成される。学習済みモデル生成手段11は、例えば、教師データ生成部12と、学習済みモデル生成部13と、学習済みモデル記憶部14と、出力部15とを有している。
教師データ生成部12は、オペレータの人差し指Yおよび当該人差し指Yの周囲を含む画像データGの入力を受けた後、当該画像データGに人差し指Yを中心とする1つの矩形領域Rおよび当該矩形領域Rの対角の座標Xを設定することにより、教師データKを生成する。また、教師データ生成部12は、生成した教師データKを学習済みモデル生成部13へ出力する。
学習済みモデル生成部13は、教師データ生成部12で生成された教師データKを用いて学習済みモデル10を生成し、生成した学習済みモデル10を学習済みモデル記憶部14に出力する。
教師データKを用いた学習済みモデル10の生成には、公知の機械学習手法が使用される。機械学習手法としては、例えば、機械学習フレームワークのPyTorchを挙げることができる。このPyTorchを利用して、シングルショットディテクター(SSD)にVGG16のネットワークを組み合わせて人差し指Yの特徴量と位置検出方法を学習させる。学習済みモデル10は、学習により得られた人差し指Yの特徴情報を持っている。もちろん、機械学習手法はこれに限定されるものではなく、上述した「PyTorch」の代わりに「Keras」、「SSD」の代わりに「Keras Retinanet」、「VGG16」の代わりに「mobilenet」をそれぞれ任意に使用してもよい。
この学習済みモデル10を使用すると、SSDが撮像手段20から送られてきた画像データGから人差し指Yの特徴量を持つピクセル上の位置を特定し、対角の座標X[X1,Y1、X2,Y2]によって囲まれる矩形領域Rを検出位置として出力する。
また、この学習済みモデル10は、対角の座標Xに加えて、当該矩形領域Rに含まれる物体の特徴量と、学習済みモデル10内にある人差し指Yの特徴量との一致度合いを「確度」として0から100の数値で出力するようになっている。「確度」の数値が大きいほど、矩形領域Rに含まれる物体の特徴量と、学習済みモデル10内にある人差し指Yの特徴量との一致度合いが高いことを意味している。
学習済みモデル記憶部14は、学習済みモデル生成部13で生成された学習済みモデル10を記憶する。
出力部15は、学習済みモデル記憶部14に記憶されている学習済みモデル10を取得し、取得した学習済みモデル10を端末操作システム100の記憶手段40に出力する。学習済みモデル生成手段11から記憶手段40への学習済みモデル10の出力は、例えば、学習済みモデル生成手段11に対するオペレータの指示に基づいて行われる。
次に、図4に示すように、撮像手段20は、オペレータの指Yおよびその指Yの周囲を含む画像データGを撮像するものであり、例えば、通常のノートPC、スマートフォン、タブレット等の端末Tに標準的に備えられている、単純な動画撮影ができるカメラが考えられる。当該カメラと端末Tとの接続方式も特に限定されるものではなく、内蔵型やUSB接続型等どのような方式であってもよい。また、PLC(Programmable Logic Controller)等の専用機に後付けしたカメラ等であってもよい。
制御手段30は、記憶手段40あるいは外部の記憶媒体に記憶されている端末操作プログラム200を実行することにより、後述する各種のステップを実行する手段である。本実施形態の場合、制御手段30は、オペレータが操作する端末Tに内蔵されたCPUである。
記憶手段40は、端末操作システム100を動作させる端末操作プログラム200や、学習済みモデル10等を記憶する手段である。本実施形態の場合、記憶手段40は、オペレータが操作する端末Tに内蔵されたハードディスクドライブである。なお、記憶手段40は、各種のRAM(Random Access Memory)、各種のROM(Read-Only Memory)、フラッシュメモリーなどによって実現される。また、記憶手段40は、インターフェイスを介して利用される、USB(Universal Serial Bus)(登録商標)メモリ、CD(Compact Disc)、DVD(Digital Versatile Disk)、メモリカード、ソリッドステートドライブ、IC(Integrated Circuit)カード、光カード、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの記憶媒体などによっても実現される。
検出手段50は、端末操作システム100を動作させる端末操作プログラム200によって実現される手段であり、撮像手段20から画像データGを連続的に取得し、学習済みモデル10を用いて各画像データGにおけるオペレータの指Yを中心とする1つの矩形領域Rの対角の座標Xを検出させるとともに、「確度」の値を出力する。
このとき、学習済みモデル10から出力された「確度」の値が、予め任意に設定しておいた設定値(例えば、「70」等)以下である場合、検出手段50は当該画像データGを破棄して、撮像手段20から次の画像データGを受け取る。
逆に、学習済みモデル10から出力された「確度」の値が、予め任意に設定しておいた設定値よりも大きい場合、検出手段50は、対角の座標Xが設定された画像データGを座標処理手段60に送る。
座標処理手段60も、端末操作システム100を動作させる端末操作プログラム200によって実現される手段であり、検出手段50から送られてきた画像データGにおける対角の座標Xに基づいて、端末Tの表示画面M(図4を参照)において対応する座標(以下、「表示画面座標」という。)を算出する。
座標処理手段60は、予め、撮像手段20によって取得される画像データGの解像度と、端末Tの表示画面Mの解像度とを取得しておき、両解像度に基づいて画像データGの四隅の座標と、対応する表示画面Mの四隅の座標とが一致するように設定しておく。例えば、画像データGの解像度がVGA(640,480)であり、端末Tの表示画面Mの解像度がフルHD(1920,1080)である場合、画像データGにおけるX座標の値を3倍した値(1920÷640=3)を表示画面MのX座標の値とし、画像データGにおけるY座標の値を2.25倍した値(1080÷480=2.25:端数は切り上げ等して整数にする)を表示画面MのY座標の値として互いの座標が一致するようにしておく。
このように予め設定しておくことにより、座標処理手段60は、検出手段50から送られてきた画像データGにおける対角の座標Xに基づいて人差し指Yの座標を決定し、然る後、端末Tの表示画面Mにおいて対応する座標(以下、「表示画面座標」という。)を算出することができる。
端末操作手段70は、端末操作システム100を動作させる端末操作プログラム200によって実現される手段であり、座標処理手段60で算出された表示画面座標に基づいて、端末Tの表示画面Mにおける当該表示画面座標にポインタを表示させる。
(端末操作システム100における端末操作プログラム200の動作)
次に、本実施態様に係る端末操作システム100における端末操作プログラム200の動作について説明する。なお、オペレータの人差し指Yおよび当該人差し指Yの周囲を含む画像データG中において、人差し指Yを中心とする1つの矩形領域Rおよび当該矩形領域Rの対角の座標Xが設定された教師データKを複数取得し、これら教師データKを用いた公知の機械学習手法により、入力された画像データGにおける人差し指Yを中心とする1つの矩形領域Rの対角の座標Xを出力する学習済みモデル10が生成されている。
最初に、端末操作システム100における端末操作プログラム200は、撮像手段20によって撮像された、オペレータの人差し指Yおよびその人差し指Yの周囲を含む画像データGを、検出手段50を介して記憶手段40の学習済みモデル10に入力する。(入力ステップ)
然る後、検出手段50により、当該学習済みモデル10から受け取った、当該画像データGにおける人差し指Yを中心とする1つの矩形領域Rおよび当該矩形領域Rの対角の座標X、および、「確度」の値が設定された画像データGを受け取り、当該「確度」の値が、予め任意に設定しておいた設定値以下である場合は当該画像データGを破棄して、撮像手段20から次の画像データGを受け取る。逆に、当該「確度」の値が予め任意に設定しておいた設定値よりも大きい場合、対角の座標Xが設定された画像データGを次のステップに送る。(検出ステップ)
そして、座標処理手段60により、予め取得しておいた画像データGの解像度と端末Tの表示画面Mの解像度とに基づいて、画像データGにおける対角の座標Xから端末Tの表示画面Mにおいて対応する表示画面座標を算出する。(座標処理ステップ)
最後に、端末操作手段70により、算出された表示画面座標に基づいて、端末Tの表示画面Mにおける当該表示画面座標にポインタを表示させる。(端末操作ステップ)
(端末操作システム100の特徴)
本実施形態に係る端末操作システム100によれば、単純な動画撮影ができるカメラを用いて、オペレータが自身の人差し指Yを動かすことにより、このようなカメラを標準的に備えている通常のノートPC、スマートフォン、タブレット等の端末を非接触で操作することのできるシステムを提供できる。
(変形例1)
上述した実施形態では、端末操作システム100の座標処理手段60において、連続的に取得された複数の画像データGから人差し指Yを中心とする矩形領域Rの対角の座標Xに基づいて、端末Tの表示画面Mにおける対応する表示画面座標にポインタを表示させるようになっていたが、これに加えて、カメラに対して人差し指Yを前後させる動きを識別させてもよい。
具体的には、座標処理手段60に対して、さらに、所定の時間間隔で取得された複数の画像データGにおける矩形領域Rの面積(すなわち、人差し指Yの大きさ)が、最初に人差し指Yが識別された画像データGにおける矩形領域Rの面積(以下、「初期面積」という。)と比較して所定の倍率(例えば、1.5倍から2倍)以上になったか否かを判別する機能を付加する。
矩形領域Rの面積を算出する手法としては、例えば、画像データGで検出された対角の座標X[X1,Y1、X2,Y2]を用いて、(X2−X1)+(Y2−Y1)を算出することで、つまり矩形領域Rの全周長の半分を算出することで当該面積の指標とすることが考えられる。もちろん、矩形領域Rの面積を算出する手法はこれに限定されるものではなく、他の手法を用いてもよい。
そして、初期面積と比較して矩形領域Rの面積が所定の倍率以上になったとき、端末操作手段70が端末Tに対して所定のイベント(例えば、マウスの「クリック」に相当するイベントや「ダブルクリック」に相当するイベント等)を実行させる。
これにより、端末操作システム100は、オペレータによる端末Tのポインタの移動だけでなく、さらに別の操作を提供することができる。
(変形例2)
上述した実施形態では、座標処理手段60において、予め、撮像手段20によって取得される画像データGの解像度と、端末Tの表示画面Mの解像度とを取得しておき、両解像度に基づいて画像データGの四隅の座標と、対応する表示画面Mの四隅の座標とが一致するように設定しておき、検出手段50から送られてきた画像データGにおける対角の座標Xに基づいて人差し指Yの座標を決定し、然る後、端末Tの表示画面Mにおいて対応する表示画面座標を算出することにより、当該表示画面座標の位置にポインタを表示させるようにしていた。つまり、人差し指Yの座標とポインタを表示させる座標とを一対一に対応させていたが、これに変えて、ポインタを「差分」で移動させるようにしてもよい。
具体的には、最初に人差し指Yが識別された画像データGにおける対角の座標Xに基づいて人差し指Yの座標を決定し、端末Tの表示画面Mにおいて対応する表示画面座標を算出して当該位置にポインタを表示させる。そして、次の画像データGにおける対角の座標Xに基づいて人差し指Yの座標を決定したとき、ひとつ前の画像データGにおける人差し指Yの座標との「位置の差」を算出する。然る後、端末操作手段70にて、現在のポインタの座標から当該「位置の差」だけずれた位置にポインタの位置を移動させる。
これにより、撮像手段20によって取得される画像データGの解像度と、端末Tの表示画面Mの解像度とを取得しておき、両解像度に基づいて画像データGの四隅の座標と、対応する表示画面Mの四隅の座標とが一致するように設定せず、画像データGの解像度よりも端末Tの表示画面Mの解像度の方が大きい場合において、表示画面Mの端部にポインタを移動させる際、画像データGの端まで人差し指Yを移動させた後で当該人差し指Yを一旦撮像手段20の撮像範囲外に出し、然る後、人差し指Yを再度撮像手段20の撮像範囲の略中央部(画像データGの略中央部)から移動させることにより、表示画面Mの端部までポインタを移動させることができるようになる。
(変形例3)
上述した各実施形態では、本発明を利用して端末Tのポインタを移動させたり、さらに別の操作(例えば、マウスの「クリック」に相当するイベントや「ダブルクリック」に相当するイベント等)を実行させたりする例を示したが、これに限定されることなく、マウスの操作以外で、本発明を端末Tの表示画面M上の点にフォーカスする操作、および、フォーカスした点で何らかのイベントを実行させる入力手段として使用してもよい。
(変形例4)
上述した各実施形態では、学習済みモデル10が矩形領域Rの対角の座標Xを検出するとともに、「確度」の値を出力するようになっていたが、「確度」の値の出力をすることなく、矩形領域Rの対角の座標Xを検出するだけでもよい。
(変形例5)
上述した各実施形態では、端末Tを操作するために端末操作システム100が検出する「操作用基準部」の例としてオペレータの人差し指Yを使用していたが、「操作用基準部」はこれに限定されるものではなく、例えば、人差し指以外の指であったり、手袋を装着した状態の指であったり、ペンの先端部であったり、特定の形状をした棒の先端部であったり、特定形状の図形であったり、どのようなものであってもよい。
今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10…学習済みモデル、11…学習済みモデル生成手段、12…教師データ生成部、13…学習済みモデル生成部、14…学習済みモデル記憶部、15…出力部
20…撮像手段
30…制御手段
40…記憶手段
50…検出手段
60…座標処理手段
70…端末操作手段
100…端末操作システム
200…端末操作プログラム
T…端末、Y…オペレータの人差し指、R…矩形領域、X…対角の座標、G…画像データ、K…教師データ、M…表示画面

Claims (6)

  1. 操作用基準部および前記操作用基準部の周囲を含む画像データを連続的に撮像する撮像手段と、
    教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師画像データを用いて学習させた学習済みモデルを記憶する記憶手段と、
    前記撮像手段から画像データを取得し、前記学習済みモデルを用いて前記画像データにおける操作用基準部を中心とする1つの矩形の領域の対角の座標、および、前記学習済みモデル内の前記操作用基準部の特徴量と入力された前記操作用基準部の特徴量との一致度合いを示す確度の値を検出する検出手段と、
    前記検出手段から送られてきた前記画像データにおける前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理手段と、
    前記座標処理手段で算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作手段とを有しており、
    前記撮像手段によって連続的に撮像された前記画像データ毎に、前記記憶手段、前記検出手段、前記座標処理手段、および前記端末操作手段による作業が実施される端末操作システムであって、
    前記操作用基準部は、人の特定の指を含み、
    前記学習済みモデルは、前記教師画像データ中における前記特定の指を中心とする1つの矩形の領域の対角の座標を出力とする前記教師画像データを用いて学習させた学習済みモデルを含
    端末操作システム。
  2. 前記座標処理手段は、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別する機能を有しており、
    前記端末操作手段は、前記初期面積と比較して前記領域の面積が所定の倍率以上になったとき、前記端末に対して所定のイベントを実施させることを特徴とする
    請求項1に記載の端末操作システム。
  3. 前記フォーカスとは、ポインタを前記表示画面座標の位置に移動させることであり、
    前記イベントとは、マウスのクリックおよびダブルクリックであることを特徴とする
    請求項2に記載の端末操作システム。
  4. 教師画像データを入力とし、前記教師画像データ中における操作用基準部を中心とする1つの矩形の領域の対角の座標を出力とする教師データを用いて学習させた学習済みモデルに対して、撮像手段によって撮像された、操作用基準部および前記操作用基準部の周囲を含む画像データを入力する入力ステップと、
    前記学習済みモデルを用いて前記画像データにおける前記操作用基準部を中心とする1つの矩形の領域の対角の座標、および、前記学習済みモデル内の前記操作用基準部の特徴量と入力された前記操作用基準部の特徴量との一致度合いを示す確度の値を検出する検出ステップと、
    前記対角の座標に基づいて前記操作用基準部の座標を決定し、然る後、端末の表示画面において対応する表示画面座標を算出する座標処理ステップと、
    算出された前記表示画面座標に基づいて、前記表示画面座標にフォーカスをする端末操作ステップとを有しており、
    連続的に撮像された前記画像データ毎に、前記入力ステップ、前記検出ステップ、前記座標処理ステップ、および、前記端末操作ステップが実施される端末操作プログラムであって、
    前記操作用基準部は、人の特定の指を含み、
    前記学習済みモデルは、前記教師画像データ中における前記特定の指を中心とする1つの矩形の領域の対角の座標を出力とする前記教師画像データを用いて学習させた学習済みモデルを含
    端末操作プログラム。
  5. 前記座標処理ステップでは、さらに、所定の時間間隔で取得された複数の前記画像データにおける前記領域の面積が最初に操作用基準部が識別された画像データにおける領域の初期面積と比較して所定の倍率以上になったか否かを判別し、
    前記端末操作ステップでは、さらに、前記初期面積と比較して前記領域の面積が所定の倍率以上になったとき、前記端末に対して所定のイベントを実施させることを特徴とする
    請求項4に記載の端末操作プログラム。
  6. 前記フォーカスとは、ポインタを前記表示画面座標の位置に移動させることであり、
    前記イベントとは、マウスのクリックおよびダブルクリックであることを特徴とする
    請求項5に記載の端末操作プログラム。
JP2020023857A 2020-02-14 2020-02-14 端末操作システム、および、端末操作プログラム Active JP6935887B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020023857A JP6935887B2 (ja) 2020-02-14 2020-02-14 端末操作システム、および、端末操作プログラム
PCT/JP2021/005380 WO2021162119A1 (ja) 2020-02-14 2021-02-13 端末操作に用いられる学習済みモデル生成方法、学習済みモデル、プログラム、端末操作システム、および、端末操作プログラム
JP2021067391A JP2021128784A (ja) 2020-02-14 2021-04-12 端末操作システム、および、端末操作プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020023857A JP6935887B2 (ja) 2020-02-14 2020-02-14 端末操作システム、および、端末操作プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021067391A Division JP2021128784A (ja) 2020-02-14 2021-04-12 端末操作システム、および、端末操作プログラム

Publications (2)

Publication Number Publication Date
JP2021128643A JP2021128643A (ja) 2021-09-02
JP6935887B2 true JP6935887B2 (ja) 2021-09-15

Family

ID=77292301

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020023857A Active JP6935887B2 (ja) 2020-02-14 2020-02-14 端末操作システム、および、端末操作プログラム
JP2021067391A Pending JP2021128784A (ja) 2020-02-14 2021-04-12 端末操作システム、および、端末操作プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021067391A Pending JP2021128784A (ja) 2020-02-14 2021-04-12 端末操作システム、および、端末操作プログラム

Country Status (2)

Country Link
JP (2) JP6935887B2 (ja)
WO (1) WO2021162119A1 (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011007390A1 (ja) * 2009-07-15 2011-01-20 株式会社 東芝 画像処理装置、及びインターフェース装置
JP2013080266A (ja) * 2010-02-08 2013-05-02 Nextedge Technology Inc 入力装置
JP2013210875A (ja) * 2012-03-30 2013-10-10 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP6039248B2 (ja) * 2012-06-04 2016-12-07 キヤノン株式会社 情報処理装置およびその制御方法
JP6019947B2 (ja) * 2012-08-31 2016-11-02 オムロン株式会社 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
JP2018032055A (ja) * 2015-01-13 2018-03-01 三菱電機株式会社 ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体
JP2017059207A (ja) * 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像認識方法
CN107179826B (zh) * 2016-03-11 2021-08-31 松下知识产权经营株式会社 姿势输入系统和姿势输入方法
JP6676256B2 (ja) * 2016-08-10 2020-04-08 株式会社東海理化電機製作所 画像処理装置及び画像処理方法
JP2019096072A (ja) * 2017-11-22 2019-06-20 株式会社東芝 物体検出装置、物体検出方法およびプログラム

Also Published As

Publication number Publication date
WO2021162119A1 (ja) 2021-08-19
JP2021128643A (ja) 2021-09-02
JP2021128784A (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
US10678329B2 (en) Line-of-sight input device, and method of line-of-sight input
JP6159323B2 (ja) 情報処理方法及び情報処理装置
JP4494002B2 (ja) 切替器および切替器の切替方法
JP6631541B2 (ja) タッチ入力のための方法及びシステム
JP2010055510A (ja) 情報処理装置及び情報処理方法
JP6062416B2 (ja) 情報入力装置及び情報表示方法
JP2008192092A (ja) タッチパネル装置、情報処理装置及びプログラム
US20140111457A1 (en) Touch discrimination using fisheye lens
CN117472189B (zh) 具有实物感的打字或触控的实现方法
JP6935887B2 (ja) 端末操作システム、および、端末操作プログラム
CN103154877A (zh) 显示器上的第一图像和第二图像
JP6418585B2 (ja) ウェアラブルデバイス、及びウェアラブルデバイスの動作方法
JP6008904B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
US20160124602A1 (en) Electronic device and mouse simulation method
JP2013077180A (ja) 認識装置およびその制御方法
JP6232694B2 (ja) 情報処理装置、その制御方法及びプログラム
JP6823988B2 (ja) 画面操作方法及び画面操作装置
US20150323999A1 (en) Information input device and information input method
US20220343557A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and information processing system
JP5339234B2 (ja) 操作性評価装置、操作性評価方法、操作性評価プログラム、及び操作性評価システム
JP6998775B2 (ja) 画像測定機およびプログラム
Shimada et al. New design for a dynamic tactile graphic system for blind computer users
JP2020160562A (ja) 制御システム、制御方法、プログラム
CN116594549A (zh) 一种操控三维模型的方法、可读存储介质和计算机设备
JP2015219609A (ja) 情報処理方法、情報処理装置及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200519

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200519

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A603 Late request for extension of time limit during examination

Free format text: JAPANESE INTERMEDIATE CODE: A603

Effective date: 20201127

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210323

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210412

C876 Explanation why request for accelerated appeal examination is justified

Free format text: JAPANESE INTERMEDIATE CODE: C876

Effective date: 20210412

C305 Report on accelerated appeal examination

Free format text: JAPANESE INTERMEDIATE CODE: C305

Effective date: 20210423

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210427

C30 Protocol of an oral hearing

Free format text: JAPANESE INTERMEDIATE CODE: C30

Effective date: 20210607

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20210625

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210629

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210817

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210817

R150 Certificate of patent or registration of utility model

Ref document number: 6935887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150