JP2010272036A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2010272036A JP2010272036A JP2009124850A JP2009124850A JP2010272036A JP 2010272036 A JP2010272036 A JP 2010272036A JP 2009124850 A JP2009124850 A JP 2009124850A JP 2009124850 A JP2009124850 A JP 2009124850A JP 2010272036 A JP2010272036 A JP 2010272036A
- Authority
- JP
- Japan
- Prior art keywords
- display screen
- user
- image processing
- displayed
- pointer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】画像処理装置の操作性を向上させる。
【解決手段】画像処理装置の表示部23には、タッチパネルが重畳されて設けられている。ユーザがタッチパネルに指を接触させると、表示部23には仮想マウス61が表示される。この仮想マウス61には、先端の尖った形状のポインタ73が設けられており、ポインタ73は、ユーザの指の接触位置の重心から、所定の距離だけ離れた位置に表示される。そのため、ポインタ73がユーザの指に隠れてしまうようなこともなく、ユーザはポインタ73により、より簡単かつ正確に画像上の任意の位置を指定することができる。本発明は、画像処理装置に適用することができる。
【選択図】図2
【解決手段】画像処理装置の表示部23には、タッチパネルが重畳されて設けられている。ユーザがタッチパネルに指を接触させると、表示部23には仮想マウス61が表示される。この仮想マウス61には、先端の尖った形状のポインタ73が設けられており、ポインタ73は、ユーザの指の接触位置の重心から、所定の距離だけ離れた位置に表示される。そのため、ポインタ73がユーザの指に隠れてしまうようなこともなく、ユーザはポインタ73により、より簡単かつ正確に画像上の任意の位置を指定することができる。本発明は、画像処理装置に適用することができる。
【選択図】図2
Description
本発明は画像処理装置に関し、特に、タッチパネルを利用して画像上の2点間の距離を測定する場合に用いて好適な画像処理装置に関する。
従来、レンズや顕微鏡などの光学系を通して撮像された画像上の距離の測定は、パーソナルコンピュータのアプリケーションプログラム等により行われている。
例えば、画像上の2点間の距離を測定する方法として、画像上にマークを表示させ、そのマークを移動させることにより、任意の2つの点を指定して、指定した2点間の距離を演算により求める方法が提案されている(例えば、特許文献1参照)。
また、近年、大型のディスプレイを具備したカメラも製品化されており、そのようなカメラには、GUI(Graphical User Interface)を利用して、画像の保存や簡単な寸法計測を行うことができるものもある。
しかしながら、上述したカメラでは、GUIにより画像の保存や寸法計測を指示する場合には、マウスを用いた操作が必要となる。そのため、例えば、カメラが工場などの現場に設置される場合に、マウスでの操作が煩わしかったり、マウスを置くためのスペースが必要であったりするといった理由から、マウスを用いずに簡単に操作できるようにしたいという要望があった。
そこで、ディスプレイにタッチパネルを重畳させて設けることで、タッチパネルによって、ユーザがマウスを用いずに、カメラへの操作を行うことができるようにすることが考えられる。ところが、一般に、タッチパネルの操作は、ユーザが指でタッチパネルを押すことにより行われるため、寸法計測時などに、画像上の細かいエリアを指定することができず、正確な寸法を得ることができなくなってしまう。
本発明は、このような状況に鑑みてなされたものであり、操作性を向上させることができるようにするものである。
本発明の画像処理装置は、表示画面に画像を表示する表示手段と、前記表示画面に重畳して設けられ、前記表示画面へのものの接近または接触を検出し、その位置情報を出力するタッチパネルと、前記表示画面における、前記位置情報に対応する位置から所定の距離だけ離れた位置に、前記表示画面上の位置を指定するための指定手段を表示させる表示制御手段とを備えることを特徴とする。
本発明によれば、操作性を向上させることができる。
以下、図面を参照して、本発明を適用した実施の形態について説明する。
図1は、本発明を適用した画像処理装置の一実施の形態の構成例を示す図である。
画像処理装置11は、図示せぬ顕微鏡から供給された画像を表示したり、ユーザの操作に応じて、表示している画像上の2点間の距離を測定し、その測定結果を表示したりする。画像処理装置11は、取得部21、記録部22、表示部23、タッチパネル24、および制御部25から構成される。
取得部21は、例えば、図示せぬ顕微鏡に設けられたカメラ等に接続されており、接続されたカメラから、そのカメラにより撮像された観察画像と、観察画像を得るための結像光学系の倍率を示す倍率情報とを取得して制御部25に供給する。
ここで、結像光学系は、顕微鏡の対物レンズ等から構成され、観察対象の試料からの光を集光してカメラの撮像素子に導く光学系である。また、この結像光学系からの光を撮像素子が受光することにより得られた画像が、観察画像とされる。取得部21により取得された観察画像および倍率情報は、必要に応じて制御部25から記録部22に供給され、記録される。
記録部22は、観察画像、倍率情報などの各種のデータを記録し、必要に応じて記録しているデータを制御部25に供給する。表示部23は、例えば液晶ディスプレイなどからなり、制御部25の制御に従って各種の画像を表示する。
タッチパネル24は、表示部23の表示画面に重畳して設けられ、感圧式または静電式のタッチパネルからなる。タッチパネル24は、ユーザの体の一部、例えば、指先がタッチパネル24に近接したり、接触したりすると、近接または接触した位置に応じた信号を制御部25に供給する。
制御部25は、画像処理装置11の全体の動作を制御する。制御部25は、表示制御部31、位置検出部32、および距離計測部33から構成される。
表示制御部31は、取得部21から供給された観察画像や、記録部22から取得した各種の画像などを、表示部23の表示画面に表示させる。位置検出部32は、タッチパネル24からの信号に基づいて、表示部23の表示画面上におけるユーザにより指定された位置等を検出する。距離計測部33は、必要に応じて倍率情報を用いて、位置検出部32により検出された位置に基づき、表示画面に表示された画像上の2点間の距離を算出する。
ところで、表示部23の表示画面には、ユーザの操作に応じて、観察画像とともに、例えば図2に示す仮想的なマウスの画像(以下、仮想マウスと称する)が表示される。
図2の例では、表示部23には、観察画像と重畳されて、仮想マウス61、カメラ制御ボタン62、距離計測ボタン63、および初期設定ボタン64が表示されている。
仮想マウス61は、タッチパネル24により、ユーザの指など、所定のもののタッチパネル24(表示部23の表示画面)への接近または接触が検出されると表示される。例えば、タッチパネル24が、静電式である場合には、ユーザのタッチパネル24への接近または接触が検出されると仮想マウス61が表示される。また、タッチパネル24が感圧式である場合には、ユーザのタッチパネル24への接触が検出されると、仮想マウス61が表示される。
図2の例では、ユーザの人差し指71および中指72のタッチパネル24への接近が検出されて、人差し指71および中指72の近傍に仮想マウス61が表示されている。なお、以下においては、タッチパネル24が静電式であるものとして説明を続ける。
仮想マウス61には、表示部23に表示された画像上の任意の点を指定するための指定手段としてのポインタ73と、所定の処理を指示するときに操作される左ボタン74および右ボタン75とが表示部23に表示することで示されている。
ポインタ73は、仮想マウス61において、図中、上方向に突出するように設けられており、画像上の任意の点(位置)を正確に指定できるように、その先端が鋭く尖った形状とされている。左ボタン74および右ボタン75は、ポインタ73の近傍、具体的には仮想マウス61中央のやや左側および右側に設けられており、通常のマウスに設けられた左ボタンおよび右ボタンと同様に、クリック動作やダブルクリック動作を受け付ける。
ここで、クリック動作とは、予め定められた所定の時間内に、ユーザが左ボタン74または右ボタン75を、一度だけ押す様に、各ボタンが表示された位置に指で接触することをいい、ダブルクリック動作とは、予め定められた所定の時間内に、ユーザが左ボタン74または右ボタン75を、連続して二度各ボタンが表示された位置に触れることをいう。
制御部25は、左ボタン74または右ボタン75に対して、クリックまたはダブルクリック等の操作がなされると、その操作に応じた処理を行う。画像処理装置11では、仮想マウス61に、左ボタン74および右ボタン75のアイコンを表示させ、タッチパネル24で指の近接または接触を検知することにより、ユーザに、仮想マウス61を、通常のマウスと同じ操作感覚で操作させることができ、画像処理装置11の操作性を向上させることができる。
すなわち、通常のマウスでは、左右に押しボタンを設けたり、いわゆるトラックボールを設けたりすることで、操作性の向上が図られているが、従来、タッチパネルでは、指での操作が前提とされているため、操作系が単純となってしまい操作性がよくなかった。
これに対して、画像処理装置11では、左ボタン74および右ボタン75を合わせて表示した仮想マウス61が表示されるので、ユーザはあたかも本物のマウスを操作するような操作感覚で、より多くの処理を簡単に指示することができる。
表示部23に表示されたカメラ制御ボタン62は、画像処理装置11に接続されている図示せぬカメラの動作を制御するときに操作される。また、距離計測ボタン63は、表示部23に表示された画像上の2点間の距離を測定させるときに操作され、初期設定ボタン64は、画像処理装置11における初期設定を変更するときに操作される。
次に、画像処理装置11の動作について説明する。
図示していない操作部材が操作されて、ユーザにより観察画像の表示が指示されると、例えば制御部25は、取得部21を介してカメラから観察画像および倍率情報を取得する。そして、制御部25の表示制御部31は、取得された観察画像を表示部23に表示させるとともに、カメラ制御ボタン62乃至初期設定ボタン64を表示部23に表示させる。
その後、位置検出部32は、タッチパネル24から出力される近接または接触した位置に基づく信号を検知する(以下、単に接触ともいうこととする)。
例えば、ユーザが人差し指71および中指72でタッチパネル24に触れると、位置検出部32は、タッチパネル24からの信号に基づいて、表示部23の表示画面上の人差し指71および中指72の接触位置を算出する。接触位置は、例えば図2中、表示画面の左上の頂点を基準位置として、図中、右方向をx方向とし、下方向をy方向とするxy座標系における座標により表される。
ところで、タッチパネル24は、指の腹の面積よりも細かいピッチで位置情報を取得することができるようになっている。したがって、タッチパネル24から取得される位置情報は、複数の位置を示す情報となっている。そのため、位置検出部32は、人差し指71の接触位置および中指72による接触位置を検出すると、その検出結果から、それらの接触位置の重心位置を求める。なお、より詳細には、タッチパネル24上における、人差し指71が接触した領域と、中指72が接触した領域とが検出され、それらの領域の重心の位置が、指が近接または接触した位置として位置検出部32により求められる。
このようにして、指の接近または接触位置が求められると、表示制御部31は、位置検出部32により求められた位置から、予め定められた方向に、予め定められた距離だけ離れた位置に、ポインタ73の先端が位置するように、表示部23に仮想マウス61を表示させる。なお、本実施の形態では位置検出部32で求められた重心位置から、指の腹の寸法よりも大きな距離だけ離れた位置にポインタ73を表示させている。
これにより、例えば、図2に示すように、ユーザの人差し指71および中指72の接触位置から、図中、上方向に所定の距離だけ離れた位置にポインタ73の先端が位置するように、仮想マウス61が表示される。
このように、ユーザの指の接触を検出し、先端の尖った形状のポインタ73が設けられた仮想マウス61を表示することで、ユーザは、タッチパネル24を直接操作するという簡単な操作で、より正確に画像上の任意の位置を指定することができる。しかも、ユーザの指の接触位置の重心から離れた位置にポインタ73を表示させることで、ポインタ73がユーザの指で隠れて、画像上の所望の位置を指定しにくくなってしまうこともない。
なお、図2においては、ユーザが人差し指71および中指72の2本の指で、タッチパネル24に触れる例について説明したが、ユーザが1本の指でタッチパネル24に接触した場合には、その指の接触位置が重心位置とされて、仮想マウス61が表示される。
このようにして表示された仮想マウス61は、ユーザがタッチパネル24に触れている指の位置を移動させると、その指とともに移動する。
例えば、位置検出部32により、タッチパネル24におけるユーザの指の接触位置の重心の変化が検出された後、重心位置として、予め定められた所定の時間だけ継続して同じ位置が検出された場合、表示制御部31は、その重心位置に対して定まる位置に、仮想マウス61を移動させる。すなわち、ユーザがタッチパネル24上において、自分の指を所望の位置に移動させて、指を所定時間(以下、設定滞留時間と称する)だけ同じ位置に滞留させると、その位置に対して定まる位置に、仮想マウス61が移動することになる。
したがって、位置検出部32により指の接触位置の重心の変化が検出されても、その変化後、重心位置が同じ位置に設定滞留時間以上、滞留していない場合には、仮想マウス61は移動せずに、もとの位置に表示され続けることになる。
また、表示制御部31は、仮想マウス61が表示されている状態において、予め定められた所定の時間(以下、設定接触時間と称する)以上、継続してユーザの指のタッチパネル24への接触が検出されなかった場合、仮想マウス61の表示を消去する。
このように、ユーザが表示部23の表示画面に指を近づけると、表示画面に仮想マウス61が表示され、ユーザが表示画面に触れている指を動かすと、指とともに仮想マウス61も移動する。そして、ユーザが表示部23の表示画面から指を離すと、仮想マウス61は消去され、表示されなくなる。
ユーザは、表示画面に仮想マウス61を表示させ、仮想マウス61を移動させたり、仮想マウス61の左ボタン74または右ボタン75を操作したりして、所望の処理を画像処理装置11に実行させる。
例えば、ユーザは、ポインタ73の先端がカメラ制御ボタン62に位置するように、仮想マウス61を移動させ、その状態でタッチパネル24における左ボタン74が表示されている位置をクリックすることで、カメラの動作の制御を指示することができる。
具体的には、位置検出部32がタッチパネル24からの信号に基づいて、ポインタ73がカメラ制御ボタン62上に位置する状態での左ボタン74のクリック、つまり左ボタン74の位置への接触を検出すると、表示制御部31は表示部23に、カメラの動作を制御するためのメニュー画面を表示させる。
そして、さらにユーザが仮想マウス61に対する操作を行い、メニュー画面上において、観察画像の撮像など、カメラによる動作を指示すると、その操作に応じた信号がタッチパネル24から制御部25に供給される。すると、制御部25は、ユーザの指示に応じて、接続されているカメラを制御し、例えば観察画像を撮像させる。
また、ユーザは、ポインタ73の先端が距離計測ボタン63に位置するように、仮想マウス61を移動させ、その状態でタッチパネル24における左ボタン74が表示されている位置をクリックすることで、表示画面に表示されている観察画像上の2点間の距離を測定させることができる。
具体的には、ユーザは、仮想マウス61により距離計測ボタン63を操作した後、さらにポインタ73の先端が、観察画像上の所望する位置にくるように仮想マウス61を移動させる。そして、ユーザは、ポインタ73の先端が観察画像上の所望の位置を指示している状態で、左ボタン74をクリックする。
すると、位置検出部32はタッチパネル24からの信号に基づいて、左ボタン74のクリックを検出し、表示制御部31はクリックの検出に応じて、表示画面上のポインタ73の先端の位置に、ユーザにより指定された位置であることを示す開始点マークを表示させる。これにより、例えば、図2に示す開始点マークM11が表示される。この開始点マークM11は、距離計測の開始点を表している。
開始点マークが表示されると、ユーザは、ポインタ73の先端が、観察画像上の所望する位置にくるように仮想マウス61をさらに移動させ、ポインタ73の先端が観察画像上の所望の位置を指示している状態で、左ボタン74をクリックする。
位置検出部32はタッチパネル24からの信号に基づいて、左ボタン74のクリックを検出し、表示制御部31はクリックの検出に応じて、表示画面上のポインタ73の先端の位置に、ユーザにより指定された位置であることを示す終了点マークを表示させる。これにより、例えば、図2に示す終了点マークM12が表示される。この終了点マークM12は、距離計測の終了点を表している。
その後、さらにユーザが仮想マウス61を操作して距離の計測を指示し、タッチパネル24からの信号に基づいて、位置検出部32によりユーザの指示が検出されると、距離計測部33は、ユーザにより指定された2点間の距離を算出する。
すなわち、距離計測部33は、観察画像上における、開始点マークの位置から終了点マークまでの距離を算出する。より詳細には、この距離は、観察画像の画像データにおける、開始点マークから終了点マークまでの画素数から定まる距離とされる。そして、さらに、距離計測部33は、求めた距離を、取得部21により取得された倍率情報により示される倍率で除算することで、ユーザにより指定された、観察画像上の被写体の2点間の実際の距離を算出する。
画像処理装置11では、ポインタ73により、ユーザの所望の位置を正確に指定することができるので、より正確に観察画像上の2点間の距離を求めることができる。距離計測部33により距離が測定されると、表示制御部31は、必要に応じて、距離計測部33により測定された距離を、表示部23に表示させる。
さらに、ユーザは、ポインタ73の先端が初期設定ボタン64に位置するように、仮想マウス61を移動させ、その状態でタッチパネル24における左ボタン74が表示されている位置をクリックすることで、初期設定の変更を指示することができる。
具体的には、位置検出部32がタッチパネル24からの信号に基づいて、ポインタ73が初期設定ボタン64に上に位置する状態での左ボタン74のクリック、つまり左ボタン74の位置への接触を検出すると、表示制御部31は表示部23に、初期設定のためのメニュー画面を表示させる。
そして、さらにユーザが仮想マウス61に対する操作を行い、メニュー画面上において、上述した設定滞留時間や設定接触時間などの各種初期設定の変更を指示すると、その操作に応じた信号がタッチパネル24から制御部25に供給される。すると、制御部25は、ユーザの指示に応じて、設定滞留時間や設定接触時間等の初期設定を変更し、変更後の初期設定を示す情報を記録部22に供給して記録させる。
以上のように、画像処理装置11では、タッチパネル24への接触位置の重心から所定の方向に、所定の距離だけ離れた位置にポインタ73が位置するように、仮想マウス61を表示させるとこで、画像処理装置11の操作性を向上させることができる。
すなわち、画像処理装置11によれば、表示部23に、通常のマウスと同じ操作感覚で操作可能な仮想マウス61が表示されるので、マウスを置くためのスペースが必要なくなる。また、タッチパネル24への直接の操作により、より簡単に、通常のマウスと同程度に多様な処理を指示することができる。さらに、指の接触位置の重心から所定の距離だけ離れた位置にポインタ73を表示させることで、指による直接の操作にも係らず、画像上の細かい領域をより簡単かつ正確に指定することができる。
なお、以上においては、カメラ制御ボタン62乃至初期設定ボタン64の操作は、それらのボタン上にポインタ73の先端を位置させた状態で、仮想マウス61への操作を行うことによりなされると説明したが、それらのボタンが直接、操作されるようにしてもよい。そのような場合、ユーザは、指で直接、カメラ制御ボタン62乃至初期設定ボタン64を押して操作する。
また、以上においては、ポインタ73は、先端が尖った形状とされると説明したが、ポインタ73の形状は、十字形状や矢印形状など、画像上の所望の位置を正確に指定できる形状であれば、どのようなものであってもよい。
さらに、ユーザの指の接触位置の重心から所定の方向に、所定の距離だけ離れた位置にポインタ73を表示させると説明したが、重心の位置が表示画面(タッチパネル24)上のどの領域にあるかによって、ポインタ73の向く方向を変化させるようにしてもよい。
そのような場合、例えば、図3に示すように、重心位置が表示部23の表示画面上の中央の領域91内にあるときには、表示制御部31は、ポインタ73が図中、上側を向くように仮想マウス61を表示させる。
また、ユーザの指の接触位置の重心位置が、表示部23の表示画面上の領域91を囲む領域92内、つまり表示画面の端(外側)近傍の領域92内である場合には、表示制御部31は、ポインタ73が表示画面の外側の方向を向くように仮想マウス61を表示させる。すなわち、この場合、ポインタ73が重心位置から最も近い表示画面の端の方向を向くように仮想マウス61が表示される。
図3の例では、図中、左上の仮想マウス61は、ポインタ73が表示画面の図中、左側の端を向くように表示されており、図中、左下の仮想マウス61は、ポインタ73が表示画面の図中、下側の端を向くように表示されている。
ユーザの指の接触位置の重心が、表示画面中央の領域91内に位置する場合には、ユーザは、仮想マウス61を任意の位置に移動させて、ポインタ73により画像上の任意の位置を指定することができる。
これに対して、仮想マウス61が表示画面の端付近に表示される場合、ポインタ73が図中、上方向を向いていると、ユーザはポインタ73により、画像上の任意の位置を指定することができないことがある。
例えば、仮想マウス61が表示画面の図中、下側の端より下に移動できない場合、仮想マウス61が表示画面の下端に表示された状態におけるポインタ73の位置から、図中、下側の領域は、ポインタ73により指定することができなくなってしまう。
また、例えば、仮想マウス61が表示画面の図中、下側の端より下に移動できる場合には、仮想マウス61が表示画面からはみ出して、その一部が表示されなくなってしまうため、ユーザが仮想マウス61の位置を把握しにくくなってしまう。
そこで、例えば、仮想マウス61が表示画面の図中、下側の端付近、つまり領域92内に表示される場合には、ポインタ73が表示画面の図中、下側の端を向くように仮想マウス61を表示すれば、ポインタ73によって、より簡単かつ正確に下側の端付近の位置を指定できるようになる。
このように、ユーザの指の接触位置の重心から、その重心の位置により定まる方向に、所定の距離だけ離れた位置にポインタ73(の先端)を表示させることで、画像上の所望の位置をより簡単かつ正確に指定することができるようになる。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 画像処理装置, 23 表示部, 24 タッチパネル, 25 制御部, 31 表示制御部, 32 位置検出部, 33 距離計測部, 61 仮想マウス, 73 ポインタ, 74 左ボタン, 75 右ボタン
Claims (5)
- 表示画面に画像を表示する表示手段と、
前記表示画面に重畳して設けられ、前記表示画面へのものの接近または接触を検出し、その位置情報を出力するタッチパネルと、
前記表示画面における、前記位置情報に対応する位置から所定の距離だけ離れた位置に、前記表示画面上の位置を指定するための指定手段を表示させる表示制御手段と
を備えることを特徴とする画像処理装置。 - 前記表示制御手段は、前記表示画面における前記指定手段近傍に、前記画像処理装置の動作を指示するときに操作されるボタンをさらに表示させる
ことを特徴とする請求項1に記載の画像処理装置。 - 前記ボタンは、前記表示画面に表示された画像上における、前記指定手段により指示される位置を指定するときに操作され、
前記ボタンに対する操作により指定された、前記表示画面上の所定の位置と他の位置との位置情報に基づき距離を算出する距離算出手段をさらに備える
ことを特徴とする請求項2に記載の画像処理装置。 - 前記表示制御手段は、前記表示画面における前記位置情報に対応する位置に対して定められた所定の方向に、前記位置情報に対応する位置から前記所定の距離だけ離れた位置に、前記指定手段を表示させる
ことを特徴とする請求項1乃至請求項3の何れかに記載の画像処理装置。 - 前記表示制御手段は、検出された前記位置情報が、前記表示画面の外側近傍の所定の領域内である場合、前記指定手段が前記表示画面の外側方向を向くように、前記指定手段を表示させる
ことを特徴とする請求項4に記載の画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009124850A JP2010272036A (ja) | 2009-05-25 | 2009-05-25 | 画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009124850A JP2010272036A (ja) | 2009-05-25 | 2009-05-25 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010272036A true JP2010272036A (ja) | 2010-12-02 |
Family
ID=43419988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009124850A Withdrawn JP2010272036A (ja) | 2009-05-25 | 2009-05-25 | 画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010272036A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012169106A1 (ja) * | 2011-06-10 | 2012-12-13 | Necカシオモバイルコミュニケーションズ株式会社 | 入力装置およびタッチパネルの制御方法 |
WO2015012446A1 (ko) * | 2013-07-25 | 2015-01-29 | Kim Sung Moo | 정보 표시 방법 및 디바이스, 마이크로스코프를 구비하는 휴대용 디바이스 |
KR101541052B1 (ko) * | 2013-07-25 | 2015-07-31 | 김성무 | 정보 표시 방법 및 디바이스, 마이크로스코프를 구비하는 휴대용 디바이스 |
WO2017018384A1 (ja) * | 2015-07-28 | 2017-02-02 | 日本電信電話株式会社 | タッチパネル型情報端末装置とその情報入力処理方法およびプログラム |
US10282081B2 (en) | 2011-08-10 | 2019-05-07 | Samsung Electronics Co., Ltd. | Input and output method in touch screen terminal and apparatus therefor |
-
2009
- 2009-05-25 JP JP2009124850A patent/JP2010272036A/ja not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012169106A1 (ja) * | 2011-06-10 | 2012-12-13 | Necカシオモバイルコミュニケーションズ株式会社 | 入力装置およびタッチパネルの制御方法 |
US10282081B2 (en) | 2011-08-10 | 2019-05-07 | Samsung Electronics Co., Ltd. | Input and output method in touch screen terminal and apparatus therefor |
US10866724B2 (en) | 2011-08-10 | 2020-12-15 | Samsung Electronics Co., Ltd. | Input and output method in touch screen terminal and apparatus therefor |
WO2015012446A1 (ko) * | 2013-07-25 | 2015-01-29 | Kim Sung Moo | 정보 표시 방법 및 디바이스, 마이크로스코프를 구비하는 휴대용 디바이스 |
KR101541052B1 (ko) * | 2013-07-25 | 2015-07-31 | 김성무 | 정보 표시 방법 및 디바이스, 마이크로스코프를 구비하는 휴대용 디바이스 |
WO2017018384A1 (ja) * | 2015-07-28 | 2017-02-02 | 日本電信電話株式会社 | タッチパネル型情報端末装置とその情報入力処理方法およびプログラム |
JPWO2017018384A1 (ja) * | 2015-07-28 | 2018-01-11 | 日本電信電話株式会社 | タッチパネル型情報端末装置とその情報入力処理方法およびプログラム |
US10691287B2 (en) | 2015-07-28 | 2020-06-23 | Nippon Telegraph And Telephone Corporation | Touch panel type information terminal device, information input processing method and program thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6348211B2 (ja) | コンピュータ装置の遠隔制御 | |
US10511778B2 (en) | Method and apparatus for push interaction | |
US8743089B2 (en) | Information processing apparatus and control method thereof | |
JP5921835B2 (ja) | 入力装置 | |
EP2287708B1 (en) | Image recognizing apparatus, operation determination method, and program | |
JP5412227B2 (ja) | 映像表示装置、および、その表示制御方法 | |
KR101234111B1 (ko) | 비접촉 입력 인터페이싱 장치 및 이를 이용한 비접촉 입력 인터페이싱 방법 | |
US9544556B2 (en) | Projection control apparatus and projection control method | |
US20120019460A1 (en) | Input method and input apparatus | |
WO2012171116A1 (en) | Visual feedback by identifying anatomical features of a hand | |
JP2016173703A (ja) | タッチディスプレイを用いた入力操作を支援する方法 | |
US20040046747A1 (en) | Providing input signals | |
JP2010272036A (ja) | 画像処理装置 | |
US20130234937A1 (en) | Three-dimensional position specification method | |
JP2010148811A (ja) | 超音波診断装置 | |
JP2006235859A (ja) | 座標入力装置 | |
JP6364790B2 (ja) | ポインティングデバイス | |
JP2003280813A (ja) | ポインティングデバイス、ポインタ制御装置、ポインタ制御方法及びその方法を記録した記録媒体 | |
JP2011141584A (ja) | 入力制御機器 | |
KR101394604B1 (ko) | 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치 | |
JP2008242881A (ja) | 入力装置及び入力プログラム | |
WO2012114791A1 (ja) | ジェスチャー操作システム | |
KR20150135823A (ko) | 헤드 마우스 | |
WO2019032014A1 (en) | TACTILE INTERACTION SYSTEM IN VIRTUAL REALITY | |
JP6662441B2 (ja) | 画像測定用プログラム、画像測定機、及び画像測定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120807 |