JP2005190158A - 画面上オブジェクト選択方法及び画面上オブジェクト選択装置 - Google Patents
画面上オブジェクト選択方法及び画面上オブジェクト選択装置 Download PDFInfo
- Publication number
- JP2005190158A JP2005190158A JP2003430518A JP2003430518A JP2005190158A JP 2005190158 A JP2005190158 A JP 2005190158A JP 2003430518 A JP2003430518 A JP 2003430518A JP 2003430518 A JP2003430518 A JP 2003430518A JP 2005190158 A JP2005190158 A JP 2005190158A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- terminal
- displayed
- image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
【課題】 本発明は不慣れな人でも自然にコンピュータの画面に対する選択のような入力操作を理解できしかも操作部を直接画面に当てなくても操作可能なコンピュータを実現する可能な画面上オブジェクト選択方法及び画面上オブジェクト選択装置を提供することを目的とする。
【解決手段】 親端末機と子端末機とで構成される装置を用い、子端末機に対するユーザの入力操作に従って親端末機の画面上に表示された複数のオブジェクトの少なくとも1つを選択するための画面上オブジェクト選択方法であって親端末機の表示画像の少なくとも一部分を子端末機で撮影して画像情報を取得し親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を子端末機から出力される前記画像情報と比較し比較結果に応じてオブジェクトを選択する。
【選択図】 図1
【解決手段】 親端末機と子端末機とで構成される装置を用い、子端末機に対するユーザの入力操作に従って親端末機の画面上に表示された複数のオブジェクトの少なくとも1つを選択するための画面上オブジェクト選択方法であって親端末機の表示画像の少なくとも一部分を子端末機で撮影して画像情報を取得し親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を子端末機から出力される前記画像情報と比較し比較結果に応じてオブジェクトを選択する。
【選択図】 図1
Description
本発明は、コンピュータの画面上に表示された様々な情報を選択するために用いられる画面上オブジェクト選択方法及び画面上オブジェクト選択装置に関する。
現在のコンピュータの画面上には、様々な情報がオブジェクトとして表示される。例えば、アプリケーションプログラム毎に情報を表示したり情報を入力するための領域が形成されたフレームが表示される。また、アプリケーションプログラムの起動を操作するために用いられる様々な形状のアイコンと呼ばれるオブジェクトやメニューの情報も表示される。
ユーザがコンピュータを操作する場合には、画面上に表示された様々なオブジェクトの1つもしくは複数を選択し、選択されたオブジェクトに対して例えばプログラムの起動のような操作を行う。また、例えば複数のアプリケーションプログラムを既に起動している場合には、複数のアプリケーションプログラムの中から操作対象のアプリケーションプログラムを選択するためにオブジェクトである1つのアプリケーションプログラムを選択する必要がある。
このようなオブジェクトの選択操作を行う場合、一般的には、マウスのようなポインティングデバイスを用いて画面上に表示されたカーソルを移動し、カーソルを何れかのオブジェクトの上に位置決めすることにより、該当するオブジェクトを選択するように制御している。
しかしながら、このような入力操作を行う場合には、ユーザが画面上のカーソルの位置及びオブジェクトの位置を確認しながら画面とは違う位置に存在するマウスを操作することになり、人間が通常行う操作のように自分の手と実際の操作対象とが同じ位置にある場合とは全く異なるので違和感が生じるのは避けられない。
しかしながら、このような入力操作を行う場合には、ユーザが画面上のカーソルの位置及びオブジェクトの位置を確認しながら画面とは違う位置に存在するマウスを操作することになり、人間が通常行う操作のように自分の手と実際の操作対象とが同じ位置にある場合とは全く異なるので違和感が生じるのは避けられない。
すなわち、オブジェクトを操作するユーザの手の動きと画面上の操作対象のオブジェクトの位置とが直接的に対応しているのが望ましく、特別なカーソルを画面上に表示しなくてもユーザが操作位置を把握できた方が自然な入力ができる。
このような要望に適合するポインティングデバイスとしては、ライトペンが知られている。ライトペンを用いる場合には、ライトペンの先端の位置と画面上の操作対象の位置とが1対1で対応するので、カーソルを画面上に表示する必要はなく自然な入力が可能である。
このような要望に適合するポインティングデバイスとしては、ライトペンが知られている。ライトペンを用いる場合には、ライトペンの先端の位置と画面上の操作対象の位置とが1対1で対応するので、カーソルを画面上に表示する必要はなく自然な入力が可能である。
ライトペンの技術では、ライトペンに光電素子を実装してあり、画面上の各点の輝度が表示走査に伴って変化することを利用して、画面走査のタイミングとライトペンが輝度の変化を検出したタイミングとの関係によりライトペンが指示している画面上の位置を把握している。従って、ライトペンを用いるためにはブラウン管のように画面上の各点の輝度が表示走査に伴って変化する必要がある。
しかしながら、現在主流になっている表示装置は液晶ディスプレイである。液晶ディスプレイの場合には画面全体を常に一様の輝度で照明しているため、画面上の各点の輝度は変化しない。従って、ライトペンの技術を液晶ディスプレイに適用することは原理的にできない。
また、ライトペンを使用する場合であっても、ライトペンをディスプレイの画面に直接当てない限り入力操作ができないという制約がある。このため、ユーザの操作時の姿勢は特定の姿勢に制限され、労働衛生上好ましくない結果となる。
また、ライトペンを使用する場合であっても、ライトペンをディスプレイの画面に直接当てない限り入力操作ができないという制約がある。このため、ユーザの操作時の姿勢は特定の姿勢に制限され、労働衛生上好ましくない結果となる。
なお、本発明のような画面上オブジェクト選択技術とは直接の関連はないが、対象物の外形、あるいは対象物に記された目印となる記号を撮像デバイスによって取り込み、その画像を認識して位置決めに利用するシステムは、半導体検査装置の自動ステージや各種精密組み立て装置において広く用いられている。
また、例えば組み立て装置の分野については、特許文献1のように、液晶ディスプレイの製造工程において、加工対象の液晶板を動作させ、目印を表示し、これを用いて位置決め精度を改善するための技術が既に存在している。
特開平6−75199号公報
また、例えば組み立て装置の分野については、特許文献1のように、液晶ディスプレイの製造工程において、加工対象の液晶板を動作させ、目印を表示し、これを用いて位置決め精度を改善するための技術が既に存在している。
典型的なコンピュータ(携帯型の端末装置や様々な専用情報機器も含む)の入力手段であるキーボードやマウスを操作する場合には、画面上に表示されたカーソルと実際の操作部との位置や動きが異なるので、例えば老人や幼児のようにコンピュータに不慣れな人が直感的に理解できるものではなく、コンピュータの操作が難しいとの先入観を与えることにもつながるので、誰でも簡単に操作できるわけではない。
一方、従来のライトペンを使用する場合には比較的に自然に近い操作が可能であり、不慣れな人であっても大きな抵抗感を与えないので、コンピュータの入力操作を簡単にすることが可能である。しかし、現在主流の液晶ディスプレイなどを使用している場合にはライトペンを利用できないのが実情である。
また、ライトペンを使用する場合であっても、ライトペンをディスプレイの画面に直接当てない限り入力操作ができないという制約がある。このため、ユーザの操作時の姿勢は特定の姿勢に制限され労働衛生上好ましくない。
また、ライトペンを使用する場合であっても、ライトペンをディスプレイの画面に直接当てない限り入力操作ができないという制約がある。このため、ユーザの操作時の姿勢は特定の姿勢に制限され労働衛生上好ましくない。
本発明は、老人や幼児のように不慣れな人であっても、直感的にあるいは自然にコンピュータの画面に対する選択のような入力操作を理解でき、しかも、ライトペンのように操作部を直接画面に当てなくても操作が可能なコンピュータを実現することが可能な画面上オブジェクト選択方法及び画面上オブジェクト選択装置を提供することを目的とする。
1番目の発明(請求項1)は、コンピュータ及び複数の画像要素をそれぞれオブジェクトとして同じ画面上に表示する画像表示機能を備えた親端末機と、前記親端末機に対する相対的な移動もしくは向きの変更が可能な子端末機とで構成される装置を用い、前記子端末機に対するユーザの入力操作に従って前記親端末機の画面上に表示された複数のオブジェクトの少なくとも1つを選択するための画面上オブジェクト選択方法であって、前記親端末機の表示画像の少なくとも一部分を前記子端末機で撮影して画像情報を取得し、前記親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記子端末機から出力される前記画像情報と比較し、その比較結果に応じて少なくとも1つのオブジェクトを選択することを特徴とする。
すなわち、1番目の発明においては親端末機の表示画像の少なくとも一部分を子端末機で撮影して画像情報を取得し、前記親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記子端末機から出力される前記画像情報と比較しその結果に基づいてオブジェクトを選択する。
子端末機は、例えば持ち上げて動かせる程度に小型であるか、あるいは撮像部分が可動構造であればよく、ユーザの手動操作に従って子端末機が親端末機に接近した場合に、親端末機の表示画像(オブジェクトを含む画像)の少なくとも一部分の情報をユーザの意志を反映して読み取ることができればよい。オブジェクトとは、例えばアプリケーションプログラムの窓や表示フレーム,表示フレーム上の各種ボタン,表示フレーム上のメニュー,や各種アイコンなどを意味する。
子端末機は、例えば持ち上げて動かせる程度に小型であるか、あるいは撮像部分が可動構造であればよく、ユーザの手動操作に従って子端末機が親端末機に接近した場合に、親端末機の表示画像(オブジェクトを含む画像)の少なくとも一部分の情報をユーザの意志を反映して読み取ることができればよい。オブジェクトとは、例えばアプリケーションプログラムの窓や表示フレーム,表示フレーム上の各種ボタン,表示フレーム上のメニュー,や各種アイコンなどを意味する。
実際には、画面上に表示される様々なオブジェクトはそれぞれ異なる特徴を備えている。例えば、表示フレームの縦横比,アイコンの形状パターン,色合いなどがそれぞれ異なっている。オブジェクトを表示している親端末機においては、このような特徴をオブジェクト毎に事前に把握しているので、子端末機が撮影した画像情報の特徴と比較することにより一致/不一致を識別することができる。
つまり、ユーザが子端末機を操作して例えば親端末機の画面上の希望オブジェクトに近づけることにより、希望オブジェクトの画像を子端末機が読み取り、この画像の特徴と親端末機の画面上に表示されている複数のオブジェクトの各々の特徴とが比較されるので、親端末機は1つ又は複数のオブジェクトを前記希望オブジェクトとして認識し、ユーザの入力操作を受け付けることができる。
このような操作においては、ライトペンの場合と同様に、操作部である子端末機の動きと操作対象である画面上のオブジェクトの位置とが1対1で対応するので、老人や幼児のように不慣れな人間であっても各ユーザは入力操作を直感的に理解することができ、自然に操作を覚えることができる。しかも、画面上の輝度の変化を伴う走査を行わない液晶ディスプレイを用いる場合でも適用できる。また、子端末機を親端末機の画面に接触させなくても、ある程度近づけることができれば画像を読み取ることができるので、ユーザの操作時の姿勢に対する制約が小さく、労働衛生上の問題が生じにくい。
2番目の発明(請求項2)は、1番目の発明において、1つの前記子端末機が複数の独立した前記親端末機と接続されている場合に、前記複数の親端末機がそれぞれ前記子端末機の接近の有無を識別し、前記子端末機が接近した場合に該当する親端末機が、前記親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記子端末機から出力される前記画像情報と比較し、その比較結果に応じて少なくとも1つのオブジェクトを選択することを特徴とする。
例えば、同一のユーザが複数のコンピュータ、あるいは複数の独立したディスプレイが接続された1つのコンピュータを操作しようとする場合には、複数の操作部を用いるよりも、単一の操作部を用いて両方の装置の画面に表示された各々のオブジェクトを選択的に操作できる方が好ましい。
2番目の発明においては、前記子端末機の接近を検出した親端末機の画面に表示されたオブジェクトを選択するので、共通の1台の子端末機を用いて複数の親端末機(1つのコンピュータに複数のディスプレイが接続されたものも含む)を選択的に操作することができる。
2番目の発明においては、前記子端末機の接近を検出した親端末機の画面に表示されたオブジェクトを選択するので、共通の1台の子端末機を用いて複数の親端末機(1つのコンピュータに複数のディスプレイが接続されたものも含む)を選択的に操作することができる。
3番目の発明(請求項3)は、1番目の発明において、前記親端末機の画面上に表示された少なくとも1つのオブジェクトの上に、予め定めたパターンを表す目印を重ねて表示しておき、前記親端末機の画面上に表示されたオブジェクトに関連する情報と前記子端末機から出力される前記画像情報とを比較する際には、前記オブジェクト上に重ねて表示した前記目印に相当する情報が前記画像情報に存在するか否かを調べることを特徴とする。
例えば、実行中の様々なアプリケーションプログラムとして画面上に表示される情報、すなわち表示フレームは、一般的に矩形である場合が多いので、複数の表示フレームを形状で区別するのは難しい。また、子端末機がライトペンのように画面に接触した状態に限定せず、子端末機が少し離れた位置からでも画面の情報を読み取ることを想定すると、例えば子端末機の持ち方の違いによる傾きやピント不良の影響により、子端末機が取得する画像情報には変形などが発生することになり、形状の識別が曖昧になると考えられる。
3番目の発明においては、画面上に表示されるオブジェクトの上に目印を重ねて表示するので、例えば、丸,三角,菱形のように非常に単純なパターン、特徴的な色合いのパターン、複数パターンの組み合わせ、あるいは数字のようなある種の文字列のように特徴の分かりやすいパターンを目印として使用することにより、画像に変形がある場合であっても前記目印の有無を容易に識別することが可能になる。従って、子端末機を画面上に突き当てる必要性がなくなる。
4番目の発明(請求項4)は、1番目の発明において、前記親端末機の画面上に表示された少なくとも1つのオブジェクトの上に、予め定めたパターンを表す目印を重ねて表示すると共に、前記目印の表示及び消去を交互に行い、前記親端末機の画面上に表示されたオブジェクトに関連する情報と前記子端末機から出力される前記画像情報とを比較する際には、前記目印を表示した時に前記画像情報として得られた第1の画像情報と前記目印を消去した時に前記画像情報として得られた第2の画像情報とを比較して、差異が検出された点が存在する候補オブジェクトを選択することを特徴とする。
前述のように、複数の表示フレームを形状の違いで区別するのは難しく、また子端末機が少し離れた位置からでも画面の情報を読み取ることを想定すると、例えば子端末機の持ち方の違いによる傾きやピント不良の影響により、子端末機が取得する画像情報には変形などが発生することになり、形状の識別が曖昧になる。
そこで、4番目の発明においては目印を表示した時に得られた第1の画像情報と前記目印を消去した時に得られた第2の画像情報とを比較することにより、変化のある点を前記目印として検出する。これにより、目印の検出が容易になる。
そこで、4番目の発明においては目印を表示した時に得られた第1の画像情報と前記目印を消去した時に得られた第2の画像情報とを比較することにより、変化のある点を前記目印として検出する。これにより、目印の検出が容易になる。
また、目印となるパターンは人間が見るためのものではないため、目印の表示時間を装置が反応できる最低限の時間に短縮し、いわゆるサブリミナル映像のように短い時間で間欠的に表示/消去を繰り返すようにすれば、人間にとって不要な情報である前記目印を人間に対しては隠しながら表示することも可能である。
5番目の発明(請求項5)は、1番目の発明において、選択の対象となる前記オブジェクトが、アプリケーションプログラム毎に生成される表示フレーム、もしくはユーザの入力操作のために生成される表示フレームである場合に、前記子端末機から出力される画像情報の中から、前記表示フレームと形状が異なる部分を除去した後で、前記親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記画像情報と比較し、その比較結果に応じて少なくとも1つのオブジェクトを選択することを特徴とする。
5番目の発明(請求項5)は、1番目の発明において、選択の対象となる前記オブジェクトが、アプリケーションプログラム毎に生成される表示フレーム、もしくはユーザの入力操作のために生成される表示フレームである場合に、前記子端末機から出力される画像情報の中から、前記表示フレームと形状が異なる部分を除去した後で、前記親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記画像情報と比較し、その比較結果に応じて少なくとも1つのオブジェクトを選択することを特徴とする。
実際にコンピュータの画面に表示されるオブジェクトとしては、アプリケーションプログラムの表示フレームやアイコンなどがあり、前者の画像は比較的大きく、後者の画像は非常に小さいのが一般的である。例えば、表示画面からかなり離れた位置からオブジェクトの選択を行おうとする場合には、大きさの小さいアイコンなどのオブジェクトを操作することは実用的でなく、表示画面から遠い位置からでも人間が区別しやすい表示フレームのような大きいオブジェクトのみについての操作を行えば十分であると考えられる。また、親端末機の画面から十分に離れた位置から子端末機で画面を撮影する場合には、アイコンのように小さい画像の形状を正確に検出するのは困難である。
5番目の発明においては、大きさの小さいアイコンなどを選択の対象から事前に除外することを想定している。このため、子端末機から出力される画像情報の中から、前記表示フレームと形状が異なる部分、すなわち矩形パターン以外を除去した後でオブジェクトの認識を行っている。従って、比較的簡単にユーザが選択したオブジェクトを識別することができる。なお、表示フレームのようなオブジェクトの形状はほとんどが矩形パターンであるが、撮影された矩形パターンの縦横比や色合いを比較することにより、複数のオブジェクトを区別することができる。
6番目の発明(請求項6)は、1番目の発明において、選択の対象となる前記オブジェクトが、アプリケーションプログラム毎に生成される表示フレーム、もしくはユーザの入力操作のために生成される表示フレームである場合に、前記親端末機の画面上に表示された少なくとも1つの表示フレームの枠領域に、予め定めた識別記号のパターンを表す目印を重ねて表示しておき、前記親端末機の画面上に表示されたオブジェクトに関連する情報と前記子端末機から出力される前記画像情報とを比較する際には、前記オブジェクト上に表示した前記目印に相当する情報が前記画像情報に存在するか否かを調べることを特徴とする。
アプリケーションプログラムなどが生成する表示フレームをオブジェクトとして区別しようとする場合には、識別記号のパターンを表す目印を付加しておくことにより、複数のオブジェクトの識別が容易になる。但し、付加する目印によってアプリケーションプログラムが表示フレーム内に表示される情報の一部が見えなくなる可能性がある。しかし、6番目の発明では表示フレームの枠領域(情報が表示されない周辺部分)に目印を表示するので、目印が邪魔になるのを避けることができる。また、目印の表示位置を予め限定しておくことにより、オブジェクトからの目印の抽出処理が容易になる。
7番目の発明は、コンピュータ及び複数の画像要素をそれぞれオブジェクトとして同じ画面上に表示する画像表示機能を備えた親端末機と、前記親端末機に対する相対的な移動もしくは向きの変更が可能な子端末機とで構成され、前記子端末機に対するユーザの入力操作に従って前記親端末機の画面上に表示された複数のオブジェクトの少なくとも1つを選択するための画面上オブジェクト選択装置であって、前記子端末機には、前記親端末機の表示画像の少なくとも一部分を撮影して画像情報を取得する撮像手段を設け、前記親端末機には、前記子端末機の接近を検出する接近検出手段と、前記接近検出手段が前記子端末機の接近を検出したことを契機として、前記子端末機の撮像手段が撮影した画像情報に関連する情報を入力情報として前記子端末機から取得し、親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記入力情報と比較し、その比較結果に応じて少なくとも1つのオブジェクトを選択するオブジェクト選択手段とを設けたことを特徴とする。
7番目の発明においては、1番目の発明と同様に表示装置として液晶ディスプレイなどを用いる場合であっても、子端末機で撮影した画像に基づいてオブジェクトを選択することができ、しかも表示画面に子端末機を接触させなくてもオブジェクトの選択が可能である。
8番目の発明(請求項8)は、7番目の発明において、前記親端末機には、前記親端末機の画面上に表示された少なくとも1つのオブジェクトの上に、予め定めたパターンを表す目印を重ねて表示する目印表示手段を更に設け、前記オブジェクト選択手段が、親端末機の画面上に表示されたオブジェクトに関連する情報と前記入力情報とを比較する際に、前記オブジェクト上に重ねて表示した前記目印に相当する情報が前記入力情報に存在するか否かを調べることを特徴とする。
8番目の発明(請求項8)は、7番目の発明において、前記親端末機には、前記親端末機の画面上に表示された少なくとも1つのオブジェクトの上に、予め定めたパターンを表す目印を重ねて表示する目印表示手段を更に設け、前記オブジェクト選択手段が、親端末機の画面上に表示されたオブジェクトに関連する情報と前記入力情報とを比較する際に、前記オブジェクト上に重ねて表示した前記目印に相当する情報が前記入力情報に存在するか否かを調べることを特徴とする。
8番目の発明においては、オブジェクト上に目印を表示することにより、画面に表示された複数のオブジェクトの中から比較的簡単に該当する1つのオブジェクトを選択することができる。
以上のように本発明によれば、老人や幼児のように不慣れな人であっても、直感的にあるいは自然にコンピュータの画面に対する選択のような入力操作を理解でき、しかも、ライトペンのように操作部を直接画面に当てなくても操作が可能なコンピュータを実現することが可能である。
本発明の実施の形態について図1〜図12を参照して説明する。この形態は全ての請求項に相当する。
図1は動作例(1)を示すフローチャートである。図2は動作例(2)を示すフローチャートである。図3は動作例(3)を示すフローチャートである。図4は動作例(4)を示すフローチャートである。図5は動作例(5)を示すフローチャートである。図6は動作例(6)を示すフローチャートである。図7はシステムの構成例(1)を示すブロック図である。図8はシステムの構成例(2)を示すブロック図である。図9はシステムの構成例(3)を示すブロック図である。図10は親端末機上の画面の表示例を示す正面図である。図11は子端末機が撮影する画面上の領域の例を示す正面図である。図12は目印情報の表示例を示す正面図である。
図1は動作例(1)を示すフローチャートである。図2は動作例(2)を示すフローチャートである。図3は動作例(3)を示すフローチャートである。図4は動作例(4)を示すフローチャートである。図5は動作例(5)を示すフローチャートである。図6は動作例(6)を示すフローチャートである。図7はシステムの構成例(1)を示すブロック図である。図8はシステムの構成例(2)を示すブロック図である。図9はシステムの構成例(3)を示すブロック図である。図10は親端末機上の画面の表示例を示す正面図である。図11は子端末機が撮影する画面上の領域の例を示す正面図である。図12は目印情報の表示例を示す正面図である。
なお、この形態では、請求項7の撮像手段,接近検出手段及びオブジェクト選択手段は、それぞれCCDカメラ21,接近検出部14及びオブジェクト選択部18に対応し、請求項8の目印表示手段は目印信号発生部17に対応する。
この形態では、図7,図8,図9に示すような構成のシステムに本発明を適用する場合を想定している。
この形態では、図7,図8,図9に示すような構成のシステムに本発明を適用する場合を想定している。
図7に示すシステムは、1台の親端末機10と子端末機20とで構成されており、親端末機10と子端末機20とが通信網30を介して接続されている。通信網30としては、有線通信網を用いても良いし、無線通信網を用いても良い。
図7の例では、親端末機10は情報処理部11,映像信号生成部12,二次元画像表示部13,接近検出部14,通信インタフェース15,画像解析部16,目印信号発生部17及びオブジェクト選択部18を備えており、子端末機20はCCDカメラ21,撮影制御部22及び通信インタフェース23を備えている。
図7の例では、親端末機10は情報処理部11,映像信号生成部12,二次元画像表示部13,接近検出部14,通信インタフェース15,画像解析部16,目印信号発生部17及びオブジェクト選択部18を備えており、子端末機20はCCDカメラ21,撮影制御部22及び通信インタフェース23を備えている。
情報処理部11は、コンピュータの本体であり、ユーザの指示に従って様々なアプリケーションプログラムを実行する。また、アプリケーションプログラムの実行に伴って生成される表示要素などの様々なオブジェクトに関する情報が情報処理部11上のメモリに保持され逐次更新される。更に、情報処理部11上のメモリには、画面に表示すべき二次元画像情報も保持されている。
映像信号生成部12は、情報処理部11が保持している二次元画像情報から映像信号を生成する。二次元画像表示部13は、例えば液晶ディスプレイのような表示装置であり、映像信号生成部12が出力する映像信号に従って二次元画像を表示する。すなわち、コンピュータ(11)を使用する際に必要となる画像情報が二次元画像表示部13の画面に表示される。
例えば、図10に示すようにアイコンと呼ばれる様々な形状の図形や、実行中のアプリケーションプログラムによって生成される表示フレームが画面上に表示される。これらのアイコンや表示フレームが選択の対象となるオブジェクトである。これらのオブジェクトは、ユーザからの入力及び情報処理部11における処理の実行に伴って、必要に応じて画面上に表示される。
子端末機20は、それ全体を手に持って移動可能であるか、あるいは撮像面だけの向きや位置を手動で変更できるように構成され、ユーザの操作によりCCDカメラ21の撮像面を親端末機10に接近させたり、二次元画像表示部13の画面に対して相対的に移動させたりすることができる。
子端末機20のCCDカメラ21は、撮影制御部22の制御に従って、例えば定期的に、あるいは親端末機10の画面に近づいたときだけ、二次元画像表示部13の画面に表示された二次元画像の一部もしくは全体を撮影する。CCDカメラ21が撮影した画像は、定期的にあるいは親端末機10からの要求に従って子端末機20から送出され、通信網30を介して親端末機10に入力される。
子端末機20のCCDカメラ21は、撮影制御部22の制御に従って、例えば定期的に、あるいは親端末機10の画面に近づいたときだけ、二次元画像表示部13の画面に表示された二次元画像の一部もしくは全体を撮影する。CCDカメラ21が撮影した画像は、定期的にあるいは親端末機10からの要求に従って子端末機20から送出され、通信網30を介して親端末機10に入力される。
親端末機10に搭載された接近検出部14は、二次元画像表示部13の画面に対して子端末機20が所定距離以内に近づいたか否かを検出する。接近検出部14としては、例えば静電式接近探知機,赤外線式接近探知機,超音波ソナーなどを利用できる。また、例えば親端末機10と子端末機20とが直接無線回線を介して通信する場合には、親端末機10が子端末機20との間で通信できるようになったか否かを識別することにより、接近検出部14の機能を実現することもできる。
子端末機20が撮影した画像の信号を常時もしくは定期的に送出しない場合には、接近検出部14が子端末機20の接近を検出したときに、親端末機10の画像解析部16が画像要求信号を子端末機20に与える。子端末機20は親端末機10からの画像要求信号に従って、CCDカメラ21で画像を撮影し、撮影した画像の情報を親端末機10に送信する。
画像解析部16は、子端末機20が送出した画像の信号を通信網30及び通信インタフェース15を介して取得し、この情報を解析して特徴を抽出する。実際には、例えば入力された画像に含まれている図形の形状,図形内の色合い,図形の縦横比,図形上の目印などを表す情報を特徴として抽出する。
目印信号発生部17は、予め定めた目印の情報を二次元画像表示部13が表示する画像のオブジェクトの上又は近傍に重ねて表示するために設けてある。例えば、「○」,「×」のような記号や数字のように形状の識別が容易なパターンや、特徴的な色合いで表現されたパターンを目印として利用することができる。
目印信号発生部17は、予め定めた目印の情報を二次元画像表示部13が表示する画像のオブジェクトの上又は近傍に重ねて表示するために設けてある。例えば、「○」,「×」のような記号や数字のように形状の識別が容易なパターンや、特徴的な色合いで表現されたパターンを目印として利用することができる。
オブジェクト選択部18は、画像解析部16が抽出した特徴に基づいて、情報処理部11が二次元画像表示部13の画面に表示しているオブジェクトの中から該当するオブジェクトを選択し、選択の結果を情報処理部11に通知する。具体的な選択方法については後で説明する。
なお、接近検出部14や目印信号発生部17については不要な場合もある。
なお、接近検出部14や目印信号発生部17については不要な場合もある。
図8に示すシステムは、図7に示すシステムの変形例である。すなわち、親端末機10には通信インタフェース15の代わりに画像受信機19を設けてあり、子端末機20には通信インタフェース23の代わりに画像送信機24を設けてある。例えば、画像送信機24としては映像信号をテレビ電波に乗せて送信するトランスミッタを用いればよく、画像受信機19としてはテレビ電波を受信するテレビチューナを用いればよい。
図9に示すシステムは、図7に示すシステムの変形例である。図9の例では、通信網30に複数の親端末機10(1),10(2)を接続してある。この例では、複数の親端末機10(1),10(2)を共通の1つの子端末機20を用いて操作する場合を想定している。
次に、親端末機10の1番目の動作例について図1及び図7を参照して説明する。
接近検出部14が子端末機20の接近を検出した場合には、親端末機10の処理は図1のステップS11からS13に進む。子端末機20が接近していない場合には、実行した処理の回数が予め定めた制限回数以内であるかをステップS12で確認しながらステップS11を繰り返す。予め定めた制限回数に渡って接近が検出されない場合には、子端末機20が離脱したものとみなして処理を終了する。なお、接近検出部14が存在しない場合にはステップS11を省略してもよい。
次に、親端末機10の1番目の動作例について図1及び図7を参照して説明する。
接近検出部14が子端末機20の接近を検出した場合には、親端末機10の処理は図1のステップS11からS13に進む。子端末機20が接近していない場合には、実行した処理の回数が予め定めた制限回数以内であるかをステップS12で確認しながらステップS11を繰り返す。予め定めた制限回数に渡って接近が検出されない場合には、子端末機20が離脱したものとみなして処理を終了する。なお、接近検出部14が存在しない場合にはステップS11を省略してもよい。
ステップS13では、候補オブジェクトを初期化する。すなわち、情報処理部11の処理によって二次元画像表示部13の画面上に表示されている選択可能な多数のオブジェクト(アイコンや表示フレームなど)の中から1つのオブジェクトを最初の候補として選択する。この場合の選択については、多数のオブジェクトの中からランダムに決定してもよいが、統計的に的中しやすいもの、例えばマルチウインドウ表示の場合に手前に表示している窓すなわち表示フレーム、あるいは画面中央に存在するオブジェクト、あるいは表示中のアプリケーションプログラムの機能上、操作対象となりうる表示物などを優先的に選択するのが望ましい。
次のステップS14では、親端末機10から子端末機20に対して撮影した画像の送信を要求し、子端末機20が送出した画像信号を受信して保持する。なお、子端末機20が画像を常時、あるいは定期的に送信する場合には、親端末機10から子端末機20に対して要求を送信する必要はない。
ステップS15では、ステップS14で取得した画像を画像解析部16で解析して特徴を抽出する。
ステップS15では、ステップS14で取得した画像を画像解析部16で解析して特徴を抽出する。
ステップS16では、ステップS15で特徴の抽出に成功したか否かを識別する。例えば、子端末機20が移動中のために撮影した画像が不鮮明であるような場合には、ステップS11の処理に戻る。取得した画像の状態が良好で特徴の抽出に成功した場合には次のステップS17に進む。
ステップS17では、ステップS14で子端末機20から取得した画像の特徴と候補オブジェクトの特徴とを比較し、一致するか否かを識別する。一致しない場合にはステップS18で候補オブジェクトを次のオブジェクトに切り替えてステップS17の比較を繰り返す。一致を検出した場合には次のステップS19に進み、現在の候補オブジェクトを選択結果のオブジェクトとして確定する。
ステップS17では、ステップS14で子端末機20から取得した画像の特徴と候補オブジェクトの特徴とを比較し、一致するか否かを識別する。一致しない場合にはステップS18で候補オブジェクトを次のオブジェクトに切り替えてステップS17の比較を繰り返す。一致を検出した場合には次のステップS19に進み、現在の候補オブジェクトを選択結果のオブジェクトとして確定する。
例えば、図10に示すような画像が二次元画像表示部13の画面に表示されている場合には、図11に示す点線で囲まれた各領域A1,A2,A3,・・・を子端末機20のCCDカメラ21で撮影することが考えられる。
例えば、領域A1の撮影によって得られる画像に相当する特定のアイコンを選択対象のオブジェクトとする場合には、撮影した画像の中に存在する図形の形状や図形の表示色を特徴として抽出し、それを候補オブジェクトの特徴と比較すればよい。
例えば、領域A1の撮影によって得られる画像に相当する特定のアイコンを選択対象のオブジェクトとする場合には、撮影した画像の中に存在する図形の形状や図形の表示色を特徴として抽出し、それを候補オブジェクトの特徴と比較すればよい。
また、例えば領域A2の撮影によって得られる画像に相当する特定の表示フレームを選択対象のオブジェクトとする場合には、撮影した画像の中に存在する図形の縦横比や表示色を特徴として抽出し、それを候補オブジェクトの特徴と比較すればよい。
次に、親端末機10の2番目の動作例について図2及び図7を参照して説明する。この動作例は図1の変形例であり、目印信号発生部17の機能を利用している点が大きく異なっている。図1と同じ番号を付けたステップの内容は図1と同様である。
次に、親端末機10の2番目の動作例について図2及び図7を参照して説明する。この動作例は図1の変形例であり、目印信号発生部17の機能を利用している点が大きく異なっている。図1と同じ番号を付けたステップの内容は図1と同様である。
図2においては、ステップS13で候補オブジェクトを初期化した後、ステップS21を実行する。ステップS21では、現在の候補オブジェクトの上に予め定めた目印の可視情報を重ねて表示するように目印信号発生部17が情報処理部11に対して指示する。
従って、次のステップS14で子端末機20に対して要求を送出する時点では二次元画像表示部13の画面上には目印も表示されている。つまり、子端末機20が撮影した画像の領域内に候補オブジェクトに相当する画像が含まれている場合には、目印の情報もそれに含まれることになる。
従って、次のステップS14で子端末機20に対して要求を送出する時点では二次元画像表示部13の画面上には目印も表示されている。つまり、子端末機20が撮影した画像の領域内に候補オブジェクトに相当する画像が含まれている場合には、目印の情報もそれに含まれることになる。
ステップS14で取得した画像は、ステップS15で画像解析部16によって解析される。この場合には、撮影した画像の中から、予め定めた目印に相当する情報を抽出できるように、例えば目印の大きさ程度の小さい図形の特徴も抽出する。
撮影した画像が鮮明であり、特徴の抽出に成功した場合には、ステップS16からステップS22に進み、撮影した画像から検出された特徴と、ステップS21で候補オブジェクトに付加した目印の特徴とを比較する。
撮影した画像が鮮明であり、特徴の抽出に成功した場合には、ステップS16からステップS22に進み、撮影した画像から検出された特徴と、ステップS21で候補オブジェクトに付加した目印の特徴とを比較する。
ステップS22で一致しない場合には、目印を表示した候補オブジェクトが撮影範囲内に存在しないと考えられるので、次のステップS18で候補オブジェクトを切り替えてからステップS21に戻る。従って、目印が付加されるオブジェクトは順次に切り替わることになる。ステップS22で一致を検出した場合には、次のステップS19で現在の候補オブジェクトを選択結果として確定する。
次に、親端末機10の3番目の動作例について図3及び図9を参照して説明する。この動作例は図2の変形例であり、図9に示すように複数の親端末機10(1),10(2)を共通の子端末機20で操作する場合を想定しているので、部分的に処理が変更されている。図2と同じ番号を付けたステップの内容は図2と同様である。
この例では、複数の親端末機10(1),10(2)のそれぞれが接近検出部14を搭載しており、子端末機20の接近を検出した何れか1つの親端末機10が図3のステップS13以降の処理を実行する。また、この例では子端末機20は撮影した画像の信号を接続された全ての親端末機10に対して送信する。
この例では、複数の親端末機10(1),10(2)のそれぞれが接近検出部14を搭載しており、子端末機20の接近を検出した何れか1つの親端末機10が図3のステップS13以降の処理を実行する。また、この例では子端末機20は撮影した画像の信号を接続された全ての親端末機10に対して送信する。
図3のステップS22で特徴が一致しない場合には、ステップS25に進み、候補オブジェクトとして検査していないオブジェクトが残っているか否かを調べる。残っている場合には、ステップS18で候補オブジェクトを次のオブジェクトに切り替える。ステップS25で全てのオブジェクトの検査が終了したことを検出した場合には、ステップS26に進み他の親端末機10に対して指示が子端末機20から入力されたものと認識し、処理を終了する。
従って、一人のユーザが複数台の親端末機10を操作する場合には、親端末機10毎に独立した子端末機20を用意する必要はない。
次に、親端末機10の4番目の動作例について図4及び図7を参照して説明する。この動作例は図2の変形例であり、目印に関する処理が変更されている。図2と同じ番号を付けたステップの内容は図2と同様である。
次に、親端末機10の4番目の動作例について図4及び図7を参照して説明する。この動作例は図2の変形例であり、目印に関する処理が変更されている。図2と同じ番号を付けたステップの内容は図2と同様である。
ステップS21では、現在の候補オブジェクトの上に予め定めた目印の可視情報を重ねて表示するように目印信号発生部17が情報処理部11に対して指示する。
次のステップS41では、親端末機10が子端末機20に対して撮影した画像の出力を要求し、子端末機20が送出する画像の情報を受信して親端末機10の画像解析部16上に保存する。
次のステップS41では、親端末機10が子端末機20に対して撮影した画像の出力を要求し、子端末機20が送出する画像の情報を受信して親端末機10の画像解析部16上に保存する。
次のステップS42では、ステップS21で表示した目印を消去するように目印信号発生部17が情報処理部11に対して指示する。
次のステップS43では、再び親端末機10が子端末機20に対して撮影した画像の出力を要求し、子端末機20が送出する画像の情報を受信して親端末機10の画像解析部16上に保存する。
次のステップS43では、再び親端末機10が子端末機20に対して撮影した画像の出力を要求し、子端末機20が送出する画像の情報を受信して親端末機10の画像解析部16上に保存する。
ステップS44では、ステップS41で取得した画像とステップS43で取得した画像とを比較して、画像の変化点を特徴として検出する。すなわち、画面上に目印を表示しているときに撮影された画像と、画面上に目印を表示していないときに撮影された画像とを比較するので、撮影した画像の領域に目印の位置が含まれている場合には、目印が変化点として検出される。但し、目印が存在しない場合であっても、目印以外の画像の変化を変化点として検出する可能性もある。
変化点を検出できた場合にはステップS45からS46に進み、変化点を検出できない場合にはステップS11に戻る。
ステップS46では、変化点が候補オブジェクトの中に存在するか否かを調べる。具体的には、変化点を含む図形と候補オブジェクトの特徴とを比較する。変化点が候補オブジェクトの中に存在する場合にはステップS46からS19に進み、変化点が候補オブジェクトの外にある場合(変化点が目印ではない場合)にはステップS46からS18に進み、候補オブジェクトを次のオブジェクトに切り替える。
ステップS46では、変化点が候補オブジェクトの中に存在するか否かを調べる。具体的には、変化点を含む図形と候補オブジェクトの特徴とを比較する。変化点が候補オブジェクトの中に存在する場合にはステップS46からS19に進み、変化点が候補オブジェクトの外にある場合(変化点が目印ではない場合)にはステップS46からS18に進み、候補オブジェクトを次のオブジェクトに切り替える。
つまり、この動作例では目印が間欠的に表示される。
次に、親端末機10の5番目の動作例について図5及び図7を参照して説明する。この動作例は図2の変形例である。図2と同じ番号を付けたステップの内容は図2と同様である。
この動作例では、画面から比較的離れた位置から子端末機20で画像を撮影し、比較的大きさの大きい矩形パターン(表示フレーム等)だけを選択対象にする場合を想定している。
次に、親端末機10の5番目の動作例について図5及び図7を参照して説明する。この動作例は図2の変形例である。図2と同じ番号を付けたステップの内容は図2と同様である。
この動作例では、画面から比較的離れた位置から子端末機20で画像を撮影し、比較的大きさの大きい矩形パターン(表示フレーム等)だけを選択対象にする場合を想定している。
ステップS13Bでは、候補オブジェクトの初期化を行う。また、表示フレームのように比較的大きい矩形の図形以外については、事前に候補オブジェクトの対象から除外する。
ステップS51では、ステップS14で子端末機20から取得した画像から矩形以外の図形を除去する。
ステップS51では、ステップS14で子端末機20から取得した画像から矩形以外の図形を除去する。
ステップS52では、ステップS51の処理が終了した画像を解析して、1つの表示フレームを特定するために必要な特徴情報を抽出する。実際には、図形である表示フレームの縦横比,表示フレームの枠の色,枠の太さ,目印を特徴として抽出する。
特徴の抽出に成功した場合には、ステップS16からS53に進み、画像の特徴と現在の候補オブジェクトの特徴とを比較する。一致する場合にはステップS19に進み、一致しない場合にはステップS18に進む。
特徴の抽出に成功した場合には、ステップS16からS53に進み、画像の特徴と現在の候補オブジェクトの特徴とを比較する。一致する場合にはステップS19に進み、一致しない場合にはステップS18に進む。
次に、親端末機10の6番目の動作例について図6及び図7を参照して説明する。この動作例は図5の変形例である。図5と同じ番号を付けたステップの内容は図5と同様である。この動作例では、例えば図12に示すように、目印を表示する位置を表示フレームの周辺部の枠領域のみに限定してある。
図6のステップS21Bでは候補オブジェクト上に目印を表示するが、目印の表示位置は表示フレームの周辺部の枠領域に限定してある。
図6のステップS21Bでは候補オブジェクト上に目印を表示するが、目印の表示位置は表示フレームの周辺部の枠領域に限定してある。
ステップS62では、ステップS51の処理が終了した画像の解析を行い、矩形パターン(表示フレーム)の枠領域(周辺部分)を調べて目印情報を特徴として抽出する。
ステップS62で特徴の抽出に成功した場合には、ステップS16からS63に進む。ステップS63では、画像の特徴として抽出した目印情報と、ステップS21Bで候補オブジェクトに付加した目印とを比較する。一致した場合にはステップS19に進み、一致しない場合にはステップS18に進む。
ステップS62で特徴の抽出に成功した場合には、ステップS16からS63に進む。ステップS63では、画像の特徴として抽出した目印情報と、ステップS21Bで候補オブジェクトに付加した目印とを比較する。一致した場合にはステップS19に進み、一致しない場合にはステップS18に進む。
10 親端末機
11 情報処理部
12 映像信号生成部
13 二次元画像表示部
14 接近検出部
15 通信インタフェース
16 画像解析部
17 目印信号発生部
18 オブジェクト選択部
19 画像受信機
20 子端末機
21 CCDカメラ
22 撮影制御部
23 通信インタフェース
24 画像送信機
30 通信網
11 情報処理部
12 映像信号生成部
13 二次元画像表示部
14 接近検出部
15 通信インタフェース
16 画像解析部
17 目印信号発生部
18 オブジェクト選択部
19 画像受信機
20 子端末機
21 CCDカメラ
22 撮影制御部
23 通信インタフェース
24 画像送信機
30 通信網
Claims (8)
- コンピュータ及び複数の画像要素をそれぞれオブジェクトとして同じ画面上に表示する画像表示機能を備えた親端末機と、前記親端末機に対する相対的な移動もしくは向きの変更が可能な子端末機とで構成される装置を用い、前記子端末機に対するユーザの入力操作に従って前記親端末機の画面上に表示された複数のオブジェクトの少なくとも1つを選択するための画面上オブジェクト選択方法であって、
前記親端末機の表示画像の少なくとも一部分を前記子端末機で撮影して画像情報を取得し、
前記親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記子端末機から出力される前記画像情報と比較し、その比較結果に応じて少なくとも1つのオブジェクトを選択する
ことを特徴とする画面上オブジェクト選択方法。 - 請求項1の画面上オブジェクト選択方法において、1つの前記子端末機が複数の独立した前記親端末機と接続されている場合に、前記複数の親端末機がそれぞれ前記子端末機の接近の有無を識別し、前記子端末機が接近した場合に該当する親端末機が、前記親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記子端末機から出力される前記画像情報と比較し、その比較結果に応じて少なくとも1つのオブジェクトを選択する
ことを特徴とする画面上オブジェクト選択方法。 - 請求項1の画面上オブジェクト選択方法において、
前記親端末機の画面上に表示された少なくとも1つのオブジェクトの上に、予め定めたパターンを表す目印を重ねて表示しておき、
前記親端末機の画面上に表示されたオブジェクトに関連する情報と前記子端末機から出力される前記画像情報とを比較する際には、前記オブジェクト上に重ねて表示した前記目印に相当する情報が前記画像情報に存在するか否かを調べる
ことを特徴とする画面上オブジェクト選択方法。 - 請求項1の画面上オブジェクト選択方法において、
前記親端末機の画面上に表示された少なくとも1つのオブジェクトの上に、予め定めたパターンを表す目印を重ねて表示すると共に、前記目印の表示及び消去を交互に行い、
前記親端末機の画面上に表示されたオブジェクトに関連する情報と前記子端末機から出力される前記画像情報とを比較する際には、前記目印を表示した時に前記画像情報として得られた第1の画像情報と前記目印を消去した時に前記画像情報として得られた第2の画像情報とを比較して、差異が検出された点が存在する候補オブジェクトを選択する
ことを特徴とする画面上オブジェクト選択方法。 - 請求項1の画面上オブジェクト選択方法において、選択の対象となる前記オブジェクトが、アプリケーションプログラム毎に生成される表示フレーム、もしくはユーザの入力操作のために生成される表示フレームである場合に、
前記子端末機から出力される画像情報の中から、前記表示フレームと形状が異なる部分を除去した後で、
前記親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記画像情報と比較し、その比較結果に応じて少なくとも1つのオブジェクトを選択する
ことを特徴とする画面上オブジェクト選択方法。 - 請求項1の画面上オブジェクト選択方法において、選択の対象となる前記オブジェクトが、アプリケーションプログラム毎に生成される表示フレーム、もしくはユーザの入力操作のために生成される表示フレームである場合に、
前記親端末機の画面上に表示された少なくとも1つの表示フレームの枠領域に、予め定めた識別記号のパターンを表す目印を重ねて表示しておき、
前記親端末機の画面上に表示されたオブジェクトに関連する情報と前記子端末機から出力される前記画像情報とを比較する際には、前記オブジェクト上に表示した前記目印に相当する情報が前記画像情報に存在するか否かを調べる
ことを特徴とする画面上オブジェクト選択方法。 - コンピュータ及び複数の画像要素をそれぞれオブジェクトとして同じ画面上に表示する画像表示機能を備えた親端末機と、前記親端末機に対する相対的な移動もしくは向きの変更が可能な子端末機とで構成され、前記子端末機に対するユーザの入力操作に従って前記親端末機の画面上に表示された複数のオブジェクトの少なくとも1つを選択するための画面上オブジェクト選択装置であって、
前記子端末機には、前記親端末機の表示画像の少なくとも一部分を撮影して画像情報を取得する撮像手段を設け、
前記親端末機には、
前記子端末機の接近を検出する接近検出手段と、
前記接近検出手段が前記子端末機の接近を検出したことを契機として、前記子端末機の撮像手段が撮影した画像情報に関連する情報を入力情報として前記子端末機から取得し、親端末機の画面上に表示された複数のオブジェクトの各々に関連する情報を前記入力情報と比較し、その比較結果に応じて少なくとも1つのオブジェクトを選択するオブジェクト選択手段と
を設けたことを特徴とする画面上オブジェクト選択装置。 - 請求項7の画面上オブジェクト選択装置において、前記親端末機には、前記親端末機の画面上に表示された少なくとも1つのオブジェクトの上に、予め定めたパターンを表す目印を重ねて表示する目印表示手段を更に設け、
前記オブジェクト選択手段が、親端末機の画面上に表示されたオブジェクトに関連する情報と前記入力情報とを比較する際に、前記オブジェクト上に重ねて表示した前記目印に相当する情報が前記入力情報に存在するか否かを調べる
ことを特徴とする画面上オブジェクト選択装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003430518A JP2005190158A (ja) | 2003-12-25 | 2003-12-25 | 画面上オブジェクト選択方法及び画面上オブジェクト選択装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003430518A JP2005190158A (ja) | 2003-12-25 | 2003-12-25 | 画面上オブジェクト選択方法及び画面上オブジェクト選択装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005190158A true JP2005190158A (ja) | 2005-07-14 |
Family
ID=34788869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003430518A Pending JP2005190158A (ja) | 2003-12-25 | 2003-12-25 | 画面上オブジェクト選択方法及び画面上オブジェクト選択装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005190158A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016513833A (ja) * | 2013-03-04 | 2016-05-16 | マイクロソフト テクノロジー ライセンシング,エルエルシー | デバイスへの特定のオブジェクト位置の提供 |
-
2003
- 2003-12-25 JP JP2003430518A patent/JP2005190158A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016513833A (ja) * | 2013-03-04 | 2016-05-16 | マイクロソフト テクノロジー ライセンシング,エルエルシー | デバイスへの特定のオブジェクト位置の提供 |
US10139925B2 (en) | 2013-03-04 | 2018-11-27 | Microsoft Technology Licensing, Llc | Causing specific location of an object provided to a device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11470377B2 (en) | Display apparatus and remote operation control apparatus | |
JP4569613B2 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
JP5014848B2 (ja) | 映像パターンを利用したポインティング入力装置、方法、およびシステム | |
JP4422851B2 (ja) | 座標入力装置及び方法 | |
US9134800B2 (en) | Gesture input device and gesture input method | |
JP3419050B2 (ja) | 入力装置 | |
TWI534661B (zh) | 畫像辨識裝置及操作判定方法以及電腦程式 | |
KR101434295B1 (ko) | 디스플레이 장치에 표시된 화면의 일부분을 전자장치를통해 gui로 제공하는 방법 및 이를 적용한 전자장치 | |
CN102196220B (zh) | 信息处理设备和信息处理方法 | |
JP4710734B2 (ja) | ポインティング装置、ポインティング位置検出方法及びプログラム | |
JP2008040576A (ja) | 画像処理システム及び該システムを備えた映像表示装置 | |
JP2009246646A (ja) | リモコン装置及び設定方法 | |
JP2018132799A (ja) | 電子黒板システム、電子ペン、表示装置及び電子ペン位置検出方法 | |
JP2007086995A (ja) | ポインティング装置 | |
KR20070095179A (ko) | 영상 패턴을 이용한 포인팅 입력 장치, 방법, 및 시스템 | |
JP2009037464A (ja) | 画像表示装置及びコンピュータプログラム | |
JP2011188023A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6465197B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2009015720A (ja) | 認識装置および認識方法 | |
JP2005190158A (ja) | 画面上オブジェクト選択方法及び画面上オブジェクト選択装置 | |
US8446428B2 (en) | Image processing apparatus and method of controlling the same | |
JP2009245366A (ja) | 入力システム、指示装置および入力システムの制御プログラム | |
JP2011100396A (ja) | 映像表示装置 | |
KR101491648B1 (ko) | 촬영부를 이용한 원격 제어 시스템 및 방법 | |
JP2011186537A (ja) | 情報処理装置、情報処理方法およびプログラム |