JP4055388B2 - 情報処理装置、情報処理システム、及びプログラム - Google Patents
情報処理装置、情報処理システム、及びプログラム Download PDFInfo
- Publication number
- JP4055388B2 JP4055388B2 JP2001315301A JP2001315301A JP4055388B2 JP 4055388 B2 JP4055388 B2 JP 4055388B2 JP 2001315301 A JP2001315301 A JP 2001315301A JP 2001315301 A JP2001315301 A JP 2001315301A JP 4055388 B2 JP4055388 B2 JP 4055388B2
- Authority
- JP
- Japan
- Prior art keywords
- display screen
- information processing
- image
- frame information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Description
【発明の属する技術分野】
本発明は、情報処理装置、情報処理システム、及びプログラムに関するものであり、特にグラフィカルユーザインターフェイスに対して行われた操作に応じて所要の情報処理を実行する情報処理装置、情報処理システムに、及びこれらの装置、システムにより実行すべきプログラムに関する。
【0002】
【従来の技術】
従来から、表示画面に表示されたGUI画像に対して、直接、指やポインタペンなどによって画面に直接触れることで操作が可能なように、表示画面に対してタッチパネルを設けたものが広く知られている。
このようなタッチパネルとして、いわゆる感圧式のタッチパネルの構造例を図16に簡略に示す。
図16(a)(b)に示すように、感圧式のタッチパネルは、上部電極101と下部電極102とを、スペーサ103を介して対向するように配置させた構造を採る。下部電極102は、例えばガラス基板に対して銀電極を形成するようにして構成され、上部電極101は、PETフィルムなどに対して抵抗膜を形成することで構成される。そして、上記銀電極及び抵抗膜からはそれぞれ、導線が引き出されているものである。
そして、例えばユーザの指やポインタペンなどによって、上部電極101側の或る位置を押圧すると、この押圧力によって生じたPETフィルムのたわみによって上部電極101の抵抗膜が下部電極102の銀電極に接触する。この接触した位置に応じて変化する抵抗値等を検出することによって、操作位置の検出が行われるものである。
【0003】
【発明が解決しようとする課題】
ところで、例えばパーソナルコンピュータなどの情報処理装置におけるGUIに対する操作としては、周知のようにして、マウスに代表されるポインティングデバイスが用いられている。
しかしながら、このようなポインティングデバイスによる操作では、ユーザは、GUI画面を注視しながら、感覚的にポインティングデバイスに対する操作を行っていることになる。これは即ち、ユーザは、視界に入っていない装置を操作する必要があるので、必ずしも直感的で分かりやすい操作とはなり得ないという問題を有している。
【0004】
そこで、マウスなどのこれまでに広く知られているポインティングデバイスに代わる操作情報入力の構成として次のような発明が提案されている。
先ず、特開2000−154794号公報には、人の瞬きを利用して操作入力を行うようにした発明が開示されている。また、特開平10−3150号公報では、歯の打ち合わせにて発生する音を音響センサで検出する発明が開示されている。しかし、これらの発明は何れも、いわゆるウェアラブルコンピューティングの観点によるもので、特別な機器を人体に装着する必要があり、人が普段行うことはない不慣れな行為を伴う操作となる。つまり、システム構成が特殊なものとなると共に、操作性も依然として直感的には成りにくいという問題を有している。
【0005】
従って、直感的な操作を無理なく行えるという点では、前述したような、GUI画面に対して直接的にポインティング操作を行うことのできるタッチパネル付きの表示画面とすることが良いことになる。
しかしながら、パーソナルコンピュータなどの情報処理装置において、タッチパネルによるGUI操作を実現しようとすれば、ユーザは、このようなタッチパネル付きのディスプレイを購入するなどして所有しなければならないことになり、ユーザにとっては面倒なこととなる。また、このようなディスプレイ装置は、高価であり経済的負担を伴うために、この点でも不都合を生じる。
【0006】
また、直感的な入力操作という点から見た場合には、例えば特開平10−161801号公報に示されているように、ユーザが発する音声により操作の指示を行うように構成することも考えられる。この場合には、システム構成としては、ユーザの音声を収音する汎用的なマイクロフォンを追加すればよい。しかし、この場合には、ユーザが発する音声を入力操作に利用するので、操作中は操作に関する内容しか発話できないという不便さが伴うことになる。
【0007】
【課題を解決するための手段】
そこで、本発明は、できるだけ汎用的な装置から成る構成でありながらも、直感的な入力操作が簡便に行えるようにすることを目的として、先ず、情報処理装置として次のように構成することとした。
つまり、表示画面に対して画像を表示出力する表示手段と、撮像装置により撮像された撮像画像を取り込む画像取込手段と、上記画像取込手段により取り込まれた撮像画像における、上記表示画面の画像部分領域を枠情報として認識する画像部分認識手段と、上記枠情報の上底と下底の辺を平行として上記枠情報が台形となるように形状を補正する台形補正処理を行って、上記枠情報を補正枠情報とする枠情報補正処理手段と、上記画像部分認識手段が認識する画像部分領域内に存在するポインタの上記表示画面の接触操作によって指し示す位置を、上記補正枠情報に基づいて座標変換処理を行い、実際の上記表示画面上におけるポイント位置として認識するポイント位置認識手段と、上記ポイント位置認識手段により認識されたポイント位置に応じて、所要の情報処理を実行可能な情報処理手段とを備えることとした。
【0008】
また、情報処理システムとして次のように構成することとした。
この発明としての情報処理システムは、少なくとも、撮像装置と情報処理装置とから成るものとしたうえで、撮像装置は、情報処理装置の表示画面全体を撮像可能な位置に設けることとする。
そのうえで上記情報処理装置は、
表示画面に対して画像を表示出力する表示手段と、撮像装置により撮像された撮像画像を取り込む画像取込手段と、上記画像取込手段により取り込まれた撮像画像における、上記表示画面の画像部分領域を枠情報として認識する画像部分認識手段と、上記枠情報の上底と下底の辺を平行として上記枠情報が台形となるように形状を補正する台形補正処理を行って、上記枠情報を補正枠情報とする枠情報補正処理手段と、上記画像部分認識手段が認識する画像部分領域内に存在するポインタの上記表示画面の接触操作によって指し示す位置を、上記補正枠情報に基づいて座標変換処理を行い、実際の上記表示画面上におけるポイント位置として認識するポイント位置認識手段と、上記ポイント位置認識手段により認識されたポイント位置に応じて、所要の情報処理を実行可能な情報処理手段とを備えることとした。
【0009】
また、プログラムとしては次のように構成することとした。
つまり、情報処理装置の表示画面を撮像するように配置される撮像装置により撮像された撮像画像を取り込む画像取込手順と、上記画像取込手順により取り込まれた撮像画像における、上記表示画面の画像部分領域を枠情報として認識する画像部分認識手順と、上記枠情報の上底と下底の辺を平行として上記枠情報が台形となるように形状を補正する台形補正処理を行って、上記枠情報を補正枠情報とする枠情報補正処理手順と、上記画像部分認識手順が認識する画像部分領域内に存在するポインタの上記表示画面の接触操作によって指し示す位置を、上記補正枠情報に基づいて座標変換処理を行い、実際の上記表示画面上におけるポイント位置として認識するポイント位置認識手順と、上記ポイント位置認識手順により認識されたポイント位置に応じて、所要の情報処理を実行可能な情報処理手順と、を上記情報処理装置に実行させるように構成する。
【0010】
上記各構成では、撮像装置により、情報処理装置の表示画面を撮影するようにしている。そして、撮像画像内に存在するポインタ(指やポインタペンなど)の指し示す位置を、実際に表示画面に表示されるグラフィカルユーザインターフェイス画像(GUI画像)におけるポイント位置に変換する。そして、このポイント位置に応じて所要の情報処理が実行されるようにしている。これによっては、ユーザが表示画面に直接触れるようにしてGUI画面に対する操作を行えば、この操作に応じた情報処理が実行されることになる。つまりは、情報処理装置に対して撮像装置を備えることで、タッチパネル的な操作を可能としている。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態について説明を行っていくこととする。以降の説明は次の順序で行う。
1.システム外観例
2.パーソナルコンピュータの構成例
3.疑似タッチパネル操作
3−1.撮像画像に基づくポインティング操作に必要な処理
3−1−1.表示画面枠の指定
3−1−2.表示画面枠の台形補正
3−1−3.座標変換処理
3−2.音声信号に基づく疑似ボタン操作に必要な処理
3−2−1.音声信号の認識/解析処理例
3−2−2.解析結果に応じた状態遷移
4.疑似タッチパネル操作時の処理動作
4−1.画像/音声認識ドライバのソフトウェア構成例
4−2.フローチャートによる処理動作例
5.変形例(ポインティング操作のみによる疑似タッチパネル操作)
【0016】
1.システム外観例
図1は、本実施の形態としてのシステムの外観例を斜視図により示している。
この図1に示すパーソナルコンピュータ10は、本発明の実施の形態としての情報処理装置とされる。この図では、パーソナルコンピュータは、いわゆるノートブック型とされており、内蔵のディスプレイモニタとしては液晶ディスプレイが採用されている。そして、この液晶ディスプレイとしての表示画面17aとしては、特にタッチパネルを備えていない通常の構造とされる。しかしながら、本実施の形態では、以降説明していくようにして、カメラ部22により撮像される撮像画像、及びマイクロフォン23により収音される音声を利用することで、この表示画面17aに表示されるGUI画像に対して、ユーザが指やポイントペンなどのポインタを直接接触させるようにして入力操作を行うことを可能としている。
【0017】
このために、パーソナルコンピュータ10に対しては、例えば図示するようにして、外付けのカメラ部22を、取り付け具22−1によって取り付けるようにされる。そして、このカメラ部22は、撮像画像として、表示画面17a全体が収まるようにして固定して配置される。
このカメラ部22としては、カラー画像を撮影可能な構造を有しているものとされる。そして、例えばCCD(Charge Coupled Device)などの撮像素子を採用した小型のものが採用されればよい。また、カメラ部22とパーソナルコンピュータ10とは、例えばケーブル22aにより、パーソナルコンピュータ10側の筐体に設けられている所定の入力端子と接続することで、カメラ部22にて得られた撮像画像の信号が、パーソナルコンピュータ10に入力されるようにする。なお、この場合の入力端子は、アナログ映像信号入力端子のほか、例えばUSB(Universal Serial Bus)端子やIEEE1394端子などのデータインターフェイス端子をはじめとして各種考えられるものであって、特に限定されるものではない。
【0018】
また、マイクロフォン23も同様にして、ケーブル23aにより、例えばパーソナルコンピュータ10側のオーディオ信号入力端子などの、マイクロフォン入力に対応した端子と接続するようにされる。これにより、パーソナルコンピュータ10により、マイクロフォン23により収音して得られた音声信号を入力することが可能になる。
ここで、本実施の形態では、ユーザが表示画面17aに対してポインタを直接接触させて操作したときに生じる音、例えば表示画面17aを叩いたり、擦ったりしたときの音をマイクロフォン23により収音する必要がある。このため、マイクロフォン23は、このような表示画面17a上で生じる接触音が的確に収音できるような位置に設置される。また、表示画面17a上で生じる接触音がより的確に収音されるべきことを考慮して、所要の指向性を有したマイクロフォン23を利用するようにしても良い。
【0019】
また、パーソナルコンピュータ10として、はじめから内蔵マイクロフォン23Aを備えたような構成を採っている場合には、外付けのマイクロフォン22に代えて、この内蔵マイクロフォン23Aを用いればよい。また、この点については、カメラ部22についても同様である。つまり、パーソナルコンピュータ10に対して予めカメラ部が取り付けられており、かつ、表示画面17a全体を撮像できるように配置できる取り付け構造が採られているのであれば、このような備え付けのカメラ部を利用してよいものである。
【0020】
また、この図1においては、本実施の形態の情報処理装置であるパーソナルコンピュータ10は、ノートブック型のパーソナルコンピュータであることとしているが、いわゆるデスクトップ型のパーソナルコンピュータとされていても構わないものである。また、このようなデスクトップ型とされる場合において、ディスプレイモニタとしては、液晶ディスプレイに限定されるものではなく、CRTとされても構わないものである。
【0021】
また、本発明としては、システム構成的にも図1に示した形態に限定されるべきものではない。
例えば、プロジェクタ装置とパーソナルコンピュータとを接続して、パーソナルコンピュータの画像をプロジェクタ装置によってスクリーンに表示させるシステムが知られているが、本発明としては、このようなプロジェクタ装置を備えたパーソナルコンピュータのシステムにも適用することができる。
図15は、このようなプロジェクタ装置によりコンピュータの画像表示を行うシステムに本発明を適用した場合の構成例が示されている。
この場合のパーソナルコンピュータ10は、例えばビデオ出力端子をプロジェクタ装置70のビデオ入力端子を接続するなどして、パーソナルコンピュータ10からの画像信号がプロジェクタ装置70に入力されるようにする。これにより、プロジェクタ装置70は、パーソナルコンピュータ10の表示画面17aに表示されるのと同じ画像をスクリーン71に対して拡大投射して表示させることになる。
【0022】
そして、この場合にもパーソナルコンピュータ10に対しては、カメラ部22とマイクロフォン23とを接続するようにしている。この場合、カメラ部22は、スクリーン71全体が撮像画像内におさまるようにして配置され、その撮像画像信号をパーソナルコンピュータ10に対して入力する。また、マイクロフォン23は、例えば後述するポインタとしての指し棒72の先端をスクリーン71に対して接触させて何らかの操作を行ったことで生じる「接触音」を収音可能な位置に設けられる。そして、収音した音声信号をパーソナルコンピュータ10に対して入力する。また、指し棒72は、スクリーン71を対象として操作を行うためのポインタであり、ユーザには、この指し棒72の先端部をスクリーン71上に直接接触させるようにしてGUI操作を行ってもらうこととしている。
そして、このようなシステム構成においても、以降説明していく図1のシステムの場合と同様に、カメラ部22により撮像されるスクリーン71の撮像画像、及びマイクロフォン23により収音される接触音の音声信号を利用することで、スクリーン71に表示される画像に対するポインタの接触操作に応じたGUIが実現可能となるものである。
【0023】
また、これら図1及び図15に示したシステムでは、カメラ部22及びマイクロフォン23とパーソナルコンピュータ10との接続をケーブルにより行っているが、例えば、既に知られている赤外線通信やブルートゥース通信などを利用して、無線により接続する構成とすることも考えられる。また、特に図15のシステムでは、パーソナルコンピュータ10とプロジェクタ装置70との間でのビデオ信号の入出力を無線により行うようにすることが考えられる。
【0024】
2.パーソナルコンピュータの構成例
図2のブロック図は、本実施の形態のパーソナルコンピュータ10の内部構成例を示している
この図において、CPU11は、例えばROM12においてファームウェアとして保持されているプログラム、及びHDD18に記憶されているOS(Operating System)、及びアプリケーションプログラム等をRAM13に展開したプログラムに従って各種の処理を実行する。また、RAM13にはCPU11が各種処理を実行するのに必要なデータ等も適宜保持される。
これら、CPU11、ROM12、RAM13は、後述するネットワークインターフェイス20、データインターフェイス21、及び入出力インターフェイス14などと共に、内部バス25により相互接続される。内部バス25は、例えば、PCI(Peripheral Component Interconnect)又はローカルバス等により構成される。
【0025】
入出力インターフェイス14は、これに接続される装置等と内部バス25との情報の授受を行うために設けられるもので、この場合には、キーボード15、マウス16、ディスプレイモニタ17、HDD18、メディアドライバ19、及びカメラ部22、マイクロフォン23(23A)などを接続することができることとしている。
【0026】
キーボード15及びマウス16から供給された操作信号は、入出力インターフェイス14からCPU11に出力するようにされている。CPU11では、例えばOSのプログラムの下で、これらキーボード15及びマウス16からの操作信号に応じた所要の処理を実行する。
なお、本実施の形態においては、カメラ部22から出力される撮像画像信号と、マイクロフォン23(23A)にて収音されて出力される音声信号との情報に基づいて、マウス16の操作に代わるGUI操作が可能なように構成される。
また、本実施の形態のパーソナルコンピュータ10がノートブック型とされる場合、このノートブック型においては、マウスに代わる操作子として、タッチパッドとクリックボタンを設けることが広く行われている。そこで、この図2には、図示していないが、これらタッチパッドやクリックボタンをマウス16に代えて入出力インターフェイス14に接続するようにしてもよいものである。
【0027】
また、ディスプレイモニタ17に対しては、入出力インターフェイス14を介して表示用の映像信号が出力され、これにより、ディスプレイモニタ17の表示画面17aには、画像が表示されることになる。
【0028】
また、入出力インターフェイス14には、記憶媒体としてハードディスクを備えたハードディスクドライブ(HDD)18が接続されている。CPU11は、HDD18のハードディスクに対してデータやプログラム等の記録又は読み出しを行うことができるようにされている。そして、書き込みデータ及び読み出しデータが、入出力インターフェイス14を介してHDD18と内部バス25側との間で伝送されることになる。
特に本実施の形態としては、HDD18に対して、画像/音声認識ドライバ18aがインストールされて記憶されている。この画像/音声認識ドライバ18aは、後述するようにして、ユーザがディスプレイモニタ17の表示画面17aに対して行う接触操作を、カメラ部22からの撮像信号と、マイクロフォン23からの音声信号に基づいて入力操作情報として扱うための処理を実現するアプリケーションプログラムである。
【0029】
また、メディアドライバ19は、例えば現状であれば、CD−ROMやDVDなどをはじめとして、特定種別のメディアに対応するドライバとされ、対応するメディアに対してのデータの読み出し/書き込みを実行する。このための制御もCPU11が実行すると共に、書き込みデータ及び読み出しデータが、入出力インターフェイス14を介してHDD18と内部バス25側との間で伝送される。
【0030】
また、この場合のカメラ部22は、例えば図1により説明したようにして設けられているもので、例えば撮像素子としてCCDを備えた撮像装置とされる。そして、このカメラ部22により撮像された画像の信号である撮像画像信号は、入出力インターフェイス14を介して入力されることになる。
マイクロフォン23(又は内蔵のマイクロフォン23A)もまた、図1に示したようにしてパーソナルコンピュータ10に対して設けられるものである。このマイクロフォン23により収音された音声の音声信号は、入出力インターフェイスを介することで、デジタルオーディオ信号として入力されることになる。
【0031】
ネットインターフェイス20は、所定のネットワークを介して通信を行うためのインターフェイスであり、例えば、電話回線を利用したインターネットとの接続に対応するのであればハードウェアとしてはモデムなどが備えられる。また、LAN(Local Area Network)などのネットワークなどを介したものであればEthernetなどのインターフェイスとなる。
【0032】
データインターフェイス21は、例えばSCSI、USB、IEEE1394などに代表される、ケーブル接続による外部周辺機器との通信のためのインターフェイスとされる。なお、上記したカメラ部22などは、このデータインターフェイス21に対して接続されても良い。
【0033】
ところで、前述のようにしてHDD18にインストールされるべき、画像/音声認識ドライバ18aは、後述する機能を実現するための方法手順がプログラムとして格納されているアプリケーションプログラムとされる。そして、これら画像/音声認識ドライバ18aとしてのアプリケーションプログラムは、フロッピーディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet Optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブルな記録媒体に対して、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブルの記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
そして、このようなリムーバブルな記録媒体を、例えばパーソナルコンピュータ10のメディアドライバ19に装填して再生することで、パーソナルコンピュータ10のHDD18に対してインストールするようにされる。
なお、上記のようにしてリムーバブルな記録媒体を利用してアプリケーションプログラムをインストールするほか、他の情報処理機器からパーソナルコンピュータ10に対してアプリケーションプログラムを無線で転送したり、LAN、インターネットといったネットワークを介して、サーバからパーソナルコンピュータ10にオンラインで転送し、パーソナルコンピュータ10では、そのようにして転送されてくるアプリケーションプログラムを受信し、HDD18にインストールするようにすることもできる。
【0034】
3.疑似タッチパネル操作
3−1.撮像画像に基づくポインティング操作に必要な処理
3−1−1.表示画面枠の指定
周知のように、GUIに対する操作としては、マウス(及びタッチパッド、クリックボタンなど)などをはじめとするポインティングデバイス(操作装置)を操作することが一般的である。これに対して本実施の形態では、このようなポインティングデバイスによる操作に代えて、表示画面に直接触れるようにして行うポインティング操作によりGUI操作が実現されるようにするものである。つまり、タッチパネル的な操作を実現する。しかも本実施の形態では、表示画面がタッチパネルの構造を有していなくとも、表示画面17aを撮像するカメラ部22の撮像画像と、表示パネルに対する各種のタッチ操作により生じる音をマイクロフォン23(23A)にて収音して得た音声とについて、後述するような認識処理を実行することで、上記したタッチパネル的操作を実現するものである。なお、本実施の形態におけるようなタッチパネル的操作については、以降においては「疑似タッチパネル操作」ともいうことにする。
【0035】
そして、本実施の形態の「疑似タッチパネル操作」であるが、表示画面17aを撮像した撮像画像の認識に基づく操作入力は、マウスによるカーソル移動操作、つまり「ポインティング操作」としての機能を有する。また、表示画面17aにて得られる接触音の認識に基づく操作入力は、マウスのボタン操作としての機能を有する。つまり、「疑似ボタン操作」を実現する。なお、本実施の形態としての説明においては、この「疑似ボタン操作」として、マウスの左ボタン操作(DOS/V系)としての機能を与えることとしている。
【0036】
そこで先ず、本実施の形態の「疑似タッチパネル操作」として、「ポインティング操作」から説明を行っていくこととする。
本実施の形態の「疑似タッチパネル操作」としてのポインティング操作(カーソル移動操作)を実現するためには、以下の処理が必要となる。
つまり、
(1)表示画面17aを撮像して得られる撮像画像内の表示画面17aの表示領域を認識し、
(2)撮像画像内におけるどの画像領域がポインタであるのかを認識し、
(3)さらに認識したポインタの指し示すポインタ位置としての点座標を認識し、 (4)この認識したポインタ位置の座標を表示画面に実際に表示されているGUI画像上の座標情報に変換する。
という処理である。そして、処理(4)により得られた座標情報がOSに渡されれば、OSではその座標情報に応じてカーソル移動制御を行うようにされるわけである。
なお、上記処理(3)でいう「ポインタ」とは、表示画面17aを実際に接触操作する物理的なものをいい、具体的にはユーザの指や、ユーザが保持して使用する例えば棒状のポインタペンなどが挙げられる。
【0037】
そして、処理(1)としての「表示画面17aを撮像して得られる撮像画像内の表示画面17aの表示領域を認識」するためには、次に図3にて説明する初期設定を予め行っておくようにされる。
【0038】
図3には、撮像画像内の表示画面17aの表示領域を認識させるための初期設定の手順が示されている。なお、この初期設定は、画像/音声認識ドライバ18aのプログラムの下で行われる。
ユーザは、例えば所定操作によって初期設定モードとする。なお、この初期設定時の操作は、マウスなどのポインティングデバイスを使用すればよい。
初期設定モードとされると、パーソナルコンピュータ10の表示画面17aには、図1に示したようにして配置されるカメラ部22の撮像画像が表示されるようになる。このとき、ユーザは、この表示画面17aに表示される撮像画像を見ながら、図3(a)に示すようにして、表示画面17aにおいて、パーソナルコンピュータ10の表示画面17aの全体が表示されるようにその配置位置や向きを調節する。つまり、表示画面17a内に、パーソナルコンピュータ10の画像であるPC画像部分10−1として、表示画面17aの画像である表示画面領域17a−1を表示させるものである。
【0039】
上記のようにして、図3(a)に示したような画像状態が得られたら、ユーザは、画隅指定のための所定操作を行うようにされる。すると図3(b)に示すようにして、表示画面17aには、画隅指定カーソルCR1が表示される。ユーザは、この画隅指定カーソルCR1に対して例えばドラッグ操作を行って、この画隅指定カーソルCR1の頂点部を、表示画面領域17a−1の左上角に位置させて、例えば決定操作を行う。
【0040】
続いては、図3(c)に示すようにして、次の画隅指定カーソルCR2が表示されるので、ユーザは、同様にしてこの画隅指定カーソルCR2をドラッグして、その頂点部を表示画面領域17a−1の右上角に位置させて決定操作を行う。
さらに続いては、図3(d)に示すように表示される次の画隅指定カーソルCR3をドラッグして、その頂点部を表示画面領域17a−1の右下角に位置させて決定操作を行う。
そして、続いては、図3(e)に示すようにして最後の画隅指定カーソルCR4が表示されるので、この画隅指定カーソルCR4をドラッグして、その頂点部を表示画面領域17a−1の左下角に位置させて決定操作を行うようにされる。
【0041】
このようして、表示画面領域17a−1の4つの角部を、各画隅指定カーソルCR1〜CR4により指定したことによっては、図3(f)に示すようにして、撮像画像上における、表示画面領域17a−1の各頂点a,b,c,dの座標位置が把握されたことになる。これは、表示画面領域17a−1の形状が、四角形の「枠情報」として認識されたことを意味する。
【0042】
3−1−2.表示画面枠の台形補正
ところで、カメラ部22の配置位置の関係上、必ずしも表示画面17aは正面から撮影されない。このため、上記図3(f)に示したようにして認識されるこの表示画面領域17a−1の四角形形状(枠情報)として、も、長方形や台形などの整った形ではなく、より歪んだ形状となっている場合がほとんどである。
本実施の形態では、表示画面領域17a−1(枠情報)上の座標を実際の表示画面17a上の座標に変換する座標変換処理を実行することで、表示画面17a上での実際のポインタのポイント位置を特定するようにされるが、上記のような表示画面領域17a−1の四角形形状(枠情報)を利用してそのまま座標変換処理を実行しようとすると、そのための演算処理も複雑となってかえって正確さが失われることにもなる。
そこで、本実施の形態では、次に説明するようにして表示画面領域17a−1の四角形形状(枠情報)についての補正処理を行う。
【0043】
図4は、上記した補正処理を模式的に示している。
図4(a)には、図3により説明した画隅指定操作によって認識された枠情報が示されている。つまり、図3(f)に示したものと同様の表示画面領域17a−1としての四角形形状が示されている。
この場合において、この図4(a)に示される枠情報は、上記した理由によって、歪みのある四角形形状となっているものとし、例えばこの図4(a)に示される枠情報において、横方向の辺abと、これに対向する辺cdとは平行ではない状態にあるものとされる。また、同様にして、縦方向の辺adと、これに対向する辺bcとは平行ではない状態にあるものとする。
【0044】
そして、本実施の形態では、枠情報の辺abを上底、辺cdを下底としてして定めたうえで、この2つの辺が平行となるようにして補正する。つまり、枠情報を台形化するようにして補正するものである。これにより、図4(a)に示される枠情報(四角形abcd)は、例えば図4(b)の破線による四角形ABCDとして示すようにして、台形となるように形状が変更される。
具体例として、補正前の枠情報の各頂点を
a(xa,ya)、b(xb,yb)、c(xc,yc)、d(xd,yd)
とし、補正後の枠情報である補正枠情報の各頂点を
A(XA,YA)、B(XB,YB)、C(XC,YC)、D(XD,YD)
として、
YA=YB=(ya+yb)/2、YC=YD=(yc+yd)/2
の関係が成立するようにして形状補正を行うようにされる。ただし、条件として、
XA=xa、XB=xb、XC=xc、XD=xd
の関係を満たすこととして、座標変換結果に誤差が出ないようにしているので、台形化補正された補正枠情報の形状としては、必ずしも辺AD=辺BCとなるいわゆる等脚台形にはならない。
以上、図3及び図4により説明したようにして、枠情報を認識し、この枠情報について台形化の補正処理を実行することで、処理(1)としての撮像画像内の表示画面17aの表示領域(枠情報)の認識が行われたこととなる。
【0045】
3−1−3.座標変換処理
上記のようにして枠情報の認識が行われ、この後の通常モードにおいてポインタ(指、ポイントペンなど)により操作が行われた場合には、そのポインタの指し示すポイント位置の座標を認識し、さらにこのポイント位置の座標を実際の表示画面17aにおける座標に変換する座標変換処理を行うことになる。つまり先に記した処理(3)(4)を実行する。そしてここでは、処理(4)に対応する座標変換処理について図5〜図7を参照して説明する。
なお、処理(4)としての座標変換処理を実行するためには、先の処理(2)として記したように、撮像画像内におけるどの画像領域がポインタであるのかを認識したうえで、さらに処理(3)として記したように、撮像画像上の枠情報に対するポインタのポイント位置を認識することが必要となるが、これについては後述することとして、ここでは、ポインタのポイント位置の認識処理が既に適正に行われていることを前提として説明する。
【0046】
ここで、図5(a)には、図4にて説明したようにして得られた補正枠情報が示されている。そして、ユーザの表示画面17aに対するポインタの操作によって、input(xin,yin)という座標(図において×印で示す)が得られたとする。この座標input(xin,yin)は、例えば撮像画像の有効表示領域内にて検出された画像位置としての座標(画像内座標)である。
そして、本実施の形態としての処理(4)によっては、この画像内座標input(xin,yin)を、図5(b)に示すようにして、実際にGUI画像が表示されている表示部17a上の実座標output(xout,yout)に変換することになるが、この図5によっては、先ず、y座標を変換する場合を説明する。
この場合、実座標のy座標(yout)は、図5(a)に示される補正枠情報としての台形の高さheight_imgと、図5(b)に示される表示画面17aの縦方向の幅height_dspとの比率により求めることができる。つまり、実座標のy座標(yout)は、
yout=(yin-YA)*height_dsp/height_img・・・(式1)
として示される式によって算出することができる。
【0047】
続いては、x座標を求めることになるのであるが、このためには、先ず、補正枠情報と表示画面17aとのx軸方向(横方向)の位置を、所定の基準線に対して合わせるようにされる。図6は、この基準位置合わせについて模式的に示している。
先ず、図6(b)に示される表示画面17aは、頂点W,X,Y,Zから成る長方形として示されるが、この表示画面17aの基準線としては、辺WXの中点M0と、辺ZYの中点M1を結ぶ中線M0-M1とすればよい。
【0048】
これに対して図6(a)に示す補正枠情報の基準線XNであるが、この補正枠情報としての台形は、前述もしたように必ずしも等脚台形ではない。そこで、補正枠情報の辺AB上の点N0と、辺CD上の点N1とを結んで形成されるべき基準XNとしては、当該補正枠情報の頂点A,B,C,Dの各x座標(XA,XB,XC,XD)を用いて、
XN=(XA+XB+XC+XD)/4・・・(式2)
で表される式により求めるようにされる。
【0049】
そして、上記のようにして補正枠情報の基準線XNを求めた上で、画像内座標のx座標(xin)から実座標のx座標(xout)への変換を行うようにされる。図7は、このx座標の変換を模式的に示すものである。
【0050】
ここで、補正枠情報である台形ABCDにおいて、y座標(yin)を通過する高さ位置における幅をwidth_imgとすると、実座標のx座標(xout)は、この台形ABCD(補正枠情報)の幅width_imgと、表示画面17aの横方向の幅width_dspとの比率により決定するといえる。
しかしながら、補正枠情報である台形ABCDの幅width_imgは、y座標(yin)の値によって可変となってしまうので、次のようにして算出することとした。
つまり、辺DA上にある点についてのy座標(yin)のときのx座標を「x0」とし、辺BC上にある点についてのy座標(yin)のときのx座標を「x1」として、
x0=(XD-XA)*(yin-YA)/height_img+XA
x1=(XB-XC)*(yin-YA)/height_img+XC
width_img=x1-x0・・・(式3)
として表される式により求めるようにされる。そして、このようにして求めたwidth_imgの値を利用すれば、実座標のx座標(xout)については、
xout=(xin-XN)*width_dsp/width_img+width_dsp/2・・・(式4)
のようにして算出できることになる。
このように、図5〜図7により説明したようにして演算処理を行えば、撮像画像における表示画面領域17a−1内の画像内座標input(xin,yin)を、現実の表示部17a上の実座標output(xout,yout)に変換することができる。
なお、これら図5〜図7により説明した座標変換の処理は、あくまでも一例であって、例えば他の演算式を用いた処理とされても構わないものである。
【0051】
3−2.音声信号に基づく疑似ボタン操作に必要な処理
3−2−1.音声信号の認識/解析処理例
続いては、本実施の形態の「疑似タッチパネル操作」として、「疑似ボタン操作」についての説明を行うこととする。
本実施の形態における「疑似ボタン操作」とは、前述もしたように、ユーザが、表示画面17aに対してポインタを直接接触させながら操作を行うことに伴って発生する接触音に基づいて、マウスの左ボタン操作に対応する操作情報を発生させるものである。このためには、
(1)マイクロフォン23にて収音された音声のうちから、上記したポインタ操作による「接触音」としての音声信号成分を認識する音声信号成分認識処理、
を行う必要がある。この音声信号成分認識処理によって、例えば「接触音」と、ユーザの発話音声などの他の音声信号成分と区別することができるものである。そして、このようにして「接触音」の音声信号成分を認識したうえで、
(2)ユーザのポインタ操作によって生じる接触音の発生状態について解析を行う解析処理、
を行うようにされる。つまり「接触音」の発生状態を認識し、この認識結果に応じて、マウスの左ボタン操作としてどのような操作が行われたものとするのかを決定する。
【0052】
先ず上記処理(1)としての音声信号成分認識処理であるが、本実施の形態としては、予めの初期設定で、「接触音」としての音声信号成分の周波数帯域特性を、解析処理に用いるべき音声信号成分として登録しておくこととする。
例えばユーザは、所定操作によって、解析処理に用いるべき音声信号成分を登録するための登録モードを設定する。そして、この登録モードの下で、ユーザは、少なくとも、表示画面17aを叩いたり、また、表示画面17aを擦るなどして音を出す。このようにして出てくる音は、マイクロフォン23にて収音されてパーソナルコンピュータ10に入力される。パーソナルコンピュータ10では、画像/音声認識ドライバ18aのプログラムに従ってその周波数帯域特性を検出し、この検出した周波数帯域特性を、解析処理に用いるべき音声信号成分として登録するようにされる。
そして、表示画面17aに対して実際にポインタによる接触操作が行われているときには、この接触操作によって生じる接触音がマイクロフォン23によって収音されて音声信号として取り込まれることになるが、パーソナルコンピュータ10では、この音声信号に対して、上記のようにして登録された周波数帯域のみを通過させるようにしてフィルタ処理を施す。これにとって接触音としての音声信号成分のみが抽出される。つまり、処理(1)としての音声信号成分認識処理を行ったこととなる。
【0053】
そして、上記処理(2)としての解析処理は次のようにして実行される。この解析処理を、図8により模式的に示す。
例えばパーソナルコンピュータ10では、ユーザの表示画面17aに対する接触操作により生じた「接触音」の音声信号成分を、マイクロフォン23から入力された音声信号から分離抽出する。そして、この音声信号成分を解析するのにあたっては、接触音の音声信号成分のレベルに対して、2種類の閾値を設定する。つまり、図8(a)に示すようにして、0レベルを基準として、所定の絶対値レベルによる第1の閾値±th0と、この第1の閾値±th0よりも大きいとされる所定の絶対値レベルによる第2の閾値±th1を設定する。
この場合、図8(a)の右側に示されているように、第1の閾値±th0より小さな絶対値レベルの範囲は、「接触音」は無音状態であるものとして認識する。また、第1の閾値±th0以上で、かつ、第2の閾値±th1よりも小さな絶対値レベルの範囲では、「接触音」は弱音であるものとして認識する。さらに、第2の閾値±th1以上の絶対値レベルは強音であるとして認識する。
【0054】
図8(a)に示す波形は、ユーザが表示画面17aに対して接触操作を行ったことで得られた接触音の音声信号成分とされる。パーソナルコンピュータ10では、この接触音の音声信号成分のレベルについて、第1の閾値±th0及び第2の閾値th1と比較を行うようにされる。
例えば、この図8(a)に示す波形として、区間Aでは、第1の閾値±th0と第2の閾値th1の間にピークレベルが得られている。そこで、この場合には図8(b)に示すようにして、接触音として弱音が発生したと判定することになる。また、区間Bにおいては第2の閾値th1以上のピークレベルが得られているので、接触音として強音が発生したと判定する。また、区間Cにおいても、第1の閾値±th0と第2の閾値th1の間にピークレベルが得られていることから、弱音が発生したと判定することになる。また、区間Aと区間Bとの間、及び区間Bと区間Cとの間は、0レベル若しくは第1の閾値±th0より小さな絶対値レベルの波形となっているので、無音であるとして判定される。
このようにして、本実施の形態の接触音についての解析としては、接触音のレベルについての判定を行うものとしている。
【0055】
また、このような接触音レベルと閾値との比較は所定の時間tごとに行われるものとされ、この時間tごとの区間で、無音、弱音、強音の三段階の判定を行うようにされる。従って、図8(b)によると、区間Aでは、時間t×2の時間長で弱音であることを判定した場合が示されていることになる。また、区間Bでは、時間t×4の時間長にわたって強音であることを判定した場合が示されている。さらに区間Cでは、時間t×9の時間長にわたって弱音であることを判定していることになる。本実施の形態では、このような音レベルの判定の時間長も解析結果の1つとして扱われる。
【0056】
3−2−2.解析結果に応じた状態遷移
そして、上記図8(a)(b)により説明したようにして得た、接触音についての解析結果に基づいては、例えば図9に示すようにしてマウスの左ボタンへの対応がとられる。図9には、接触音の発生状態に応じてのマウス左ボタン操作の状態遷移が示される。
例えば先ず、接触音の入力を待機している状態で、無音状態とされている場合には、ステップS1に示すように無反応の状態で何のアクションも起こさない。そして、例えばこのステップS1の状態のもとから、弱音の発生したことが判定されると、ステップS2として示すように、マウスの左ボタンを押した状態に遷移することになる。そして、例えばこの弱音の発生が所定時間以内に終了して無音の状態に変化したとすれば、ステップS3に示すようにして、左ボタンを離した状態に遷移する。つまり、短時間とされる所定期間内において弱音が発生したとされる場合には、上記ステップS2→S3の処理が実行される結果、マウスの左ボタンを短時間のうちに押して離す操作が行われたとして扱うことになる。つまり、ワンクリックの動作が得られたものとして扱う。図8においては、例えば区間Aとしての解析結果がこれに対応する。つまり、時間t×2という比較的短時間において弱音が発生していることで、図8(c)に示すように、この区間Aは、クリック操作が発生しているものである。
【0057】
これに対して、ステップS2でマウスの左ボタンを押したとしてアクションを起こした状態から、弱音がそのまま或る時間以上継続したとされる場合には、ステップS4に示すようにして、マウスの左ボタンを押したままの状態が継続されているものとして扱う。そして、このステップS4に対応する状態として、ユーザが表示画面17a上に対してポインタを接触させながら移動させているのであれば、これがドラッグ操作とされることになる。そして、このステップS4の状態のもとで無音に変わったとすれば、ステップS3として示すように、左ボタンが離されたとする状態に遷移し、例えばこれまでドラッグ操作を行っていたとすれば、このドラッグ操作が解除される。
なお、図8の場合には、このようなドラッグ操作は、区間Cが対応することになる。この区間Cでは、弱音が時間t×9という比較的長時間にわたって継続されており、従って、図8(c)に示すようにしてドラッグ操作が発生することになる。
【0058】
また、ステップS2により左ボタンを押していたとされる弱音発生の状態から、強音に変化したとされる場合には、ステップS5に遷移し、ダブルクリックが行われたものとして扱うことになる。なお、このステップS5の状態の後、強音が継続する、または、弱音に変化したとしてもステップS6に示すようにして、無反応の状態に遷移するようにして、ダブルクリック操作が確実に行われるように配慮している。また、この後、無音の状態となれば、ステップS1としての無反応の状態に遷移する。
【0059】
また、ステップS1の無音に対応した無反応の状態の下で、強音の状態に変化したとされると、ステップS7に遷移してダブルクリックが行われたものとみなすことになる。そして、この場合にも、その後において強音が継続する、または、弱音に変化したとしてもステップS8として示すように、無反応の状態に遷移させるようにしている。また、ステップS8の状態から無音の状態に戻れば、ステップS1としての無反応の状態に遷移させるようにしている。
なお、図8において、上記ステップS5若しくはステップS7のダブルクリック操作は、区間Bが対応することになる。区間Bでは、時間t×4の期間にわたって強音が発生しているが、例えば最初の時間t×2の期間に対応してダブルクリック操作が発生している。そして残る以降の時間t×2の期間に対応しては無反応の状態としているものである。
【0060】
本実施の形態では、例えば上記図8及び図9により説明した接触音の解析と、この解析結果に基づいたマウスの左ボタン操作としての状態遷移を実行することで「疑似ボタン操作」を実現するものとしているのであるが、これは、具体的には、次のような態様によって接触操作を行ってもらうことを想定しているものである。
ユーザのポインタを用いた表示画面17aに対する接触操作として、接触音が発生するような操作がどのようなものであるのかを考えてみると、おおきくは、表示画面17a上を叩く操作と、表示画面17a上を擦るようにして移動させる操作とに分けることができる。表示画面17a上を叩いた場合には、その叩く強さに応じた大きさの打音が生じることになるし、表示画面17a上をポインタにより擦る場合には、表示画面17aをポインタがすることで、或る程度の大きさの摺音が生じることとなる。
【0061】
そこで、先ず、クリック操作については、ユーザには、表示画面17aを軽く叩くようにしてもらうこととする。これによって、接触音としては、短い弱音が生じることとなって、例えば先の図9のステップS2→S3の流れにより説明したようにしてクリック操作を発生させることができる。
また、ドラッグ操作は、上記のようにして表示画面17a上のドラッグ開始位置を軽く叩くようにしてポインタを接触させ、この接触した状態のまま、ポインタをドラッグさせたいとする任意の方向に移動させることとする。このようにすれば、先ず、ドラッグ開始位置を軽く叩くことで打音としての弱音が生じ、続いては表示画面17a上を擦ることによる弱音が発生することになるので、図9のステップS2→S4の流れによるドラッグ操作としての状態遷移を得ることができる。
そして、ダブルクリック操作は、表示画面17a上を強く叩いてもらうこととする。この場合、接触音としては強音が発生することになるので、図9のステップS7、若しくはステップS5により説明したダブルクリック操作への状態遷移が得られるものである。
【0062】
なお、上記のようにして、ユーザに行ってもらうべき操作に応じて左ボタンクリック操作をシミュレートすることを前提とすれば、図8に示される無音・弱音・強音を判定するための第1の閾値±th0、及び第2の閾値th1は、ユーザによって任意に可変設定できるようにすることが好ましい。
つまり、表示画面17aを叩いたり、擦ったりするときに出てくる接触音の音量はユーザごとに異なるものであり、また、マイクロフォン23の感度も、実際に使用されるマイクロフォンとしての装置に応じて異なってくる。また、表示画面17aとしての表面の材質などの物理的構造によっても接触音の音量は異なってくるものである。そこで、このような条件の相違に応じて、ユーザにとって最も操作しやすい状態が得られるように、第1の閾値±th0及び第2の閾値±th1を設定すれば、より正確な操作に対する反応が得られることになる。
【0063】
4.疑似タッチパネル操作時の処理動作
4−1.画像/音声認識ドライバのソフトウェア構成例
続いては、これまでの説明を踏まえて、実際の疑似タッチパネル操作(ポインタによる表示画面17aに対する接触操作)に対応した処理動作について説明を行っていくこととする。
そこで先ず、本実施の形態の疑似タッチパネル操作を実現するためのプログラムである、画像/音声認識ドライバ18aのプログラム構成について図10を参照して説明しておくこととする。
【0064】
図10は、画像/音声認識ドライバ18aのプログラム構成を模式的に示している。そして、画像/音声認識ドライバ18aとしては、この図10に示すようにして、おおきくは画像/音声認識モジュール部30と、マウスインターフェイスアプリケーション60とに分けられる。
【0065】
そしてまた、この画像/音声認識モジュール30としては、音声認識モジュール部40と画像認識モジュール部50とから成る。
音声認識モジュール部40は、マイクロフォン23(23A)から入力された音声信号を取り込んで、例えば図8に示した接触音についての解析処理を実行するためのプログラム部分である。このために、オーディオキャプチャモジュール41、オーディオ解析モジュール42を備える。
【0066】
オーディオキャプチャモジュール41によっては、マイクロフォン23(23A)から入力されたアナログ音声信号について、解析処理に適合する所要の形式のオーディオデータに変換し、オーディオ解析モジュール42に渡す。
オーディオ解析モジュール42によっては、図8により説明した解析処理を実行する。つまり、オーディオキャプチャモジュール41から受け取ったオーディオデータから、予め登録された接触音の周波数特性の信号成分を抽出するためのフィルタ処理を実行する。続いて、このフィルタ処理によって抽出された接触音の周波数信号成分のレベルについて、時間tごとの間隔で以て、予め設定された第1の閾値±th0及び第2の閾値±th1との比較を行って、無音、弱音、強音の3段階による判定を行う。そして、このようにして時間tごとに判定される無音、弱音、強音についての判定結果をマウスインターフェイスアプリケーション60のボタン操作発生モジュール62に対して渡す。
【0067】
また、画像認識モジュール部50は、カメラ部22から入力された撮像画像としての画像信号について認識処理を行ってポインタの座標情報を取得する機能を与えるもので、このために、ビデオキャプチャモジュール51、座標変換モジュール52としてのプログラムにより構成される。
ビデオキャプチャモジュール51は、カメラ部22から入力された撮像画像のビデオ信号を取り込み、所要の形式によるフレーム単位のビデオデータに変換する。そして、このビデオデータをRAM13の所定領域にフレーム単位で書き込みを行う。
そして座標変換モジュール52によっては、上記のようにしてフレーム単位でRAM13に書き込まれたビデオデータから、例えば図3に示した枠情報の認識を行い、さらに、図4に示した枠情報の台形補正処理を行うようにされる。そのうえで、先ず、後述するようにしてポインタの先端位置を認識する。ポインタの先端位置とは、即ちポインタとしての指やポインタペンの先端位置であって、実際には、ポインタが指し示す表示画面17a上の位置に対応する。なお、ポインタ先端位置の認識処理については後述する。
そして、このようにして撮像画像上でのポインタ先端位置(画像内座標:図5(a)参照)が認識されると、図5〜図7にて説明したようにして所定の演算処理を行って、実際の表示画面17a上の座標(実座標:図5(b)参照)に対応させるための座標変換処理を実行する。この座標変換処理によって得た座標の情報は、マウスインターフェイスアプリケーション60におけるカーソル位置情報発生モジュール63に対して渡すようにされる。
【0068】
このようにして、画像/音声認識モジュール30からマウスインターフェイスアプリケーション60に対しては、音声認識モジュール40からのオーディオ信号の解析結果と、画像認識モジュール部50からの座標変換処理によって得られ座標情報とが受け渡されることになる。
そして、マウスインターフェイスアプリケーション60内のボタン操作情報発生モジュール62によっては、画像/音声認識モジュール30から受け取った解析結果に基づいて、接触音についての無音・弱音・強音の発生の状態遷移を認識し、この認識結果に応じて、図9に示したようにして、マウスの左ボタンの押圧/解除としての操作情報に変換し、操作情報伝達モジュール61に受け渡す。
また、マウスインターフェイスアプリケーション60内のカーソル位置情報発生モジュール63によっては、画像認識モジュール部50から受け取った座標情報を、現在のカーソル位置の座標として設定するための処理を実行し、このカーソル位置座標の情報を操作情報伝達モジュール61に渡す。
【0069】
操作情報伝達モジュール61によっては、上記のようにして受け渡されたマウスの左ボタンの押圧/解除の操作情報と、カーソル位置の座標を、OSが処理可能な操作情報に変換して、OSに受け渡すようにされる。OSでは、この操作情報を受け取ることで、GUI上でのカーソル移動表示、及びクリック、ダブルクリック操作に応じた表示の変更、及び所要の情報処理を実行する。例えばクリックに応じたGUI上でのアクティブウィンドウの切り換えや、ダブルクリックに応じたファイルのオープンや、アプリケーションの起動などを行う。
【0070】
4−2.フローチャートによる処理動作例
続いては、上記図10に示したプログラム構造による画像/音声認識ドライバ18aに基づく処理動作として、ユーザが表示画面17aに対して疑似タッチパネル操作を行っているときに対応した処理を、図11〜図14を参照して説明する。
【0071】
図11は、疑似タッチパネル操作時に対応した画像/音声認識ドライバ18aに従った処理として、図10により説明した画像認識モジュール50、音声認識モジュール40、マウスインターフェイスアプリケーション60がそれぞれ実行すべき処理を並列的に示している。なお、確認のために述べておくと、図11に示す処理は、CPU11が画像/音声認識ドライバ18aとしてのプログラムに従って実行するものとなる。
【0072】
ここでは先ず、画像認識モジュール50に従った処理から説明する。ここでは先ず、ビデオキャプチャモジュール51の処理として、ステップS101に示すように、ビデオ信号についての取り込み処理を実行する。つまり、カメラ部22から入力される撮像画像のビデオ信号を、以降のポインタ検出及び座標変換処理に適合する所定形式による画像データに変換して、例えばRAM13の所定領域に対して、フレーム単位で順次書き込みを行っていく。
【0073】
続くステップS102以降の処理は、座標変換モジュール52に従った処理となる。
ステップS102においては、上記のようにしてRAM13に書き込まれたフレーム単位の撮像画像のビデオ信号から、ポインタを検出する。なお、ここでいうポインタとは、これまでの説明からも分かるように、ユーザが表示画面17aに対する疑似タッチパネル操作を行うのに使用すべき物理的存在であり、例えば、ユーザ自身の指、若しくは細い棒状のポインタペンなどである。また、ここでのポインタの検出とは、最終的には、撮像画像上においてポインタにより指し示す点としての位置、つまり、ポインタの先端部の位置(座標)を検出することをいう。
そして、このステップS102の処理は、例えば図12のフローチャートに示すようにして実行される。
【0074】
図12の処理についての説明を行うのにあたって、ポインタに関する初期設定について説明しておく。
図12に示すポインタの検出処理により適正にポインタが検出されるためには、予めポインタの色を把握していることが必要とされる。そこで、本実施の形態としての疑似タッチパネル操作を行うのに先立っては、初期設定時において、ポインタの色情報を登録するようにされる。
このためには、例えばユーザは、所定操作によってポインタ色情報の登録モードとする。この登録モードでは、カメラ部22による撮像画像をパーソナルコンピュータ10の表示画面17aに表示するようにしている。そして、この状態の下で、例えばユーザは、ポインタとして自身の指を使うのであれば、自身の指をカメラ部22により撮像して表示画面17aに表示させる。また、ポインタペンなどの物体をポインタとして使用するのであれば、このポインタペンが表示画面17aに表示されるようにする。
【0075】
そして、ユーザは上記のようにしてカメラ部22により撮像して表示画面17aに表示させているポインタの画像領域内に対して、色取得用のカーソルを配置させ、登録操作を行う。これにより、色取得用のカーソルが指し示していた位置の撮像画像領域の色情報が、ポインタ色情報として登録されることになる。例えばポインタがユーザの指なのであれば、この指についての肌色としての色情報が登録されることになり、また、ポインタがポインタペンであるとしてその色が青色であれば、その青色が色情報として登録されることになる。
【0076】
そして、図12に示すポインタ検出処理は次のようにして行われる。
先ず、ステップS401においては、RAM13に書き込まれたフレーム単位の撮像画像データについて、予め設定された所定の複数種類の色領域に分割する。
ここでいう「複数の色領域」とは、例えば図13に示すようにしてYUV(輝度・色差)色度空間上で表現される色を、複数の所定の領域ごとに区分して得られる複数の領域をいう。
【0077】
続くステップS402においては、上記ステップS401によって分割された色領域ごとに、前述のようにして登録されたポインタ色情報に対応する登録色領域との比較を行う。
登録色領域は、例えばポインタがユーザの指であるとして、前述のようにして登録されたポインタ色情報が或る肌色としての色情報とされている場合には、図13において斜線で示されるように、この肌色としてのポインタ色情報に対応した+Y、−U、−V象限における一定範囲の領域を、登録色領域Rとして設定する。なお、この登録色領域Rの設定は、例えばポインタ色情報の登録時に行われればよい。
【0078】
そして次のステップS403においては、上記ステップS402における比較結果として、撮像画像としてのフレーム画像領域内において、登録色領域Rが存在するか否かについて判別する。ここで、登録色領域Rは存在しないとして否定結果が得られた場合には、このまま当該ステップS102としてのルーチンを抜けるのであるが、設定色領域Rが存在するとして肯定結果が得られた場合にはステップS404に進む。
【0079】
ここで、ステップS403において肯定結果が得られる場合として、複数の異なる領域について、登録色領域Rが存在するとして判定される場合がある。このような場合には、これら複数の登録色領域Rのうち、或る1つの領域が実際にポインタを撮像して得られている登録色領域Rであると考えることができる。そして、本実施の形態では、判定された複数の登録色領域Rのうちで最大面積の登録色領域を、実際にポインタを撮像して得られた登録色領域Rとして特定することとした。このための処理がステップS404の処理となる。
【0080】
つまり、ステップS404においては、ステップS403において存在している物と判定された複数の登録色領域Rうちで、最大面積の登録色領域Rを検出する。そして、検出した登録色領域Rを、撮像画像内におけるポインタの画像部分領域(ポインタ領域)として設定する。
なお、ポインタ領域を認識するのにあたっては、他の認識方法を用いたり、また、上記ステップS404としての認識方法を含む、他の認識方法を併用してもよいものとされる。例えば、ポインタは必要に応じて表示画面17a上を移動するものであるから、必要に応じて動き検出処理を取り入れることなども考えられる。
【0081】
次のステップS405においては、上記のようにして検出されたポインタ領域についての、撮像画像データにおける座標範囲を取得する。
ここで、図14には、処理対象となっている撮像画像を示している。なお、この図においては、撮像画像内において、パーソナルコンピュータ10のPC画像部分10−1として、表示画面領域17aが表示されている状態が示されている。RAM13には、このような画像状態の画像データがフレーム単位で書き込まれ、処理対象とされていることになる。
そして、例えばポインタとしてユーザが自身の指を使用しているとした場合、上記ステップS404までの処理によっては、ユーザの手の画像GHとしての画像領域部分が、ポインタ領域の座標範囲として得られることになる。ここで、ユーザが指をポインタとして表示画面17aに対する接触操作を行っている場合、実際に指し示しているポイント位置となるのは、例えばユーザの人差し指の先端となるものである。従って、撮像画像上におけるポインタ領域の座標範囲からポイント位置としての点(座標)を特定するためには、この指先としての先端部Ptの位置(座標)を検出すればよいこととなる。ステップS405に続くステップS406は、このための処理となる。
【0082】
ここで、例えば実際のポインタ操作をユーザの指を例に考えると、ユーザは、例えば図14のユーザの手の画像GHを見ても分かるように、人差し指を上方向に向けた状態でポインティングの操作を行うことになる。なお、ポインタペンなどを使用する場合も、例えばポインタの先を上方向に向けるようにして操作を行うという点で同様である。そこで、ステップS406により先端部Ptの位置(座標)を求めるのにあたっては、次のような処理を実行させることとする。
先のステップS405において取得した座標範囲の情報によっては、例えば撮像画像内におけるポインタの形状を特定することができる。そして、この特定された形状を形成する座標値群のうちから、例えば撮像画像データ内において最も画面上側に存在する座標値を、先端部Ptの座標として取得するようにすることが考えられる。
あるいはまた、ポインタの座標範囲により特定される形状から、さらに、最も長く棒状に延びている画像部分の座標範囲を特定し、この棒状の画像部分を形成する座標値群のうちから、棒状の突端となる位置の座標を先端部Ptの座標として取得するようにすることも考えられる。
【0083】
説明を図11に戻す。
上記図12に示すステップS102としてのポインタ検出処理が実行された後は、ステップS103においてポインタが適正に検出されたか否かが判別される。つまり、ステップS102の処理によってポインタ領域及び先端部Ptの座標が検出されたか否かについて検出する。ここで、例えば先に図12に示した処理を実行した結果として、ステップS404以降の処理を実行しなかった場合には、ポインタが検出されなかったとして否定結果が得られることになる。この場合には、一旦この図に示す処理ルーチンを抜けて、再度ステップS101の処理に戻るようにされる。
これに対して、図12に示した処理としてステップS404以降の処理が実行されて最終的に座標先端部Ptの座標が得られていた場合には、ステップS103にて肯定結果が得られ、ステップS104に進むことになる。
【0084】
ステップS104においては、先の図12におけるステップS406によって取得された先端部Ptの座標(画像内座標)を、表示画面17aにおける座標(実座標)に変換する処理を実行する。このための処理については、図5〜図7により説明したとおりである。そして、次のステップS105においては、上記ステップS104にて実座標を取得したことに対応して、マウスインターフェイスアプリケーション60に対してイベントを発生させる。
【0085】
画像認識モジュール50に従った処理としては、例えばこのステップS101〜S105の処理をフレーム周期ごとに繰り返し実行するものである。これにより、例えば撮像画像内にポインタが存在していることが検出されている限りは、マウスインターフェイスアプリケーション60に対してイベントが投げられることになる。そして、例えばポインタが移動を行えば、この移動に応じて変換する実座標が取得されるごとにイベントが発生することになる。
【0086】
続いては、図11における音声認識モジュール40に従った処理について説明する。この処理は、図11における左側のステップS201〜S203の処理として示されている。
先ず、ステップS201においては、ビデオキャプチャモジュール41の処理として、オーディオ信号についての取り込み処理を実行する。つまり、例えばマイクロフォン23(23A)により収音されることで入力されてくるオーディオ信号について、必要があればデジタル信号への変換処理を実行したうえで、以降の解析処理に適合した所要のオーディオデータに変換する。そして、例えばRAM11に確保した作業領域に対して逐次書き込みを行っていくものである。
【0087】
そして、続くステップS202以降の処理がオーディオ解析モジュール42に従っての処理となる。ステップS202においては、図8により説明したようにして、解析処理を実行する。つまり、先ずは、入力されたオーディオデータについてフィルタリング処理を行って、予め設定された接触音の周波数帯域に対応する信号成分のみを分離抽出する。そして、この抽出された接触音の信号成分のレベルについて、予め設定された閾値(第1の閾値±th0及び第2の閾値±th1)との比較を行う。また、その比較結果として、無音、弱音、強音の三段階による解析結果を得るようにされる。なお、このような解析処理は、図8にても説明したように、所定の時間tごとのタイミングで行われる。
そして、次のステップS203により、上記ステップS202にて解析結果の情報(無音、弱音、強音)を得たことを示すイベントを、マウスインターフェイスアプリケーション60に対して発生させる。
【0088】
続いては、マウスインターフェイスアプリケーション60に従った処理動作について説明する。この処理は、図11において中央のステップS301〜S307の処理として示されている。
先ず、ステップS301〜S302の処理は、カーソル位置情報発生モジュール63に従っての処理となる。
ステップS301においては、画像認識モジュール50に従ってステップS105にて発生したとされるイベントを受け取るのを待機している。ここで、画像認識モジュール50からのイベントを受け取るまでは、ステップS302→S302の処理をスキップしてステップS303の処理に移行するようにされるが、ステップS301にてイベントを受け取ったとして肯定結果が得られた場合にはステップS302に進む。
【0089】
ステップS302においては、先のステップS104にて取得されたとするポインタの実座標の情報を取り込むための処理を実行する。そして、続くステップS303において、取り込みを行ったポインタの実座標の情報に対応させて、カーソル位置情報を発生させる。この後は、ステップS304に進むこととしている。
【0090】
ステップS304〜S306は、ボタン操作情報発生モジュール62に従った処理である。
ステップS304においては、音声認識モジュール40としての処理に従ってステップS203により発生したとされるイベントの受け取りを待機している。ここで、ステップS304において、イベントを受け取っていないと判別された場合にはステップS305→S306の処理をスキップしてステップS307の処理に移行する。これに対してステップS304においてイベントを受け取ったとして肯定結果が得られたのであればステップS305に進む。
【0091】
ステップS305においては、先のステップS202にて得られたとされる解析結果(無音、弱音、強音)について取り込みを行う。そして、次のステップS306の処理によっては、上記ステップS202により取り込んだ解析結果に基づいて、無音・弱音・強音の発生の状態遷移を認識したうえで、図9に示したマウスの左ボタンの押圧/解除としての操作情報を発生させる。そして、ステップS307の処理に移行する。
【0092】
ステップS307の処理は、操作情報伝達モジュール61に従っての処理となる。
つまり、ステップS307の処理は、上記ステップS303及びS306により発生したとされる、現在のカーソル位置情報及び左ボタン操作情報を、OSによって処理可能な構造のデータに変換して、OSに受け渡すための処理を実行する。この受け渡された情報に応じて、OS上では、GUI操作に対応した各種処理が実行されるのは、図10の説明において述べたとおりである。つまり、マウスの移動に相当する操作と、マウス左ボタン押圧/解除に相当する操作とに応じた処理を実行することになる。
【0093】
これまでの説明のようにして本実施の形態の疑似タッチパネル操作が実現されることで、例えば、タッチパネル付きの表示デバイスを用意しなくとも、表示画面に対して直接的に触れて操作を行う、タッチパネル的な操作が容易に実現されることになる。タッチパネル操作は、例えばマウス操作や、いわゆるウェアラブルコンピューティングの発想に基づいた操作とは異なり、直感的な操作であるので、より使い勝手の良いGUIに対する操作が行えることになる。
【0094】
そして、本実施の形態の場合において、このような疑似タッチパネル操作を実現するのにあたっては、ユーザは、画像/音声認識ドライバ18aをインストールした汎用的なパーソナルコンピュータと、カメラ装置及びマイクロフォンのみでよいこととなる。カメラ装置としては、例えばこれまでに広く普及しているパーソナルコンピュータ用のCCDカメラなどを流用すれば良く、また、マイクロフォンも従来から普及している一般のものを用いればよい。また、特にマイクロフォンについては、パーソナルコンピュータに内蔵されているのであれば、これを用いても充分に実用に耐えうる。このため、ユーザは、経済的負担をさほど気にすることなく、必要な機器を揃えることができる。例えば、タッチパネル付きのディスプレイ装置は、現状においては非常に高価であるが、本実施の形態の場合であれば、より手軽にタッチパネル的操作が行えるシステムを得ることができる。
【0095】
さらに本実施の形態においては、音声認識として表示画面17aに対する「接触音」を認識するようにしている。例えば、ユーザが発話した音声に応じてGUI制御を実行させる構成が知られているが、この場合には、ユーザは、不用意に発話することができないので、例えば操作中には会話などが充分にできないことになるが、本実施の形態の場合には、例えば発話音声とは、全く異なる周波数帯域特性等を有する「接触音」に基づいたGUI制御としていることで、上記のような問題は解消されることになる。
【0096】
5.変形例(ポインティング操作のみによる疑似タッチパネル操作)
ところで、上記した本実施の形態としての疑似タッチパネル操作では、ユーザのポインタによるポインティング操作をマウスの移動操作に対応させ、また、このポインティング操作に応じた接触音の情報を「疑似ボタン操作」としてマウス左ボタン操作に対応させていた。
しかしながら、本実施の形態としては、上記した接触音の情報を用いなくとも、例えばクリックなどの「疑似ボタン操作」を実現することが可能である。以下、この点について、変形例として説明しておくこととする。
【0097】
この場合の操作態様例について、先ず説明しておくこととする。
例えば、この場合においても、ユーザがポインタを用いて表示画面17aに対して接触操作を行ったときに、表示画面17aに接触しているポインタの先端部Ptの座標が、最終的にカーソル位置情報として扱われるのは、上記実施の形態と同様である。従って、表示画面17a上に接触するポインタが移動するのに応じて、そのポインタの先端部Ptの位置(図14参照)に合わせるようにして表示画面17aに表示されるカーソルは移動することとなる。
そして、この場合において、ユーザがクリック操作を行いたいと思った場合には、先ず、クリックしたいとするポイント位置にてポインタの先端部Ptを一定時間以上停止させ、その後、例えば一旦表示画面17aから離すようにする。そしてこの後、同じクリックすべきポイント位置に対してポインタの先端部Ptを戻すようにする。つまり、或る早さでもって、表示画面17a上の同じ位置を1回叩くようにして操作する。
【0098】
このような操作は、撮像画像上においては、或るポイント位置の座標にてポインタの先端部Ptの動きが一時停止した後に動き、さらにこの後、一時停止していた位置の座標にポインタの先端部Ptが位置するように見えることとなる。
そこで、例えば図10に示した画像認識モジュール部50及びマウスインターフェイスアプリケーション60との連携によっては、フレームごとの撮像画像データにおけるポインタの先端部Ptについて、動き検出を行うようにされる。そして、その動き検出結果として、
▲1▼ 或る座標Aにて一定時間以上停止→▲2▼ この後座標Aから離れるようにして先端部Ptが移動→▲3▼ 先端部Ptが、再び上記▲1▼の状態から一定時間以内に座標Aに移動、
という状態遷移が得られたことが判定されたときに、座標Aをクリック・ポイントとしてクリックが行われたものとして操作情報をOSに渡すようにされる。
なお、ダブルクリックについては、例えばクリックしたいとするポイント位置にてポインタの先端部Ptを一定時間以上停止させた後、そのポイント位置を連続して二回叩いてもらうようにする。そして、これに応じた動き検出結果の条件
が得られたときにダブルクリックが行われたものとして扱うようにすればよい。
【0099】
なお、本発明としての疑似タッチパネル操作を実現するための各種の処理はこれまでの説明に限定されるものではなく、適宜変更可能である。例えば、図3に示した枠情報の設定のための操作手順、また、図4〜図7により説明した座標変換処理のための演算の仕方などは、ほかにも考えられるものである。また、図8に示した接触音についての解析処理の内容、及び図9に示した解析結果に応じたマウス左ボタンの状態遷移も、実際にユーザに行ってもらうべき操作態様に応じて適宜変更されて構わない。例えば図8に示した解析処理では、接触音レベルについて、無音、弱音、強音の三段階による区分けを行っているが、例えば操作態様に応じては、二段階としたり、或いは四段階以上とすることも考えられる。さらには、図10〜図12に示した、疑似タッチパネル操作実現のためのプログラム構成及び処理動作についても、他の構成とすることが考えられるものである。
【0100】
【発明の効果】
以上説明したようにして本発明は、表示画面を撮像して得られる撮像画像から、ポインタが指し示している表示画面上の位置であるポイント位置を認識して、この認識したポイント位置に応じて、GUI操作に応答した所要の情報処理を実行するように構成されている。
このような構成であれば、例えば表示画面がタッチパネルとしての構造を採っていなくとも、タッチパネルと同様の操作を行うことが可能となる。
一般に、表示画面がタッチパネルとしての構造を有していなければ、マウス、トラックパッドなどの操作子を操作することになるのであるが、このような操作は、操作子がユーザの視界に無いこともあって必ずしも直感的な操作とはいえない。しかしながら本発明では、タッチパネル付きの表示画面でなくとも、直感的操作であるタッチパネル操作を可能としている。
また、このような本発明のタッチパネル的操作を実現するためのハードウェア構成としては、例えばパーソナルコンピュータなどの汎用の情報処理装置に対してカメラ装置(撮像装置)を備えればよい。つまり、高価で特殊な装置などは必要ないことから、ユーザとしては気軽にシステムを組めることにも成る。また、タッチパネル付きのコンピュータディスプレイなどは、相当に高価であることから、このようなコンピュータディスプレイを購入することと比較しても、本発明によるシステムは手軽に組むことができるものである。
【0101】
また、本発明としては、物理的なポインタが表示画面に接触することで生じる接触音をマイクロフォンによって収音して解析処理を行い、この解析処理の結果に基づいて、GUI操作に応答した所要の情報処理を実行するようにされる。
この場合の操作としては、例えばカーソル移動のために表示画面上を擦るようにしてポインタを移動させたり、また、クリック/ダブルクリックのために表示画面上を叩いたりという、直感的な操作を行ってもらうことができる。
この発明によっても、タッチパネルの構造を有していない表示画面に対してタッチパネルと同様の操作が行えることになる。また、センサとしては、既に汎用的であり、安価で入手も容易なマイクロフォンとされている。これにより、上記したカメラ部をセンサとする発明の構成と同様の効果が得られることになる。
また、例えばユーザの発話音声により操作を行う構成が知られているが、この場合には、例えばユーザは、操作中には操作に関する内容しか話すことができないという不便さが伴う。しかしながら、本発明は、接触音に基づいたGUI制御となることから上記した問題は解消され、操作中においてはユーザは、自由に会話などをすることができる。
また、この接触音に基づいてGUI操作を実現する本発明は、上記した撮像画像から得たポイント位置に基づいてGUI操作を実現する発明と併用することで、より操作性の向上したGUI操作とすることもできる。
【図面の簡単な説明】
【図1】本実施の形態としての疑似タッチパネル操作システムの概要を示す斜視図である。
【図2】本実施の形態としてのパーソナルコンピュータの内部構成例を示すブロック図である。
【図3】枠情報を設定するための操作手順を示す説明図である。
【図4】枠情報についての台形補正処理を模式的に示す説明図である。
【図5】枠情報に存在する画像内座標を、表示画面上の実座標に変換するための処理例を模式的に示す説明図である。
【図6】枠情報に存在する画像内座標を、表示画面上の実座標に変換するための処理例を模式的に示す説明図である。
【図7】枠情報に存在する画像内座標を、表示画面上の実座標に変換するための処理例を模式的に示す説明図である。
【図8】接触音についての解析処理例を模式的に示す説明図である。
【図9】接触音についての解析結果に応じたマウス左ボタン操作の状態遷移例を示す説明図である。
【図10】画像/音声認識ドライバのプログラム構造例を示すブロック図である。
【図11】疑似タッチパネル操作時に対応する画像/音声認識ドライバに従っての処理動作を示すフローチャートである。
【図12】画像認識モジュールに従った処理として、ポインタ検出処理例を示すフローチャートである。
【図13】色領域を、YUV色度空間により表した説明図である。
【図14】カメラ部により撮像された撮像画像として、ポインタとしてのユーザの手の画像部分が現れている状態を示す説明図である。
【図15】本実施の形態の疑似タッチパネル操作システムについての他の構成例を示す説明図である。
【図16】タッチパネルの構造例を模式的に示す説明図である。
【符号の説明】
10 パーソナルコンピュータ、11 CPU、17 ディスプレイモニタ、17a 表示画面、18 HDD、18a 画像/音声認識ドライバ、22 カメラ部、23(23A) マイクロフォン、30 画像/音声認識モジュール、40 音声認識モジュール部、41 オーディオキャプチャモジュール、42 オーディオ解析モジュール、50 画像認識モジュール部、51 ビデオキャプチャモジュール、52 座標取得モジュール、60 マウスインターフェイスアプリケーション、CR1〜CR4 画隅指定カーソル、
Claims (18)
- 表示画面に対して画像を表示出力する表示手段と、
撮像装置により撮像された撮像画像を取り込む画像取込手段と、
上記画像取込手段により取り込まれた撮像画像における、上記表示画面の画像部分領域を枠情報として認識する画像部分認識手段と、
上記枠情報の上底と下底の辺を平行として上記枠情報が台形となるように形状を補正する台形補正処理を行って、上記枠情報を補正枠情報とする枠情報補正処理手段と、
上記画像部分認識手段が認識する画像部分領域内に存在するポインタの上記表示画面への接触操作によって指し示す位置を、上記補正枠情報に基づいて座標変換処理を行い、実際の上記表示画面上におけるポイント位置として認識するポイント位置認識手段と、
上記ポイント位置認識手段により認識されたポイント位置に応じて、所要の情報処理を実行可能な情報処理手段と、
を備えていることを特徴とする情報処理装置。 - 上記補正処理手段の上記台形補正処理は、上記枠情報の上底の両端の頂点、下底の両端の頂点のそれぞれのY座標値の平均値を補正Y座標値とする座標変換処理を行うことにより、上記枠情報が台形となるように形状を補正するものであることを特徴とする請求項1に記載の情報処理装置。
- 上記ポイント位置認識手段の上記座標変換処理は、上記補正枠情報の縦・横方向の幅と上記表示画面の縦・横方向の幅との比に基づいて座標変換処理を行うことを特徴とする請求項1に記載の情報処理装置。
- マイクロフォン装置により収音された音声信号を取り込む音声取込手段と、
上記音声取込手段により取り込まれた音声信号から、上記表示画面に対して物理的ポインタが接触することにより生じる接触音の音声信号成分を抽出する抽出手段と、
上記抽出手段により抽出された接触音の音声信号成分についての所要の解析処理を実行する解析手段とを設け、
上記情報処理手段は、上記解析手段の解析結果に基づいて所要の情報処理を実行可能に構成される、
ことを特徴とする請求項1に記載の情報処理装置。 - 上記解析手段は、
上記接触音について、所定の段階による音の強弱レベルを解析するように構成されていることを特徴とする請求項4に記載の情報処理装置。 - 上記解析手段は、
上記接触音についての時間的継続性について解析するように構成されていることを特徴とする請求項4に記載の情報処理装置。 - 少なくとも、撮像装置と情報処理装置とから成り、
上記撮像装置は、上記情報処理装置の上記表示画面全体を撮像可能な位置に設けられると共に、
上記情報処理装置は、
表示画面に対して画像を表示出力する表示手段と、
撮像装置により撮像された撮像画像を取り込む画像取込手段と、
上記画像取込手段により取り込まれた撮像画像における、上記表示画面の画像部分領域を枠情報として認識する画像部分認識手段と、
上記枠情報の上底と下底の辺を平行として上記枠情報が台形となるように形状を補正する台形補正処理を行って、上記枠情報を補正枠情報とする枠情報補正処理手段と、
上記画像部分認識手段が認識する画像部分領域内に存在するポインタの上記表示画面への接触操作によって指し示す位置を、上記補正枠情報に基づいて座標変換処理を行い、実際の上記表示画面上におけるポイント位置として認識するポイント位置認識手段と、
上記ポイント位置認識手段により認識されたポイント位置に応じて、所要の情報処理を実行可能な情報処理手段とを備えている、
ことを特徴とする情報処理システム。 - 上記補正処理手段の上記台形補正処理は、上記枠情報の上底の両端の頂点、下底の両端の頂点のそれぞれのY座標値の平均値を補正Y座標値とする座標変換処理を行うことにより、上記枠情報が台形となるように形状を補正するものであることを特徴とする請求項7に記載の情報処理システム。
- 上記ポイント位置認識手段の上記座標変換処理は、上記補正枠情報の縦・横方向の幅と上記表示画面の縦・横方向の幅との比に基づいて座標変換処理を行うことを特徴とする請求項7に記載の情報処理システム。
- 当該情報処理システムは、さらに、マイクロフォン装置を備えると共に、
上記情報処理装置は、
マイクロフォン装置により収音された音声信号を取り込む音声取込手段と、
上記音声取込手段により取り込まれた音声信号から、上記表示画面に対して物理的ポインタが接触することにより生じる接触音の音声信号成分を抽出する抽出手段と、
上記抽出手段により抽出された接触音の音声信号成分についての所要の解析処理を実行する解析手段とを設け、
上記情報処理手段は、上記解析手段の解析結果に基づいて所要の情報処理を実行可能に構成される、
ことを特徴とする請求項7に記載の情報処理システム。 - 上記解析手段は、
上記接触音について、所定の段階による音の強弱レベルを解析するように構成されていることを特徴とする請求項10に記載の情報処理装置。 - 上記解析手段は、
上記接触音についての時間的継続性について解析するように構成されていることを特徴とする請求項10に記載の情報処理装置。 - 情報処理装置の表示画面を撮像するように配置される撮像装置により撮像された撮像画像を取り込む画像取込手順と、
上記画像取込手順により取り込まれた撮像画像における、上記表示画面の画像部分領域を枠情報として認識する画像部分認識手順と、
上記枠情報の上底と下底の辺を平行として上記枠情報が台形となるように形状を補正する台形補正処理を行って、上記枠情報を補正枠情報とする枠情報補正処理手順と、
上記画像部分認識手順が認識する画像部分領域内に存在するポインタの上記表示画面への接触操作によって指し示す位置を、上記補正枠情報に基づいて座標変換処理を行い、実際の上記表示画面上におけるポイント位置として認識するポイント位置認識手順と、
上記ポイント位置認識手順により認識されたポイント位置に応じて、所要の情報処理を実行可能な情報処理手順と、
を上記情報処理装置に実行させるためのプログラム。 - 上記補正処理手順の上記台形補正処理は、上記枠情報の上底の両端の頂点、下底の両端の頂点のそれぞれの Y 座標値の平均値を補正Y座標値とする座標変換処理を行うことにより、上記枠情報が台形となるように形状を補正するものであることを特徴とする請求項13に記載のプログラム。
- 上記ポイント位置認識手順の上記座標変換処理は、上記補正枠情報の縦・横方向の幅と上記表示画面の縦・横方向の幅との比に基づいて座標変換処理を行うことを特徴とする請求項13に記載のプログラム。
- マイクロフォン装置により収音された音声信号を取り込む音声取込手順と、
上記音声取込手順により取り込まれた音声信号から、上記表示画面に対して物理的ポインタが接触することにより生じる接触音の音声信号成分を抽出する抽出手順と、
上記抽出手順により抽出された接触音の音声信号成分についての所要の解析処理を実行する解析手順とを上記情報処理装置に実行させるとともに、
上記情報処理手順は、上記解析手順の解析結果に基づいて所要の情報処理を上記情報処理装置に実行させることが可能に構成される、
ことを特徴とする請求項13に記載のプログラム。 - 上記解析手順は、
上記接触音について、所定の段階による音の強弱レベルを解析するように構成されていることを特徴とする請求項16に記載のプログラム。 - 上記解析手順は、
上記接触音についての時間的継続性について解析するように構成されていることを特徴とする請求項16に記載のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001315301A JP4055388B2 (ja) | 2001-10-12 | 2001-10-12 | 情報処理装置、情報処理システム、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001315301A JP4055388B2 (ja) | 2001-10-12 | 2001-10-12 | 情報処理装置、情報処理システム、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2003122505A JP2003122505A (ja) | 2003-04-25 |
JP2003122505A5 JP2003122505A5 (ja) | 2005-06-30 |
JP4055388B2 true JP4055388B2 (ja) | 2008-03-05 |
Family
ID=19133490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001315301A Expired - Fee Related JP4055388B2 (ja) | 2001-10-12 | 2001-10-12 | 情報処理装置、情報処理システム、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4055388B2 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4206332B2 (ja) | 2003-09-12 | 2009-01-07 | 株式会社バンダイナムコゲームス | 入力装置、ゲームシステム、プログラムおよび情報記憶媒体 |
US20130187854A1 (en) | 2007-05-26 | 2013-07-25 | Moon Key Lee | Pointing Device Using Camera and Outputting Mark |
KR100936816B1 (ko) * | 2007-05-26 | 2010-01-14 | 이문기 | 카메라와 마크 출력에의한 포인팅 장치 |
JPWO2009141855A1 (ja) * | 2008-05-23 | 2011-09-22 | 新世代株式会社 | 入力システム、入力方法、コンピュータプログラム、及び、記録媒体 |
US8411050B2 (en) * | 2009-10-14 | 2013-04-02 | Sony Computer Entertainment America | Touch interface having microphone to determine touch impact strength |
JP5471704B2 (ja) * | 2010-03-29 | 2014-04-16 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP5505057B2 (ja) * | 2010-04-19 | 2014-05-28 | 株式会社ニコン | 表示装置 |
JP5623138B2 (ja) * | 2010-05-31 | 2014-11-12 | キヤノン株式会社 | 情報処理装置およびその動作方法 |
JP2010227626A (ja) * | 2010-07-12 | 2010-10-14 | Sanyo Product Co Ltd | 遊技機 |
JP5017466B1 (ja) * | 2011-02-28 | 2012-09-05 | 株式会社東芝 | 情報処理装置およびプログラム |
JP5122031B2 (ja) * | 2011-03-18 | 2013-01-16 | 三菱電機株式会社 | 列車内情報表示装置および列車内情報表示システム |
JP4969705B1 (ja) * | 2011-03-18 | 2012-07-04 | 三菱電機株式会社 | 列車内情報表示装置、列車内情報表示システムおよび広告表示結果判定方法 |
JP5838631B2 (ja) * | 2011-07-27 | 2016-01-06 | ぺんてる株式会社 | 手書き文字認識装置 |
JP2013037420A (ja) * | 2011-08-04 | 2013-02-21 | Dainippon Printing Co Ltd | コンテンツ表示システム、コンテンツ表示制御方法、コンテンツ表示制御装置、プログラム |
JP2012160204A (ja) * | 2012-04-24 | 2012-08-23 | Nec Corp | 携帯端末及びプログラム |
JP5377713B2 (ja) * | 2012-06-01 | 2013-12-25 | 株式会社東芝 | 情報処理装置およびプログラム |
JP2015132875A (ja) * | 2014-01-09 | 2015-07-23 | 国立大学法人九州工業大学 | 位置検出装置及びプログラム |
JP2019207451A (ja) * | 2018-05-28 | 2019-12-05 | マクセル株式会社 | 映像表示装置、映像表示方法 |
-
2001
- 2001-10-12 JP JP2001315301A patent/JP4055388B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003122505A (ja) | 2003-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4055388B2 (ja) | 情報処理装置、情報処理システム、及びプログラム | |
JP7095722B2 (ja) | 情報処理装置およびプログラム | |
EP2648604B1 (en) | Adaptive displays using gaze tracking | |
US8610678B2 (en) | Information processing apparatus and method for moving a displayed object between multiple displays | |
WO2018098912A1 (zh) | 屏幕录像的录制、播放方法、录屏终端及播放终端 | |
CN108616712B (zh) | 一种基于摄像头的界面操作方法、装置、设备及存储介质 | |
US20090284469A1 (en) | Video based apparatus and method for controlling the cursor | |
WO2019184499A1 (zh) | 一种视频通话的方法、设备和计算机存储介质 | |
US20100328447A1 (en) | Configuration of display and audio parameters for computer graphics rendering system having multiple displays | |
WO2021031850A1 (zh) | 图像处理的方法、装置、电子设备及存储介质 | |
WO2018076380A1 (zh) | 在电子设备中生成视频缩略图的方法及电子设备 | |
JPH05233125A (ja) | マルチメディア情報入力装置 | |
TW200945174A (en) | Vision based pointing device emulation | |
JP2002526867A (ja) | データ入力方法 | |
WO2022156213A1 (zh) | 基于手势的显示界面控制方法、装置、设备及存储介质 | |
TW200949609A (en) | Method and system for controlling multiple computers | |
KR20220158101A (ko) | 이미지 촬영 방법 및 전자 장비 | |
JP2010102395A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2013206272A (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
JP2004193933A (ja) | 画像拡大表示方法・装置・メディア・プログラム | |
CN111768757A (zh) | 可穿戴设备的控制方法、可穿戴设备及存储介质 | |
CN103809889B (zh) | 一种单点触控的拉曼光谱谱图放大缩小方法 | |
WO2023124972A1 (zh) | 显示状态切换方法、装置及系统、电子设备、存储介质 | |
TW200951765A (en) | System of inputting instruction by image identification and method of the same | |
WO2018211798A1 (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041008 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071203 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |