JP2002312123A - タッチ位置検出装置 - Google Patents
タッチ位置検出装置Info
- Publication number
- JP2002312123A JP2002312123A JP2001116780A JP2001116780A JP2002312123A JP 2002312123 A JP2002312123 A JP 2002312123A JP 2001116780 A JP2001116780 A JP 2001116780A JP 2001116780 A JP2001116780 A JP 2001116780A JP 2002312123 A JP2002312123 A JP 2002312123A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- display
- video camera
- frame memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
【課題】表示画面上に特殊な装置を設置困難な大型ディ
スプレイや掲示物に対して利用者がタッチして指示した
位置を検出する手段を提供する。 【解決手段】画像データを表示する手段1と、その表示
面上を表示面に平行な位置から撮影する少なくとも1台
のビデオカメラ2と、該ビデオカメラからの画像情報を
取込んだ現画像フレームメモリ部32の画像と背景フレ
ームメモリ部33の画像との差分を求め、画像上での差
分大の部分の位置とカメラ情報記憶部37からの情報を
もとに、表示面上の任意の場所を指示している物体の位
置を検出する画像処理装置3を設けることにより利用者
がタッチした位置を検出する。
スプレイや掲示物に対して利用者がタッチして指示した
位置を検出する手段を提供する。 【解決手段】画像データを表示する手段1と、その表示
面上を表示面に平行な位置から撮影する少なくとも1台
のビデオカメラ2と、該ビデオカメラからの画像情報を
取込んだ現画像フレームメモリ部32の画像と背景フレ
ームメモリ部33の画像との差分を求め、画像上での差
分大の部分の位置とカメラ情報記憶部37からの情報を
もとに、表示面上の任意の場所を指示している物体の位
置を検出する画像処理装置3を設けることにより利用者
がタッチした位置を検出する。
Description
【0001】
【発明の属する技術分野】本発明は不特定多数を対象と
した個人向けの情報表示用大型ディスプレイや掲示板に
対してタッチ方式の入力ユーザーインタフェースを提供
するタッチ位置検出装置に関する。
した個人向けの情報表示用大型ディスプレイや掲示板に
対してタッチ方式の入力ユーザーインタフェースを提供
するタッチ位置検出装置に関する。
【0002】
【従来の技術】個人向け情報提供端末や駅の券売機など
には、ディスプレイ上に設置した超音波方式などのタッ
チパネルによる入力ユーザーインタフェースが、広く一
般に採用されている。
には、ディスプレイ上に設置した超音波方式などのタッ
チパネルによる入力ユーザーインタフェースが、広く一
般に採用されている。
【0003】個人向けではなく、プレゼンテーション用
大型ディスプレイへの指示位置検出方式としては、特開
平8−95707号公報記載のように、説明者が表示画
面上を指示している指示棒を、スクリーンの後方から照
射した赤外線ライトによりできる指示棒の影を赤外線カ
メラで撮影し、画像処理で指示棒の先端を検出すること
により指示位置を検出する方式が示されている。
大型ディスプレイへの指示位置検出方式としては、特開
平8−95707号公報記載のように、説明者が表示画
面上を指示している指示棒を、スクリーンの後方から照
射した赤外線ライトによりできる指示棒の影を赤外線カ
メラで撮影し、画像処理で指示棒の先端を検出すること
により指示位置を検出する方式が示されている。
【0004】
【発明が解決しようとする課題】上記従来技術は、指示
位置を検出するために特殊な装置をディスプレイ画面上
に設置したり、赤外線ライトや赤外線カメラなどが必要
となるという問題点を有する。
位置を検出するために特殊な装置をディスプレイ画面上
に設置したり、赤外線ライトや赤外線カメラなどが必要
となるという問題点を有する。
【0005】本発明の目的は、表示画面上に特殊な装置
を設置困難な大型ディスプレイや掲示物に対して、特殊
なライトやカメラを使用せずに利用者がタッチして指示
した位置を、表示画面の種類に関係なく検出するタッチ
位置検出装置を提供することにある。
を設置困難な大型ディスプレイや掲示物に対して、特殊
なライトやカメラを使用せずに利用者がタッチして指示
した位置を、表示画面の種類に関係なく検出するタッチ
位置検出装置を提供することにある。
【0006】
【課題を解決するための手段】上記目的を達成するため
に、 画像データを表示する表示手段と、前記表示手段
の表示面を表示面に平行な位置から撮影する少なくとも
1台のビデオカメラと、前記ビデオカメラからの画像情
報を取込むビデオキャプチャ手段と、前記ビデオキャプ
チャ手段で取込んだ現画像を格納する現画像フレームメ
モリと、予め取込んでおいた画像を格納する背景フレー
ムメモリと、前記ビデオカメラの設置位置と画角を含む
カメラ情報を記憶するカメラ情報記憶手段と、プログラ
ムを格納するROMと、前記ROMに格納されているプ
ログラムに従って処理を行なう演算処理手段と、前記演
算処理手段が処理を行なうためのワークエリアであるR
AMとを具備し、前記演算処理手段により前記現画像フ
レームメモリの画像と前記背景フレームメモリの画像と
の差分を求め、画像上での変化部分の位置と前記カメラ
情報記憶手段からのカメラ情報に基づき前記表示手段の
表示面の任意場所を指示している物体の位置を検出する
ようにしたものである。
に、 画像データを表示する表示手段と、前記表示手段
の表示面を表示面に平行な位置から撮影する少なくとも
1台のビデオカメラと、前記ビデオカメラからの画像情
報を取込むビデオキャプチャ手段と、前記ビデオキャプ
チャ手段で取込んだ現画像を格納する現画像フレームメ
モリと、予め取込んでおいた画像を格納する背景フレー
ムメモリと、前記ビデオカメラの設置位置と画角を含む
カメラ情報を記憶するカメラ情報記憶手段と、プログラ
ムを格納するROMと、前記ROMに格納されているプ
ログラムに従って処理を行なう演算処理手段と、前記演
算処理手段が処理を行なうためのワークエリアであるR
AMとを具備し、前記演算処理手段により前記現画像フ
レームメモリの画像と前記背景フレームメモリの画像と
の差分を求め、画像上での変化部分の位置と前記カメラ
情報記憶手段からのカメラ情報に基づき前記表示手段の
表示面の任意場所を指示している物体の位置を検出する
ようにしたものである。
【0007】
【発明の実施の形態】以下、本発明の実施例を図面を用
いて説明する。
いて説明する。
【0008】図1は本発明の第1の実施例を示すブロッ
ク図である。
ク図である。
【0009】図1において、情報提供装置は画像データ
を表示する表示手段1と、表示手段1の表示面上を表示
面に平行な上方向から見るように設置したビデオカメラ
2と、ビデオカメラ2からの画像情報を処理して表示手
段1の画面上をタッチしている利用者の手5の位置を検
出する画像処理装置3と、画像処理装置3からの検出し
た位置情報を信号線38を介して受け取り表示手段1上
に表示しているボタン6またはボタン7の位置かどうか
を判断しその結果により、前ボタン7がタッチされたな
らば前ページの画面を、次ボタン6がタッチされたなら
ば次ページの画像データを作成し信号線41を介して表
示手段1に表示するコンピュータ4とからなる。
を表示する表示手段1と、表示手段1の表示面上を表示
面に平行な上方向から見るように設置したビデオカメラ
2と、ビデオカメラ2からの画像情報を処理して表示手
段1の画面上をタッチしている利用者の手5の位置を検
出する画像処理装置3と、画像処理装置3からの検出し
た位置情報を信号線38を介して受け取り表示手段1上
に表示しているボタン6またはボタン7の位置かどうか
を判断しその結果により、前ボタン7がタッチされたな
らば前ページの画面を、次ボタン6がタッチされたなら
ば次ページの画像データを作成し信号線41を介して表
示手段1に表示するコンピュータ4とからなる。
【0010】表示手段1は、コンピュータ4からの画像
データを表示可能な大型液晶ディスプレイあるいは大型
プラズマディスプレイあるいは背面投射式大型プロジェ
クターなどからなる。画像処理装置3はビデオカメラ2
からの画像情報を取込むビデオキャプチャ部31、ビデ
オキャプチャ部で取込んだ現画像を格納する現画像フレ
ームメモリ部32、予め取込んでおいた画像を格納する
背景フレームメモリ部33、カメラの設置位置や画角な
どを記憶しておくカメラ情報記憶部37、プログラムを
格納しておくROM部34、ROM部のプログラムに従
って処理を行なうCPU部36、CPU部が処理を行な
うためのワークエリアであるRAM部35からなる。
データを表示可能な大型液晶ディスプレイあるいは大型
プラズマディスプレイあるいは背面投射式大型プロジェ
クターなどからなる。画像処理装置3はビデオカメラ2
からの画像情報を取込むビデオキャプチャ部31、ビデ
オキャプチャ部で取込んだ現画像を格納する現画像フレ
ームメモリ部32、予め取込んでおいた画像を格納する
背景フレームメモリ部33、カメラの設置位置や画角な
どを記憶しておくカメラ情報記憶部37、プログラムを
格納しておくROM部34、ROM部のプログラムに従
って処理を行なうCPU部36、CPU部が処理を行な
うためのワークエリアであるRAM部35からなる。
【0011】次に図2〜図5を参照してタッチ位置検出
の動作を説明する。
の動作を説明する。
【0012】図1において、真下に向けてビデオカメラ
2を設置し、ビデオカメラ2から表示手段1上に表示す
る前ボタン7と次ボタン6の中心を結んだ直線までの垂
線の長さ(カメラ高さ)と表示手段1の左端から前記垂
線までの距離及びビデオカメラ2の画角を画像処理装置
3内のカメラ情報記憶部37に記憶する。
2を設置し、ビデオカメラ2から表示手段1上に表示す
る前ボタン7と次ボタン6の中心を結んだ直線までの垂
線の長さ(カメラ高さ)と表示手段1の左端から前記垂
線までの距離及びビデオカメラ2の画角を画像処理装置
3内のカメラ情報記憶部37に記憶する。
【0013】利用者がいない(障害物がない)状態での
ビデオカメラ2からの画像をビデオキャプチャ部31で
取込み背景画像フレームメモリ部33に記憶する。この
時、画像処理を行なう領域を決定しカメラ情報記憶部3
7に記憶する。
ビデオカメラ2からの画像をビデオキャプチャ部31で
取込み背景画像フレームメモリ部33に記憶する。この
時、画像処理を行なう領域を決定しカメラ情報記憶部3
7に記憶する。
【0014】図2に背景画像フレームメモリ部33に記
憶した画像と処理領域の1例を示す。
憶した画像と処理領域の1例を示す。
【0015】図2において、11はビデオカメラ2から
見た場合の表示手段1の表示画面部、12は前ボタン7
の表示位置、13は後ボタン6の表示位置を示してい
る。処理領域14は表示データの影響を受けないように
表示画面部11から少し離して設定している。
見た場合の表示手段1の表示画面部、12は前ボタン7
の表示位置、13は後ボタン6の表示位置を示してい
る。処理領域14は表示データの影響を受けないように
表示画面部11から少し離して設定している。
【0016】図3は通常のタッチ位置検出処理フローを
示している。
示している。
【0017】まず、現画像取り込み処理100として図
1におけるビデオカメラ2からの画像をビデオキャプチ
ャ部31で取込み現画像フレームメモリ32に取り込
む。画像処理領域切出し処理101として図1における
現画像フレームメモリ32および背景画像フレームメモ
リ部33に取り込んだ画像からカメラ情報記憶部37に
記憶している処理領域(図2での領域14)に相当する
部分を切出してRAM35にそれぞれ現画像処理領域内
画像および背景画像処理領域内画像として格納する。
1におけるビデオカメラ2からの画像をビデオキャプチ
ャ部31で取込み現画像フレームメモリ32に取り込
む。画像処理領域切出し処理101として図1における
現画像フレームメモリ32および背景画像フレームメモ
リ部33に取り込んだ画像からカメラ情報記憶部37に
記憶している処理領域(図2での領域14)に相当する
部分を切出してRAM35にそれぞれ現画像処理領域内
画像および背景画像処理領域内画像として格納する。
【0018】背景画像との差分抽出処理102として背
景画像処理領域内画像と現画像処理領域内画像との各画
素間の差分をとった結果を差分画像としてRAM35に
格納する。差分画像を予め決めておいた閾値で2値化し
て2値物体画像を作成しRAM35に格納する(差分画
像の2値化処理103)。
景画像処理領域内画像と現画像処理領域内画像との各画
素間の差分をとった結果を差分画像としてRAM35に
格納する。差分画像を予め決めておいた閾値で2値化し
て2値物体画像を作成しRAM35に格納する(差分画
像の2値化処理103)。
【0019】ここで、もし現画像フレームメモリ32内
に利用者の手5が撮影されていたならば、2値物体とし
て出現するのでその出現座標を求める(2値物体位置検
出処理104)。現画像フレームメモリ32内での2値
物体の出現位置をカメラ情報記憶部37に記憶している
カメラ位置情報を基に表示手段1での座標位置に変換す
る(表示画面内での座標位置への変換処理105)。
に利用者の手5が撮影されていたならば、2値物体とし
て出現するのでその出現座標を求める(2値物体位置検
出処理104)。現画像フレームメモリ32内での2値
物体の出現位置をカメラ情報記憶部37に記憶している
カメラ位置情報を基に表示手段1での座標位置に変換す
る(表示画面内での座標位置への変換処理105)。
【0020】以上の処理フローをROM34にプログラ
ムとして登録しておき、この処理フローをCPU36で
繰り返し実行することによりタッチ位置検出が行える。
ムとして登録しておき、この処理フローをCPU36で
繰り返し実行することによりタッチ位置検出が行える。
【0021】図4は、図3の処理フローにおける101
から103までの処理により作成される画像の1例を示
したものである。
から103までの処理により作成される画像の1例を示
したものである。
【0022】図4において、202は背景画像フレーム
メモリ部33に取り込んだ画像200からカメラ情報記
憶部37に記憶している処理領域14に相当する部分を
切出してRAM35に格納した背景画像処理領域内画像
を示している。
メモリ部33に取り込んだ画像200からカメラ情報記
憶部37に記憶している処理領域14に相当する部分を
切出してRAM35に格納した背景画像処理領域内画像
を示している。
【0023】また、203は現画像フレームメモリ32
取り込んだ画像201からカメラ情報記憶部37に記憶
している処理領域14に相当する部分を切出してRAM
35に格納した現画像処理領域内画像を示し、204は
背景画像処理領域内画像202と現画像処理領域内画像
203との各画素間の差分をとった結果の差分画像を示
している。
取り込んだ画像201からカメラ情報記憶部37に記憶
している処理領域14に相当する部分を切出してRAM
35に格納した現画像処理領域内画像を示し、204は
背景画像処理領域内画像202と現画像処理領域内画像
203との各画素間の差分をとった結果の差分画像を示
している。
【0024】図5は、図3の処理フローにおける表示画
面内での座標位置への変換処理105を説明するための
ものである。
面内での座標位置への変換処理105を説明するための
ものである。
【0025】図5において、ビデオカメラ2の水平方向
の画角をθ、表示手段1上に表示しているボタン6とボ
タン7の中心を結ぶ直線にビデオカメラ2から引いた垂
線の長さをL1、表示手段1の左端から前記垂線までの
距離をL2、ビデオカメラ2から入力した画像の水平方
向の画素数をNとすると、ビデオカメラ2で見えるボタ
ン6とボタン7の中心を結ぶ直線の長さL3は式1で表
される。
の画角をθ、表示手段1上に表示しているボタン6とボ
タン7の中心を結ぶ直線にビデオカメラ2から引いた垂
線の長さをL1、表示手段1の左端から前記垂線までの
距離をL2、ビデオカメラ2から入力した画像の水平方
向の画素数をNとすると、ビデオカメラ2で見えるボタ
ン6とボタン7の中心を結ぶ直線の長さL3は式1で表
される。
【0026】 L3=L1*tan(θ/2)*2 …(式1) となり、表示手段1の左端からビデオカメラ2で見える
ボタン6とボタン7の中心を結ぶ直線の左端までの距離
L4は式2となる。
ボタン6とボタン7の中心を結ぶ直線の左端までの距離
L4は式2となる。
【0027】 L4=L2−(L3/2) …(式2) そこで、画面上で検出したタッチ位置PのX座標をxと
するとタッチ位置Pの表示手段1上でのX座標は、式3
で求めることができる。
するとタッチ位置Pの表示手段1上でのX座標は、式3
で求めることができる。
【0028】 X=L4+(L3/N)*x …(式3) 以上、説明したように本実施例によれば表示画面上に特
殊な装置を設置困難な大型ディスプレイに対しても、表
示画面上にボタンを表示しておき、利用者がタッチして
指示した位置を、大型ディスプレイの上に設置したビデ
オカメラと画像処理装置により検出することにより、利
用者が自由に表示画面を選択できるグラフィックス・ユ
ーザー・インタフェースを提供できるという効果があ
る。
殊な装置を設置困難な大型ディスプレイに対しても、表
示画面上にボタンを表示しておき、利用者がタッチして
指示した位置を、大型ディスプレイの上に設置したビデ
オカメラと画像処理装置により検出することにより、利
用者が自由に表示画面を選択できるグラフィックス・ユ
ーザー・インタフェースを提供できるという効果があ
る。
【0029】図6は本発明の第2の実施例を示すブロッ
ク図である。
ク図である。
【0030】図6は画像データを表示する表示手段30
0と、表示手段300の表示面上を表示面に平行な上方
向から見るように設置したビデオカメラ301と、ビデ
オカメラ301とは別の角度から表示手段300の表示
面上を表示面に平行な上方向から見るように設置したビ
デオカメラ302と、ビデオカメラ301および302
からの画像情報を処理して表示手段300の画面上をタ
ッチしている利用者の手307の位置を検出する画像処
理装置303と、画像処理装置303の検出した位置情
報を受け取り表示手段300上に表示しているボタン3
05またはボタン306の位置かどうかを判断しその結
果により、前ボタン305がタッチされたならば前ペー
ジの画面を、次ボタン306がタッチされたならば次ペ
ージの画像データを作成し表示手段300に表示するコ
ンピュータ304とからなる。
0と、表示手段300の表示面上を表示面に平行な上方
向から見るように設置したビデオカメラ301と、ビデ
オカメラ301とは別の角度から表示手段300の表示
面上を表示面に平行な上方向から見るように設置したビ
デオカメラ302と、ビデオカメラ301および302
からの画像情報を処理して表示手段300の画面上をタ
ッチしている利用者の手307の位置を検出する画像処
理装置303と、画像処理装置303の検出した位置情
報を受け取り表示手段300上に表示しているボタン3
05またはボタン306の位置かどうかを判断しその結
果により、前ボタン305がタッチされたならば前ペー
ジの画面を、次ボタン306がタッチされたならば次ペ
ージの画像データを作成し表示手段300に表示するコ
ンピュータ304とからなる。
【0031】図6の第2の実施例が図1の第1の実施例と
異なる点は、表示手段300の表示面上を撮影するビデ
オカメラ301、302を2台とし、異なる角度で同一
領域を見ることにより、図6に示すように表示手段30
0上に前ボタン305と次ボタン306をY方向に並べ
た場合でも、利用者によるタッチ位置を正しく検出でき
るようにしたことにある。
異なる点は、表示手段300の表示面上を撮影するビデ
オカメラ301、302を2台とし、異なる角度で同一
領域を見ることにより、図6に示すように表示手段30
0上に前ボタン305と次ボタン306をY方向に並べ
た場合でも、利用者によるタッチ位置を正しく検出でき
るようにしたことにある。
【0032】画像処理装置303の構成は、図1での画
像処理装置3と同じなので詳細な説明は省略する。第1
の実施例と異なる点は、処理対象となる現画像がビデオ
カメラ301および302とから2つ得られることと、
2つの現画像を基に得られた2つの2値物体の位置情報
から表示手段300上での座標位置に変換する計算方法
である。
像処理装置3と同じなので詳細な説明は省略する。第1
の実施例と異なる点は、処理対象となる現画像がビデオ
カメラ301および302とから2つ得られることと、
2つの現画像を基に得られた2つの2値物体の位置情報
から表示手段300上での座標位置に変換する計算方法
である。
【0033】前者の相違点に対しては、まず、2台のビ
デオカメラ301、302のカメラ情報をカメラ情報記
憶部37に記憶する。現画像フレームメモリ32に2台
のビデオカメラ301、302の画像を取り込めるよう
にし、2値物体の位置検出までの処理は、ビデオカメラ
301からの現画像に対する処理とビデオカメラ302
からの現画像に対する処理とをシーケンシャルに処理す
ることにより解決できる。 後者の座標位置に変換方法
については図7を使用して説明する。
デオカメラ301、302のカメラ情報をカメラ情報記
憶部37に記憶する。現画像フレームメモリ32に2台
のビデオカメラ301、302の画像を取り込めるよう
にし、2値物体の位置検出までの処理は、ビデオカメラ
301からの現画像に対する処理とビデオカメラ302
からの現画像に対する処理とをシーケンシャルに処理す
ることにより解決できる。 後者の座標位置に変換方法
については図7を使用して説明する。
【0034】図7において、θgはビデオカメラ301
および302の水平方向の画角を、X1・Y1はそれぞ
れ表示手段300上での左上隅の原点O(0,0)から
ビデオカメラ301の設置位置までのX方向の距離・Y
方向の距離を、 X2・Y2はそれぞれ表示手段300
上での左上隅の原点O(0,0)からビデオカメラ30
2の設置位置までのX方向の距離・Y方向の距離を、θ
cはビデオカメラ302の取り付け角度を示す。
および302の水平方向の画角を、X1・Y1はそれぞ
れ表示手段300上での左上隅の原点O(0,0)から
ビデオカメラ301の設置位置までのX方向の距離・Y
方向の距離を、 X2・Y2はそれぞれ表示手段300
上での左上隅の原点O(0,0)からビデオカメラ30
2の設置位置までのX方向の距離・Y方向の距離を、θ
cはビデオカメラ302の取り付け角度を示す。
【0035】ここで、ビデオカメラ301、302から
取り込んだ画像のX方向の画素数をNとすると、ビデオ
カメラ301から見たタッチ位置検出点Pの画面上のX
座標値x1から、ビデオカメラの主軸方向311に対す
る検出点Pを通る線分ABの傾きθ1は式4で求められ
る。
取り込んだ画像のX方向の画素数をNとすると、ビデオ
カメラ301から見たタッチ位置検出点Pの画面上のX
座標値x1から、ビデオカメラの主軸方向311に対す
る検出点Pを通る線分ABの傾きθ1は式4で求められ
る。
【0036】 θ1=(θg/N)* (x1−N/2) …(式4) 同様にビデオカメラ302から見たタッチ位置検出点P
の画面上のX座標値x2から、ビデオカメラの主軸方向
312に対する検出点Pを通る線分CDの傾きθ2は式
5で求められる。
の画面上のX座標値x2から、ビデオカメラの主軸方向
312に対する検出点Pを通る線分CDの傾きθ2は式
5で求められる。
【0037】 θ2=(θg/N)* (x2−N/2) …(式5) 従って、表示手段300上で点(X1,Y1)と線分A
Bを通る直線の傾きはθ1、点(X2,Y2)と線分C
Dを通る直線の傾きは(θc +θ2)となる直線の式
でそれぞれ表すことができる。この2直線の交点Pの座
標が求める表示手段300上でのタッチ位置となる。
Bを通る直線の傾きはθ1、点(X2,Y2)と線分C
Dを通る直線の傾きは(θc +θ2)となる直線の式
でそれぞれ表すことができる。この2直線の交点Pの座
標が求める表示手段300上でのタッチ位置となる。
【0038】以上、説明したように本実施例によれば表
示画面上に特殊な装置を設置困難な大型ディスプレイに
対しても、表示画面上の任意の位置にボタンを表示して
おき、利用者がタッチして指示した位置を、大型ディス
プレイの上に設置した2台のビデオカメラと画像処理装
置により検出することにより、利用者が自由に表示画面
を選択できるグラフィックス・ユーザー・インタフェー
スを提供できるという効果がある。
示画面上に特殊な装置を設置困難な大型ディスプレイに
対しても、表示画面上の任意の位置にボタンを表示して
おき、利用者がタッチして指示した位置を、大型ディス
プレイの上に設置した2台のビデオカメラと画像処理装
置により検出することにより、利用者が自由に表示画面
を選択できるグラフィックス・ユーザー・インタフェー
スを提供できるという効果がある。
【0039】
【発明の効果】本発明によれば、表示画面上に特殊な装
置を設置困難な大型ディスプレイや掲示板などに対して
も、表示画面上の任意の位置にボタンを表示しておき、
利用者がタッチして指示した位置を、表示画面上の上に
設置したのビデオカメラと画像処理装置により検出する
ことができるので、利用者が自由に表示画面から入力操
作を行えるグラフィックス・ユーザー・インタフェース
を提供できるという効果がある。また、ビデオカメラか
ら取込んだ画像の内、表示面上の空間の処理領域情報を
予め画像処理装置内のカメラ情報記憶部に記憶しておく
ようにしたことにより表示画面の種類に関係なく物体の
指示位置を検出することができるので、ビデオカメラか
ら取込んだ表示画面の内容が変化するような場合でも、
利用者が自由に表示画面から入力操作を行えるグラフィ
ックス・ユーザー・インタフェースを提供できるという
効果がある。
置を設置困難な大型ディスプレイや掲示板などに対して
も、表示画面上の任意の位置にボタンを表示しておき、
利用者がタッチして指示した位置を、表示画面上の上に
設置したのビデオカメラと画像処理装置により検出する
ことができるので、利用者が自由に表示画面から入力操
作を行えるグラフィックス・ユーザー・インタフェース
を提供できるという効果がある。また、ビデオカメラか
ら取込んだ画像の内、表示面上の空間の処理領域情報を
予め画像処理装置内のカメラ情報記憶部に記憶しておく
ようにしたことにより表示画面の種類に関係なく物体の
指示位置を検出することができるので、ビデオカメラか
ら取込んだ表示画面の内容が変化するような場合でも、
利用者が自由に表示画面から入力操作を行えるグラフィ
ックス・ユーザー・インタフェースを提供できるという
効果がある。
【図1】 本発明の第1の実施例を示すブロック図であ
る。
る。
【図2】 背景画像フレームメモリ部に記憶した画像と
処理領域の1例を示す図である。
処理領域の1例を示す図である。
【図3】 画像処理装置の画像処理フロー図である。
【図4】 画像処理フローの説明図である。
【図5】 表示画面内での座標位置への変換処理説明図
である。
である。
【図6】 本発明の第2の実施例を示すブロック図であ
る。
る。
【図7】 第2の実施例における表示画面内での座標位
置への変換処理説明図である。
置への変換処理説明図である。
1 画像データを表示する表示手段 2 ビデオカメラ 3 タッチ位置を検出する画像処理装置 31 ビデオカメラからの画像情報を取込むビデオキャ
プチャ部 32 ビデオキャプチャ部で取込んだ現画像を格納する
現画像フレームメモリ部 33 予め取込んでおいた画像を格納する背景フレーム
メモリ部 34 プログラムを格納しておくROM部 36 ROM部のプログラムに従って処理を行なうCP
U部 35 CPU部が処理を行なうためのワークエリアであ
るRAM部 37 カメラの設置位置や画角などを記憶しておくカメ
ラ情報記憶部
プチャ部 32 ビデオキャプチャ部で取込んだ現画像を格納する
現画像フレームメモリ部 33 予め取込んでおいた画像を格納する背景フレーム
メモリ部 34 プログラムを格納しておくROM部 36 ROM部のプログラムに従って処理を行なうCP
U部 35 CPU部が処理を行なうためのワークエリアであ
るRAM部 37 カメラの設置位置や画角などを記憶しておくカメ
ラ情報記憶部
フロントページの続き Fターム(参考) 5B057 BA02 BA13 CA08 CA12 CA16 CE12 CH11 DA07 DB02 DB09 DC32 5B068 AA01 AA11 BB18 BC02 BD09 BD20 BE08 CC06 CD01 5B087 AA00 AE03 BC12 BC26 BC32 CC03 CC09 CC26 CC33 5L096 AA06 CA02 CA05 EA43 FA69 HA01 LA05
Claims (2)
- 【請求項1】画像データを表示する表示手段と、前記表
示手段の表示面を表示面に平行な位置から撮影する少な
くとも1台のビデオカメラと、前記ビデオカメラからの
画像情報を取込むビデオキャプチャ手段と、前記ビデオ
キャプチャ手段で取込んだ現画像を格納する現画像フレ
ームメモリと、予め取込んでおいた画像を格納する背景
フレームメモリと、前記ビデオカメラの設置位置と画角
を含むカメラ情報を記憶するカメラ情報記憶手段と、プ
ログラムを格納するROMと、前記ROMに格納されて
いるプログラムに従って処理を行なう演算処理手段と、
前記演算処理手段が処理を行なうためのワークエリアで
あるRAMとを具備し、前記演算処理手段により前記現
画像フレームメモリの画像と前記背景フレームメモリの
画像との差分を求め、画像上での変化部分の位置と前記
カメラ情報記憶手段からのカメラ情報に基づき前記表示
手段の表示面の任意場所を指示している物体の位置を検
出することを特徴とするタッチ位置検出装置。 - 【請求項2】請求項1において、前記ビデオカメラから
取込んだ画像の内、表示面上の空間に設けたスリット状
の画像のみを処理するために、その処理領域情報を予め
前記カメラ情報記憶手段に記憶しておくことを特徴とす
るタッチ位置検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001116780A JP2002312123A (ja) | 2001-04-16 | 2001-04-16 | タッチ位置検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001116780A JP2002312123A (ja) | 2001-04-16 | 2001-04-16 | タッチ位置検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002312123A true JP2002312123A (ja) | 2002-10-25 |
Family
ID=18967460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001116780A Pending JP2002312123A (ja) | 2001-04-16 | 2001-04-16 | タッチ位置検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002312123A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101033428B1 (ko) | 2003-05-19 | 2011-05-09 | 가부시키가이샤 시로쿠 | 에어리어 이미지 센서를 사용한 위치 검출 장치 |
JP2012505615A (ja) * | 2008-10-10 | 2012-03-01 | ジェスチャー テック,インコーポレイテッド | シングルカメラトラッキング装置 |
JP2013008368A (ja) * | 2011-06-24 | 2013-01-10 | Ricoh Co Ltd | 仮想タッチスクリーンシステム及び双方向モード自動切換方法 |
CN103516972A (zh) * | 2012-06-19 | 2014-01-15 | 联想(北京)有限公司 | 摄像头控制方法及电子设备 |
JP2014021562A (ja) * | 2012-07-12 | 2014-02-03 | Canon Inc | タッチ検出装置、タッチ検出方法及びプログラム |
KR101407290B1 (ko) * | 2007-05-07 | 2014-06-13 | 엘지디스플레이 주식회사 | 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법 |
JP2014222385A (ja) * | 2013-05-13 | 2014-11-27 | 富士通株式会社 | 検出装置及び検出プログラム |
JP2015064703A (ja) * | 2013-09-24 | 2015-04-09 | 株式会社デンソー | 触覚提示装置 |
WO2023166789A1 (ja) * | 2022-03-04 | 2023-09-07 | チームラボ株式会社 | お絵描き用の表示制御システム |
-
2001
- 2001-04-16 JP JP2001116780A patent/JP2002312123A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101033428B1 (ko) | 2003-05-19 | 2011-05-09 | 가부시키가이샤 시로쿠 | 에어리어 이미지 센서를 사용한 위치 검출 장치 |
KR101407290B1 (ko) * | 2007-05-07 | 2014-06-13 | 엘지디스플레이 주식회사 | 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법 |
JP2012505615A (ja) * | 2008-10-10 | 2012-03-01 | ジェスチャー テック,インコーポレイテッド | シングルカメラトラッキング装置 |
US9030564B2 (en) | 2008-10-10 | 2015-05-12 | Qualcomm Incorporated | Single camera tracker |
JP2013008368A (ja) * | 2011-06-24 | 2013-01-10 | Ricoh Co Ltd | 仮想タッチスクリーンシステム及び双方向モード自動切換方法 |
CN103516972A (zh) * | 2012-06-19 | 2014-01-15 | 联想(北京)有限公司 | 摄像头控制方法及电子设备 |
CN103516972B (zh) * | 2012-06-19 | 2017-03-29 | 联想(北京)有限公司 | 摄像头控制方法及电子设备 |
JP2014021562A (ja) * | 2012-07-12 | 2014-02-03 | Canon Inc | タッチ検出装置、タッチ検出方法及びプログラム |
JP2014222385A (ja) * | 2013-05-13 | 2014-11-27 | 富士通株式会社 | 検出装置及び検出プログラム |
JP2015064703A (ja) * | 2013-09-24 | 2015-04-09 | 株式会社デンソー | 触覚提示装置 |
WO2023166789A1 (ja) * | 2022-03-04 | 2023-09-07 | チームラボ株式会社 | お絵描き用の表示制御システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11195307B2 (en) | Image processing apparatus, image processing method, and program | |
CN105229582B (zh) | 基于近距离传感器和图像传感器的手势检测 | |
US7411575B2 (en) | Gesture recognition method and touch system incorporating the same | |
US20130055143A1 (en) | Method for manipulating a graphical user interface and interactive input system employing the same | |
US10209797B2 (en) | Large-size touch apparatus having depth camera device | |
JP5645444B2 (ja) | 画像表示システムおよびその制御方法 | |
US20120019460A1 (en) | Input method and input apparatus | |
US11073905B2 (en) | Work assistance system, work assistance method, and computer-readable recording medium | |
CN108563389B (zh) | 显示设备及其用户界面显示方法 | |
EP3985491A1 (en) | Control method for touchless gesture control | |
TW201423477A (zh) | 輸入裝置以及電子裝置 | |
JP2002312123A (ja) | タッチ位置検出装置 | |
TWI499938B (zh) | 觸控系統 | |
JP2004532441A (ja) | 撮像装置によって取り込まれたコンピュータ制御可能な表示の前にある物体の所定点を抽出するためのシステムおよび方法 | |
JP5342806B2 (ja) | 表示方法および表示装置 | |
JP3355708B2 (ja) | コマンド処理装置 | |
KR20090116544A (ko) | 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치 | |
US20140092124A1 (en) | First Image And A Second Image On A Display | |
KR20120082319A (ko) | 윈도우 형태의 증강현실을 제공하는 장치 및 방법 | |
JP4728540B2 (ja) | 会議等支援用画像投影装置 | |
WO2014181587A1 (ja) | 携帯端末装置 | |
JP6699406B2 (ja) | 情報処理装置、プログラム、位置情報作成方法、情報処理システム | |
JP2005346453A (ja) | 画像表示装置 | |
US8493362B2 (en) | Image-based coordinate input apparatus and method utilizing buffered images | |
JP2014238449A (ja) | 画像処理装置 |