JP2008210348A - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
JP2008210348A
JP2008210348A JP2007049062A JP2007049062A JP2008210348A JP 2008210348 A JP2008210348 A JP 2008210348A JP 2007049062 A JP2007049062 A JP 2007049062A JP 2007049062 A JP2007049062 A JP 2007049062A JP 2008210348 A JP2008210348 A JP 2008210348A
Authority
JP
Japan
Prior art keywords
image
fingertip
display screen
menu
dimensional coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007049062A
Other languages
English (en)
Inventor
Takashi Komuro
孝 小室
Noriyoshi Fukuoka
功慶 福岡
Masatoshi Ishikawa
正俊 石川
Arata Hirokawa
新 廣川
Makoto Takahashi
真 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
University of Tokyo NUC
Original Assignee
PFU Ltd
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd, University of Tokyo NUC filed Critical PFU Ltd
Priority to JP2007049062A priority Critical patent/JP2008210348A/ja
Publication of JP2008210348A publication Critical patent/JP2008210348A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】指先をディスプレイ画面に触れることなく、指先の動きに応じた画像を階層的にディスプレイ画面に表示する画像表示装置を提供する。
【解決手段】画像表示装置1が、カメラが撮影した画像に基づいて、指先(100’)の3次元座標を算出し、指先の3次元座標をディスプレイ画面(21’)上の2次元座標と対応付ける。画像表示装置1が、前記対応付けられたディスプレイ画面上の2次元座標と、指先とディスプレイ画面との間の距離とに応じて、現在表示されている画像の下位階層の画像をディスプレイ画面上に表示する。
【選択図】図1

Description

本発明は、画像表示装置に関し、特に、指先をディスプレイ画面に触れずに当該ディスプレイ画面上に情報を表示する画像表示装置に関する。
従来の画面操作インタフェースとしては、タッチパネルやマウスなどがある。タッチパネルは、画面に表示されたボタンなどに指を直接触れることで、直感的な操作によりコンピュータの操作を行うことを可能にしている。また、従来の3次元位置入力システムとして、3Dマウスなどがある。
なお、検出空間内に挿入された物体をカメラにより撮像して画像信号を出力し、当該画像信号に基づいて指先位置信号を計算機に出力して計算機にコマンドを入力させる計算機用コマンド入力装置が提案されている(下記特許文献1参照)。
特開平5−189137号公報
従来のタッチパネルは、指の画面ヘの接触を検出していたため、ユーザは、画面に直接触る必要があった。また、従来のタッチパネルは、指の画面ヘの接触しか検出できないため、画面上の2次元情報しか得ることができず、指の3次元位置を得ることは不可能であり、指先の動きを検出することは難しかった。
また、従来のタッチパネルでは、指と画面の接触検知の解像度が低いという問題や、指先の太さによっては画面に表示されるボタンを押すことが困難であるという問題があった。従って、従来のタッチパネルでは、画面全体の大きさに閉める1個のボタンの大きさが相対的に大きくなる傾向にあった。その結果、画面レイアウトに制限が生じ、また、画面遷移が多くなり、ユーザが現在の状況を把握しにくくなる場合があった。
また、3Dマウスは、デバイスを手に持って操作するものや、特殊な装置を身につけるものが多く、手軽に使うことができなかった。
本発明は、指先をディスプレイ画面に触れることなく、指先の動きに応じた画像を階層的にディスプレイ画面に表示する画像表示装置の提供を目的とする。
本発明の画像表示装置は、ディスプレイ画面上に画像を表示する画像表示装置であって、撮像手段によって撮影された画像から、ディスプレイ画面から所定の範囲内の指先を検出する検出手段と、前記検出された指先の3次元座標を算出する3次元座標計算手段と、前記算出された指先の3次元座標と前記ディスプレイ画面上の2次元座標とを対応付ける座標処理手段と、前記対応付けられた前記ディスプレイ画面上の2次元座標と、前記指先と前記ディスプレイ画面との間の距離とに応じて、現在表示されている画像の下位階層の画像を前記ディスプレイ画面上に表示する画像表示手段とを備える。
好ましくは、本発明の画像表示装置において、前記画像表示手段が、前記指先と前記ディスプレイ画面との間の距離が予め定められた閾値以下であるか否かを判断し、前記距離が前記閾値以下である場合に、前記対応付けられた前記ディスプレイ画面上の2次元座標の位置がクリックされたと判断する。
また、本発明の画像表示装置は、ディスプレイ画面上に画像を表示する画像表示装置であって、撮像手段によって撮影された画像から、ディスプレイ画面から所定の範囲内の指先を検出する検出手段と、前記検出された指先の3次元座標を算出する3次元座標計算手段と、前記算出された指先の3次元座標と前記ディスプレイ画面上の2次元座標とを対応付ける座標処理手段と、前記対応付けられた前記ディスプレイ画面上の2次元座標と、前記指先と前記ディスプレイ画面との間の距離とに応じて、現在表示されている画像の拡大画像又は縮小画像を前記ディスプレイ画面上に表示する画像表示手段とを備える。
本発明の画像表示装置は、撮像手段によって撮影された画像から検出した指先の3次元座標に対応付けられるディスプレイ画面上の2次元座標と、指先とディスプレイ画面との間の距離とに応じて、現在表示されている画像の下位階層の画像を前記ディスプレイ画面上に表示する。従って、本発明の画像表示装置によれば、指先をディスプレイ画面に触れることなく、指先の3次元位置に応じた画像を階層的にディスプレイ画面に表示することができ、その結果、操作性の良い画面操作インタフェースを実現することができる。
また、本発明の画像表示装置は、指先とディスプレイ画面との間の距離が閾値以下である場合に、前記対応付けられた2次元座標の位置がクリックされたと判断する。これにより、当該クリックに応じて、ディスプレイ画面に最終的に表示する画像を生成する。従って、指先をディスプレイ画面に触れることなく、ディスプレイ画面をクリックしたのと同様の入力を行うことができ、最終的に表示すべき画像を表示することができる。
本発明の画像表示装置は、撮像手段によって撮影された画像から検出した指先の3次元座標に対応付けられるディスプレイ画面上の2次元座標と、指先とディスプレイ画面との間の距離とに応じて、現在表示されている画像の拡大画像又は縮小画像を前記ディスプレイ画面上に表示する。従って、本発明の画像表示装置によれば、指先をディスプレイ画面に触れることなく、指先の3次元位置に応じた大きさの画像をディスプレイ画面に表示することができ、その結果、操作性の良い画面操作インタフェースを実現することができる。
図1は、本発明の画像表示装置の構成の一例を示す図である。画像表示装置1は、検出部11−1、11−2、3次元座標計算部12、座標処理部13、画像表示部14、画像記憶部15、階層画像記憶部16を備える。
検出部11−1、11−2は、後述する図2に示すディスプレイ(表示装置)21に取り付けられたカメラ22、23等の撮像手段が撮影した画像から、ディスプレイ21の画面(ディスプレイ画面)21’から所定の範囲内の検出対象物(検出対象である尖頭)、例えば指先100’を検出する。3次元座標計算部12は、検出された指先100’の3次元座標(x,y,z)を算出する。
検出部11−1、11−2の検出対象物は、指先100’に限られず、所定の形状を有する物体であれば良い。例えば、スタイラスペン等であっても良い。即ち、当該先端の3次元座標を算出(特定)できる形状の先端部分(又は尖頭部分)、又は、予め定められた(検出部11−1、11−2に登録された)形状の部分を、棒状の物体の一端に備える物であれば良い。
検出部11−1、11−2により検出される検出対象物は、カメラ22、23等の撮像手段による撮影範囲内、又は、当該範囲内において更に定められた範囲内に存在する物体であって、前記予め定められた形状を有する物体である。
座標処理部13は、算出された指先100’の3次元座標(x,y,z)とディスプレイ画面21’上の2次元座標(x’,y’)とを対応付ける。即ち、3次元座標(x,y,z)の一部(x,y)をディスプレイ画面21’上の2次元座標(x’,y’)に変換(座標変換)する。この2次元座標(x’,y’)は、指先100’によって指されたディスプレイ画面21’上の位置である。
3次元座標が(x,y,z)であるとすると、前述のように、2次元座標は(x’,y’)とされる。この座標変換は予め定めることができる。この座標変換により、例えば、カメラ22、23によって撮影された画像から得られる2次元座標と、ディスプレイ画面21’上の2次元座標とが1対1に対応しているか否かに拘わらず、前記3次元座標が(x,y,z)であるとすると、2次元座標は(x’,y’)となる。これにより、既存のディスプレイ2(又はディスプレイ画面21’)にカメラ22、23を追加した場合でも、2次元座標(x’,y’)を得ることができる。
なお、前記2次元座標と、ディスプレイ画面21’上の2次元座標とが1対1に対応していれば、前記3次元座標が(x,y,z)であるとすると、2次元座標は(x,y)となる。従って、このような場合には座標変換(後述するステップS13)を省略することができる。
画像表示部14は、指先100’の3次元座標(x,y,z)とディスプレイ画面21’上の2次元座標(x’,y’)とに応じた処理を行う。即ち、画像表示部14は、指先100’の3次元座標に対応付けられたディスプレイ画面21’上の2次元座標(x’,y’)と、指先100’とディスプレイ画面21’との間の距離(z)とに応じて、現在(その時点で)表示されている画像の下位階層の画像をディスプレイ画面21’上に表示する。即ち、後述する図3及び図4に示す階層化されたメニュー(階層メニュー)において、現在表示されているメニュー(メニュー画像、以下同じ)の1つだけ下位のメニューを表示する。階層メニューは、後述する画像記憶部15及び階層画像記憶部16により構築(実現)される。
指先100’とディスプレイ画面21’との間の距離とは、指先100’の3次元座標におけるZ座標の座標値(z)である。即ち、指先100’から、ディスプレイ画面21’の作る平面に対して垂線を引いた場合における当該垂線の長さである(図2参照)。
具体的には、画像表示部14は、指先100’とディスプレイ画面21’との間の距離(z)に基づいて、階層メニューにおける当該距離(z)に対応する階層についての座標対応情報(図3参照)を参照する。この座標対応情報は、後述する画像記憶部15に予め記憶され、ディスプレイ画面21’上に現在表示されている画像(以下、「現在表示中画像」という)についての、ディスプレイ画面21’上の2次元座標(x’,y’)と当該画像との対応を示す情報(座標対応情報)である。
そして、画像表示部14は、当該参照に基づいて、当該距離(z)に対応する階層についての座標対応情報の中から、前記対応付けられたディスプレイ画面21’上の2次元座標(x’,y’)と当該対応情報とに基づいて決まる位置(即ち、メニュー画像)を、指先100’が指す階層メニュー上の位置(メニュー画像)として認識する。
更に、画像表示部14は、指先100’とディスプレイ画面21’との間の距離(z)と、認識した指先100’が指す階層メニュー上の位置(メニュー画像)とに基づいて、階層対応情報(図4参照)を参照する。この階層対応情報は、後述する階層画像記憶部16に記憶され、指先100’とディスプレイ画面21’との間の距離(z)と各画像の下位階層の画像との対応を示す情報(階層対応情報)である。
そして、画像表示部14は、当該参照に基づいて、前記認識された階層メニュー上の位置(メニュー画像)の指先100’とディスプレイ画面21’との間の距離(z)に応じた下位階層の画像を決定し、当該決定された下位階層の画像を生成して、ディスプレイ画面21’上に表示する。即ち、階層対応情報の中から、当該距離(z)に対応する階層(現在表示されているメニュー画像の階層)の1つ下位の階層を求め、当該階層に属する複数のメニュー画像を決定し、生成し、表示する。例えば、現在メニュー#1のメニュー画像が表示されていれば、その1つ下位のメニュー#1−1〜#1−4のメニュー画像を表示する(図6参照)。なお、図(図3を除く)においては、例えばメニュー#1を単にメニュー1として表している。
なお、画像表示部14は、前記下位階層の画像に代えて、当該下位階層の画像に関連する文字情報(説明文)をディスプレイ画面21’上に表示するようにしても良い。
画像記憶部15は、現在表示中画像についてのディスプレイ画面21’上の2次元座標(x’,y’)と当該画像との対応情報を記憶する。例えば、現在表示中画像についてのディスプレイ画面21’上での表示領域の座標情報が当該画像に対応付けて記憶される。画像記憶部15については、図3を参照して後述する。
階層画像記憶部16は、指先100’とディスプレイ画面21’との間の距離と各画像の下位階層の画像との対応情報を予め記憶する。階層画像記憶部16については、図4を参照して後述する。
上述した画像表示装置1の各部の機能は、CPUと、主メモリ上に存在しCPU上で実行されるプログラムとにより実現される。当該本発明を実現するプログラムは、コンピュータが読み取り可能な記録媒体、例えば半導体メモリ、ハードディスク、CD−ROM、DVD等に格納することができ、これらの記録媒体に記録して提供され、又は、通信インタフェースを介してネットワークを利用した送受信により提供される。
図2は、指先100’の検出処理と検出された指先100’の3次元座標(x,y,z)の算出処理を説明する図である。図2に示すように、ディスプレイ21の上部と右側に、それぞれディスプレイ画面21’の中心方向を向くようにカメラ22、23が取り付けられている。図2に示す例では、カメラ22は、指100をXZ平面に投影した画像101を撮影し、カメラ23は、指100をYZ平面に投影した画像102を撮影する。ディスプレイ21に取り付けるカメラの位置はディスプレイ21の上部や右側以外でもよく、また、2個以上のカメラをディスプレイ21に取り付けても良い。ディスプレイ21は、液晶、CRT等からなる表示装置である。
検出部11−1は、画像101を2値化して、ディスプレイ21の前面の空間内にある指先100’の領域を検出して、画像101内における指先100’の2次元座標(x1 ,y1 )を取得する。具体的には、検出部11−1は、2値化された画像101から指100の重心座標を検出し、当該指100の形を長方形と近似して、前記検出された重心座標から指先100’の2次元座標を決定する。検出部11−2は、検出部11−1と同様の処理により、画像102に基づいて、指先100’の2次元座標(x2 ,y2 )を決定する。
3次元座標計算部12は、検出部11−1によって取得された指先100’の2次元座標(x1 ,y1 )と、検出部11−2によって取得された指先100’の2次元座標(x2 ,y2 )とに基づいて、ステレオの原理を用いて、指先100’の3次元座標(x,y,z)を算出する。
図3は、画像記憶部15に記憶されている情報の例を示す図である。図3に示すように、画像記憶部15には、現在表示中画像についてのディスプレイ画面21’上の2次元座標(x’,y’)と当該画像との対応情報が記憶される。図3に示すメニュー#1〜メニュー#4は、ユーザの操作メニューを示すメニュー画像である。
例えば、メニュー#1〜メニュー#4というメニュー画像は、階層メニューにおける最上位の階層に存在し、これに対応する画面において表示される。これらの最上位の階層のメニュー画像は、指先100’とディスプレイ画面21’との間の距離(z)が200(単位はミリメートル等、以下同じ)以上である場合、即ち、距離(z)が最も遠い場合におけるメニュー画像であり、また、そのリストである。従って、図3は、画像記憶部15に格納された複数のメニュー画像のリストの中で、最上位の「200<z」と言うラベルが貼られたリストを示す。画像記憶部15は複数のメニュー画像のリストを格納する。複数のメニュー画像のリストは、図4と同様に階層構造を備える。即ち、メニュー#1というメニュー画像の下位に、図3に一部のみを示すように、下位の階層の複数のメニュー画像のリストが格納される。この階層は、例えば100≦z<200、20≦z<100、z<20の各階層とされる。この例では、z<20が階層メニューにおける最下位の階層とされる。
また、例えば、メニュー#1というメニュー画像は、ディスプレイ画面21’上において、X座標(x)が0以上1000未満、Y座標(y)が1050以上2000未満の値である領域に表示されており、メニュー#2というメニュー画像は、ディスプレイ画面21’上において、X座標(x)が1050以上2000未満、Y座標(y)が1050以上2000未満の値である領域に表示されている。また、メニュー#3というメニュー画像は、ディスプレイ画面21’上において、X座標(x)が0以上1000未満、Y座標(y)が0以上1000未満の値である領域に表示されており、メニュー#4というメニュー画像は、ディスプレイ画面21’上において、X座標(x)が1050以上2000未満、Y座標(y)が0以上1000未満の値である領域に表示されている。
図4は、階層画像記憶部16に記憶されている情報の例を示す図である。図4に示すように、階層画像記憶部16には、指先100’とディスプレイ画面21’との間の距離(z)と各画像の下位階層の画像との対応情報が予め記憶されている。
図4に示すメニュー#1、メニュー#2、...は、メニュー画像である。例えば、メニュー#1は、料理に関連するメニュー画像を示し、メニュー#2は、交通に関連するメニュー画像を示す。
メニュー#1−1〜1−4は、指先100’とディスプレイ画面21’との間の距離zが100以上200未満である場合にディスプレイ画面21’上への表示対象となる、メニュー#1の下位階層のメニュー画像である。例えば、メニュー#1−1は日本料理に関連するメニュー画像、メニュー#1−2は中華料理に関連するメニュー画像、メニュー#1−3はフランス料理に関連するメニュー画像、メニュー#1−4はインド料理に関連するメニュー画像である。
また、メニュー#2−1〜2−4は、指先100’とディスプレイ画面21’との間の距離zが100以上200未満である場合にディスプレイ画面21’上への表示対象となる、メニュー#2の下位階層のメニュー画像である。例えば、メニュー#2−1はバス路線に関連するメニュー画像、メニュー#2−2は地下鉄路線に関連するメニュー画像、メニュー#2−3は私鉄路線に関連するメニュー画像、メニュー#2−4は航空路線に関連するメニュー画像である。
同様に、階層画像記憶部16には、前記距離zが20以上100未満である場合にディスプレイ画面21’上への表示対象となる、メニュー#1−1、メニュー#1−2、メニュー#1−3、メニュー#1−4のそれぞれの下位階層のメニュー画像と、距離zが20未満である場合にディスプレイ画面21’上への表示対象となる、前記下位階層の画像のさらに下位階層のメニュー画像が予め記憶される。
同様に、距離zに応じて、メニュー#2−1〜2−4の下位階層のメニュー画像及び当該下位階層のメニュー画像のさらに下位階層のメニュー画像が階層画像記憶部16に予め記憶される。
この例においては、画像表示部14が、指先100’とディスプレイ画面21’との間の距離(z)が予め定められた閾値以下であるか否かを判断し、当該判断結果に基づいて、前記距離が閾値以下である(又は、閾値よりも小さい)場合、クリック処理を行う。即ち、閾値以下である場合、マウスのクリックに相当する処理を行う。前記距離は、前述のように、指先100’の3次元座標(x,y,z)のZ座標の値(z)である。閾値は、例えば実験等に基づいて、適切な値を適宜定めることができる。
この例において、クリック処理とは、ディスプレイ画面21’に最終的に表示する画像(メニュー画像以外の画像)を選択(及び表示)する処理である。即ち、画像表示部14は、指先100’の3次元座標(x,y,z)の値zが閾値以下である場合、当該3次元座標に対応付けられたディスプレイ画面21’上の2次元座標(x’,y’)の位置がクリックされたと判断する。即ち、当該指先100’の2次元座標(x’,y’)がクリックされたものとする。そして、このクリックに応じて、画像表示部14は、ディスプレイ画面21’において当該2次元座標(x’,y’)の位置に存在する画像(メニュー画像)が、最終的に選択されたものとして、当該メニューに対応する画像(メニュー画像以外の画像)を表示する。
このように、画像表示部14が、前記距離が閾値以下であると判断した場合にクリック処理を行うことによって、指先100’をディスプレイ画面21’に触れることなく、指先100’が所定の距離以上ディスプレイ画面21’に近づいた場合に、マウスにおけるクリックと同様の処理が行われたものとして、ディスプレイ画面21’上に最終的に表示すべき画像を表示することができる。
図5は、本発明の第1の実施の形態における画像表示処理フローを示す図である。この例は、階層メニューのメニュー画像を指先100’による選択入力に応じて表示する例である。
検出部11−1、11−2が、それぞれ、カメラ22、23によって撮影された画像から、指先100’の2次元座標を取得する(ステップS11)。次に、3次元座標計算部12が、取得された指先100’の2次元座標に基づいて、指先100’の3次元座標(x,y,z)を算出する(ステップS12)。
座標処理部13が、算出された指先100’の3次元座標(x,y,z)の(x,y)をディスプレイ画面21’上の2次元座標(x’,y’)と対応付ける(ステップS13)。
例えば、図6(A)に示すように、指100が、現在表示中画像であるメニュー#1というメニュー画像に矢印の方向に沿って近づいているとき、座標処理部13は、指先100’の3次元座標を点Qの2次元座標に対応付ける。
画像表示部14が、指先100’の3次元座標に対応付けられたディスプレイ画面21’上の2次元座標(x’,y’)と、画像記憶部15に記憶された、現在表示中画像についてのディスプレイ画面21’の2次元座標(x’,y’)と当該画像との対応情報とに基づいて決まる位置(メニュー画像)を、指先100’が指す階層メニュー上の位置(メニュー画像)として認識する(ステップS14)。例えば、図6(A)中の点Qの座標が(500,1500)であるとすると、画像表示部14は、前述した図3に示す画像記憶部15に記憶された情報を参照して、点Qの2次元座標(x’,y’)に対応するメニュー画像であるメニュー#1を当該指先100’が指している画像として認識する。
次に、画像表示部14が、指先100’の位置の奥行き(z)が予め定められた閾値以下であるか否かを判断する(ステップS15)。指先100’の位置の奥行き(z)とは、指先100’とディスプレイ画面21’との間の距離(指先100’の3次元座標(x,y,z)におけるz)である。即ち、指先100’とディスプレイ画面21’との間の距離又はZ座標の座標値である。
画像表示部14が、指先100’の奥行き(z)が予め定められた閾値以下であると判断した場合、画像表示部14は、クリック処理を行って、最終的に表示する画像を生成する(ステップS16)。具体的には、画像表示部14が、階層画像記憶部16に記憶された情報を参照して、指先100’の奥行き(z)が予め定められた閾値以下の場合にディスプレイ画面21’上への表示対象となる画像を決定し、当該決定された画像を最終的に表示する画像として生成する。この後、画像表示部14が、生成された画像をディスプレイ画面21’上に表示して(ステップS17)、ステップS11に戻る。
この例では、前述のように、z<20が階層メニューにおける最下位の階層である。従って、この例では、前記閾値は20(ミリメートル)とされる。指先100’の奥行き(z)が20以下の場合にクリック処理が行われる。
画像表示部14が、指先100’の位置の奥行き(z)が予め定められた閾値以下でないと判断した場合、画像表示部14は、指先100’の位置の奥行き(z)に対応する、前記ステップS14において認識されたメニュー画像の下位階層のメニュー画像を生成し(ステップS18)、ディスプレイ画面21’上に表示する(ステップS17)。例えば、画像表示部14が、指先100’の位置の奥行き(z)が閾値(例えば20)より大きい(150である)と判断した場合、前述した図4に示す階層画像記憶部16に記憶された情報を参照して、メニュー#1の下位階層のメニュー画像であるメニュー#1−1〜1−4をディスプレイ画面21’上への表示対象となるメニュー画像として決定し、当該決定されたメニュー画像を生成して、図6(B)に示すようにディスプレイ画面21’上に表示する。
本発明の第1の実施の形態によれば、画像表示装置1のユーザがディスプレイ画面21’に表示されたメニュー画像(ボタン)に指先100’を近づけるだけで、指先100’の位置の奥行き(z)に応じて、当該メニュー画像の下位階層のメニュー画像を階層的に表示することができる。その結果、より判りやすい画面操作インタフェースを実現することができる。
また、前述したように、従来のタッチパネルでは、指とディスプレイとの接触検知の解像度が低いという問題や、指先100’の太さの問題などにより、ディスプレイの画面レイアウトが制限されていたが、本発明の第1の実施の形態によれば、指先100’をディスプレイ画面21’に触れずにメニュー画像を表示することができる。このため、前記画面レイアウトの制限に囚われない設計が可能となる。例えば、周知のプルダウンメニューでは指先による正確なメニューの選択が困難であるが、これに代えて、図6に示すメニューを実現することができる。これにより、確実にメニューを選択することができる。
図7は、本発明の画像表示装置1において実行される本発明の第2の実施の形態における画像表示処理フローを示す図である。この例は、地図の画像を、縮尺率を変化させつつ、指先100’による選択入力に応じて表示する例である。
この例の画像表示装置1は、基本的には、図1及び図2に示す画像表示装置1と同様の構成を備えるが、画像記憶部15及び階層画像記憶部16を備えない点で異なる。即ち、画像記憶部15及び階層画像記憶部16に代えて、地図データベース(図示せず)が備えられる。この例では、画像表示部14は、指先100’の3次元座標に対応付けられたディスプレイ画面21’上の2次元座標(x’,y’)と、指先100’とディスプレイ画面21’との間の距離(z)とに応じて、現在(その時点で)表示されている画像の拡大画像又は縮小画像をディスプレイ画面21’上に表示する。即ち、この例では、ディスプレイ画面21’上の2次元座標(x’,y’)に基づいて現在表示されている地図上において指先の示す位置を求め、指先100’の位置の奥行き(z)に基づいて地図の縮尺率を求める。縮尺率は、例えば指先100’の位置の奥行き(z)に応じて、予め定められた値で段階的に変化させられる。即ち、縮尺率の異なる複数の地図データベースが用意され、当該縮尺率に応じた地図データベースが参照される。なお、2つの地図データベースを用いて、当該縮尺率の中間の縮尺率の地図データを補間により生成して、連続的に縮尺率を変化させるようにしても良い。
検出部11−1、11−2が、それぞれ、カメラ22、23によって撮影された画像から、指先100’の2次元座標を取得する(ステップS21)。次に、3次元座標計算部12が、取得された指先100’の2次元座標に基づいて、指先100’の3次元座標(x,y,z)を算出する(ステップS22)。次に、座標処理部13が、算出された指先100’の3次元座標(x,y,z)の(x,y)をディスプレイ画面21’上の2次元座標(x’,y’)と対応付ける(ステップS23)。
例えば、図8(A)に示すように、指100が、斜線部に示す円形状の画像の中心(点O)に矢印の方向に沿って近づいているとき、座標処理部13は、当該指100の指先100’の3次元座標を、点Oの2次元座標に対応付ける(座標変換する)。
画像表示部14が、指先100’の3次元座標に対応付けられたディスプレイ画面21’上の2次元座標と、画像記憶部15に記憶された、現在表示中画像についてのディスプレイ画面21’上の2次元座標(x’,y’)と当該画像との対応情報とに基づいて決まる画像を、指先100’が指す現在表示中画像として認識する(ステップS24)。例えば、図8(A)に示す例では、画像表示部14は、点Oの2次元座標に基づいて、当該指先100’が斜線部に示す円形状の画像を指していることを認識する。
そして、画像表示部14が、ステップS24において認識された画像を、指先100’の位置の奥行きに応じて、指先100’の3次元座標と対応付けられたディスプレイ画面21’上の2次元座標(x’,y’)を中心に拡大又は縮小して表示し(ステップS25)、ステップS21に戻る。例えば、画像表示部14は、図8(A)中に示す斜線部に示す円形状の画像を、図8(B)に示すように、点Oを中心に拡大して表示する。
なお、画像の拡大率は、指先100’の位置の奥行きに反比例させるようにしても良い。例えば、指先100’がディスプレイ画面21’に近づくと画像が拡大され、指先100’がディスプレイ画面21’から遠ざかると当該画像が縮小される。
図9(A)に示すように、指先100’が斜線部に示す円形状の画像を指している状態から矢印の方向に移動したときは、当該指先100’の位置の奥行きに応じて、図9(A)に示す円形状の画像が、図9(B)に示すように、移動後に指先100’が指している点Pを中心に拡大されて表示される。なお、画像表示部14が、指先100’がある距離以上ディスプレイ画面21’に近づき、画像の拡大率が所定の値以上になったかを判断し、画像の拡大率が所定の値以上になったと判断したときに、それ以上に当該画像を拡大しないようにしても良い。
本発明の第2の実施の形態によれば、画像表示装置1のユーザがディスプレイ画面21’上において詳しく見たい領域を触れることなく指先100’で指すだけで、当該指された領域の画像が拡大又は縮小されるため、ユーザが直感的な画面操作を行うことができる。
以上、本発明をその実施の形態に従って説明したが、本発明は、その主旨に従って種々の変形が可能である。
例えば、ディスプレイ画面21’として周知のタッチパネルを用いるようにしても良い。この場合、画像表示部14が、当該タッチパネルに指先100’が触れたことを検知して、前記クリック処理を行う。これにより、ユーザは、触感を通じて自身の行った操作を確認することができるため、安心して操作を行うことができる。
また、画像表示部14が、更に、指先100’とディスプレイ画面21’との間の距離に応じて、ディスプレイ画面21’に現在表示されている画像を拡大又は縮小するようにしても良い。また、画像表示部14が、更に、当該拡大された画像を下位階層の画像に変更するようにしても良い。
本発明の画像表示装置1について、様々な適用例が考えられる。例えば、本発明の画像表示装置1を駅の自動券売機などの端末に適用することによって、当該端末の画面上で、指の奥行きに応じて画面中の画像を動的に変化させて、画面遷移がなくシームレスな画面操作インタフェースを実現することができる。即ち、本発明の画像表示装置1を適用することによって、指先100’の位置の奥行きに応じて、端末の画面上に現在表示されている文字を拡大するなどして、視力が弱い人でも操作可能とするユニバーサルデザインを実現したり、広域の路線図の画像から局所的な部分にシームレスに移動し目的地を選択したりすることができる。
また、例えば、PDAのような画面が小さいデバイスの入力画面に本発明の画像表示装置1を適用することによって、例えば、入力画面にソフトウェアキーボードなどを表示し、指先100’(又はスタイラスペン)が近づくと、当該ソフトウェアキーボードの表示を拡大したりすることができる。その結果、入力画面が小さいデバイスであっても簡単に操作を行うことができる。
以上、説明したように、本発明の画像表示装置によれば、指先をディスプレイ画面に触れることなく、指先の3次元位置に応じた画像を階層的にディスプレイ画面に表示することができる。その結果、操作性の良い画面操作インタフェースを実現することができる。これにより、従来のタッチパネルにおいて問題となる画面レイアウトの制限に囚われない設計が可能となる。更に、ユーザの手が汚れてディスプレイ画面を触ることができない環境下でも、ディスプレイ画面上にユーザが所望する画像を表示することができる。
また、本発明の画像表示装置によれば、指先とディスプレイ画面との間の距離に応じて当該位置がクリックされたと判断することができるので、当該クリックに応じて、ディスプレイ画面に最終的に表示する画像を生成することができる。
本発明の画像表示装置の構成の一例を示す図である。 指先の検出処理と検出された指先の3次元座標の算出処理を説明する図である。 画像記憶部に記憶されている情報の例を示す図である。 階層画像記憶部に記憶されている情報の例を示す図である。 本発明の第1の実施の形態における画像表示処理フローを示す図である。 下位階層のメニュー画像の表示処理を説明する図である。 本発明の第2の実施の形態における画像表示処理フローを示す図である。 画像の拡大処理を説明する図である。 画像の拡大処理を説明する図である。
符号の説明
1 画像表示装置
11−1、11−2 検出部
12 3次元座標計算部
13 座標処理部
14 画像表示部
15 画像記憶部
16 階層画像記憶部
21 ディスプレイ
100 指
101、102 画像

Claims (3)

  1. ディスプレイ画面上に画像を表示する画像表示装置であって、
    撮像手段によって撮影された画像から、ディスプレイ画面から所定の範囲内の指先を検出する検出手段と、
    前記検出された指先の3次元座標を算出する3次元座標計算手段と、
    前記算出された指先の3次元座標と前記ディスプレイ画面上の2次元座標とを対応付ける座標処理手段と、
    前記対応付けられた前記ディスプレイ画面上の2次元座標と、前記指先と前記ディスプレイ画面との間の距離とに応じて、現在表示されている画像の下位階層の画像を前記ディスプレイ画面上に表示する画像表示手段とを備える
    ことを特徴とする画像表示装置。
  2. 前記画像表示手段が、前記指先と前記ディスプレイ画面との間の距離が予め定められた閾値以下であるか否かを判断し、前記距離が前記閾値以下である場合に、前記対応付けられた前記ディスプレイ画面上の2次元座標の位置がクリックされたと判断する
    ことを特徴とする請求項1に記載の画像表示装置。
  3. ディスプレイ画面上に画像を表示する画像表示装置であって、
    撮像手段によって撮影された画像から、ディスプレイ画面から所定の範囲内の指先を検出する検出手段と、
    前記検出された指先の3次元座標を算出する3次元座標計算手段と、
    前記算出された指先の3次元座標と前記ディスプレイ画面上の2次元座標とを対応付ける座標処理手段と、
    前記対応付けられた前記ディスプレイ画面上の2次元座標と、前記指先と前記ディスプレイ画面との間の距離とに応じて、現在表示されている画像の拡大画像又は縮小画像を前記ディスプレイ画面上に表示する画像表示手段とを備える
    ことを特徴とする画像表示装置。
JP2007049062A 2007-02-28 2007-02-28 画像表示装置 Pending JP2008210348A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007049062A JP2008210348A (ja) 2007-02-28 2007-02-28 画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007049062A JP2008210348A (ja) 2007-02-28 2007-02-28 画像表示装置

Publications (1)

Publication Number Publication Date
JP2008210348A true JP2008210348A (ja) 2008-09-11

Family

ID=39786561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007049062A Pending JP2008210348A (ja) 2007-02-28 2007-02-28 画像表示装置

Country Status (1)

Country Link
JP (1) JP2008210348A (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108314A (ja) * 2008-10-30 2010-05-13 Pentel Corp 入力装置
JP2010173584A (ja) * 2009-01-30 2010-08-12 Denso Corp 操作装置
JP2011108152A (ja) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd 3次元入力表示装置
JP2011215937A (ja) * 2010-03-31 2011-10-27 Ntt Docomo Inc 情報入力装置及び情報入力方法
JP2012008808A (ja) * 2010-06-24 2012-01-12 Canon Inc 情報処理装置
JP2012027515A (ja) * 2010-07-20 2012-02-09 Hitachi Consumer Electronics Co Ltd 入力方法及び入力装置
JP2012032945A (ja) * 2010-07-29 2012-02-16 Canon Inc 情報処理装置及びその制御方法
JP2012033104A (ja) * 2010-08-02 2012-02-16 Olympus Imaging Corp 表示装置及び撮像装置
JP2012068495A (ja) * 2010-09-24 2012-04-05 Sony Corp 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム
JP2012512453A (ja) * 2008-12-15 2012-05-31 ソニー エリクソン モバイル コミュニケーションズ, エービー 光学マーカを有するユーザ入力デバイスを検出する電子デバイス、システム、方法およびコンピュータプログラム
JP2012150636A (ja) * 2011-01-19 2012-08-09 Seiko Epson Corp 投写型表示装置及び情報処理システム
WO2013088655A1 (ja) * 2011-12-16 2013-06-20 パナソニック株式会社 タッチパネル及び電子機器
WO2013111224A1 (ja) * 2012-01-25 2013-08-01 パナソニック株式会社 電子機器、制御方法、および制御プログラム
JP2013175113A (ja) * 2012-02-27 2013-09-05 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2014512060A (ja) * 2011-04-20 2014-05-19 コーニンクレッカ フィリップス エヌ ヴェ ジェスチャーに基づく要素又はアイテムの制御
JP2014115876A (ja) * 2012-12-11 2014-06-26 Mitsubishi Electric Corp 3次元タッチパネルを用いた被操作端末の遠隔操作方法
JP2014232475A (ja) * 2013-05-30 2014-12-11 京セラドキュメントソリューションズ株式会社 表示装置、電子機器、及び画像形成装置
JP2015103073A (ja) * 2013-11-26 2015-06-04 京セラドキュメントソリューションズ株式会社 操作表示装置
LU92408B1 (en) * 2014-03-21 2015-09-22 Olivier Raulot User gesture recognition
JP2016071836A (ja) * 2014-09-30 2016-05-09 深▲せん▼市億思達科技集団有限公司 ホログラム表示を実現する対話型表示方法、制御方法及びシステム
JP2016076275A (ja) * 2010-06-09 2016-05-12 ザ・ボーイング・カンパニーThe Boeing Company ジェスチャーに基づくマン−マシンインターフェース
JPWO2019107484A1 (ja) * 2017-12-01 2020-11-19 日本電気株式会社 情報処理装置、表示位置調整方法、およびプログラム
JP2021121962A (ja) * 2019-10-10 2021-08-26 マクセル株式会社 操作方法
US11775129B2 (en) 2015-10-14 2023-10-03 Maxell, Ltd. Input terminal device and operation input method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189137A (ja) * 1992-01-16 1993-07-30 Sumitomo Heavy Ind Ltd 計算機用コマンド入力装置
JP2004070829A (ja) * 2002-08-08 2004-03-04 Calsonic Kansei Corp 画面入力装置
JP2005531824A (ja) * 2001-10-30 2005-10-20 ヒューレット・パッカード・カンパニー 3次元グラフィック環境と対話する方法
WO2006003591A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Discontinuous zoom

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189137A (ja) * 1992-01-16 1993-07-30 Sumitomo Heavy Ind Ltd 計算機用コマンド入力装置
JP2005531824A (ja) * 2001-10-30 2005-10-20 ヒューレット・パッカード・カンパニー 3次元グラフィック環境と対話する方法
JP2004070829A (ja) * 2002-08-08 2004-03-04 Calsonic Kansei Corp 画面入力装置
WO2006003591A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Discontinuous zoom

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108314A (ja) * 2008-10-30 2010-05-13 Pentel Corp 入力装置
JP2012512453A (ja) * 2008-12-15 2012-05-31 ソニー エリクソン モバイル コミュニケーションズ, エービー 光学マーカを有するユーザ入力デバイスを検出する電子デバイス、システム、方法およびコンピュータプログラム
JP2010173584A (ja) * 2009-01-30 2010-08-12 Denso Corp 操作装置
JP4626860B2 (ja) * 2009-01-30 2011-02-09 株式会社デンソー 操作装置
JP2011108152A (ja) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd 3次元入力表示装置
JP2011215937A (ja) * 2010-03-31 2011-10-27 Ntt Docomo Inc 情報入力装置及び情報入力方法
JP2016076275A (ja) * 2010-06-09 2016-05-12 ザ・ボーイング・カンパニーThe Boeing Company ジェスチャーに基づくマン−マシンインターフェース
JP2012008808A (ja) * 2010-06-24 2012-01-12 Canon Inc 情報処理装置
JP2012027515A (ja) * 2010-07-20 2012-02-09 Hitachi Consumer Electronics Co Ltd 入力方法及び入力装置
JP2012032945A (ja) * 2010-07-29 2012-02-16 Canon Inc 情報処理装置及びその制御方法
JP2012033104A (ja) * 2010-08-02 2012-02-16 Olympus Imaging Corp 表示装置及び撮像装置
JP2012068495A (ja) * 2010-09-24 2012-04-05 Sony Corp 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム
JP2012150636A (ja) * 2011-01-19 2012-08-09 Seiko Epson Corp 投写型表示装置及び情報処理システム
US9417703B2 (en) 2011-04-20 2016-08-16 Koninklijke Philips N.V. Gesture based control of element or item
JP2014512060A (ja) * 2011-04-20 2014-05-19 コーニンクレッカ フィリップス エヌ ヴェ ジェスチャーに基づく要素又はアイテムの制御
WO2013088655A1 (ja) * 2011-12-16 2013-06-20 パナソニック株式会社 タッチパネル及び電子機器
US9182870B2 (en) 2011-12-16 2015-11-10 Panasonic Intellectual Property Corporation Of America Touch panel and electronic device
US9182869B2 (en) 2011-12-16 2015-11-10 Panasonic Intellectual Property Corporation Of America Touch panel and electronic device
US9052791B2 (en) 2011-12-16 2015-06-09 Panasonic Intellectual Property Corporation Of America Touch panel and electronic device
WO2013111224A1 (ja) * 2012-01-25 2013-08-01 パナソニック株式会社 電子機器、制御方法、および制御プログラム
JP2013175113A (ja) * 2012-02-27 2013-09-05 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2014115876A (ja) * 2012-12-11 2014-06-26 Mitsubishi Electric Corp 3次元タッチパネルを用いた被操作端末の遠隔操作方法
CN104219408A (zh) * 2013-05-30 2014-12-17 京瓷办公信息系统株式会社 显示装置、电子设备以及图像形成装置
JP2014232475A (ja) * 2013-05-30 2014-12-11 京セラドキュメントソリューションズ株式会社 表示装置、電子機器、及び画像形成装置
CN104219408B (zh) * 2013-05-30 2017-05-03 京瓷办公信息系统株式会社 显示装置、电子设备以及图像形成装置
JP2015103073A (ja) * 2013-11-26 2015-06-04 京セラドキュメントソリューションズ株式会社 操作表示装置
US10310619B2 (en) 2014-03-21 2019-06-04 Artnolens Sa User gesture recognition
WO2015139969A3 (en) * 2014-03-21 2016-04-07 Raulot Olivier User gesture recognition
LU92408B1 (en) * 2014-03-21 2015-09-22 Olivier Raulot User gesture recognition
JP2016071836A (ja) * 2014-09-30 2016-05-09 深▲せん▼市億思達科技集団有限公司 ホログラム表示を実現する対話型表示方法、制御方法及びシステム
US11775129B2 (en) 2015-10-14 2023-10-03 Maxell, Ltd. Input terminal device and operation input method
JPWO2019107484A1 (ja) * 2017-12-01 2020-11-19 日本電気株式会社 情報処理装置、表示位置調整方法、およびプログラム
US11610334B2 (en) 2017-12-01 2023-03-21 Nec Corporation Image recognition apparatus using an object image data, image recognition method using an object image data, and program
JP2021121962A (ja) * 2019-10-10 2021-08-26 マクセル株式会社 操作方法
JP7273098B2 (ja) 2019-10-10 2023-05-12 マクセル株式会社 操作方法

Similar Documents

Publication Publication Date Title
JP2008210348A (ja) 画像表示装置
US10346016B1 (en) Nested zoom in windows on a touch sensitive device
US8122384B2 (en) Method and apparatus for selecting an object within a user interface by performing a gesture
US9256917B1 (en) Nested zoom in windows on a touch sensitive device
KR101453628B1 (ko) 사용자 인터페이스
CN102216893B (zh) 在不使用光标的情况下移动屏上对象的触摸屏设备、方法和图形用户界面
US9529527B2 (en) Information processing apparatus and control method, and recording medium
US20150220149A1 (en) Systems and methods for a virtual grasping user interface
JP5620440B2 (ja) 表示制御装置、表示制御方法及びプログラム
US20120326995A1 (en) Virtual touch panel system and interactive mode auto-switching method
JP6429886B2 (ja) 触感制御システムおよび触感制御方法
JP2010262400A (ja) 車載用電子機器操作装置
CN103529942A (zh) 基于免接触的手势的输入
US9639167B2 (en) Control method of electronic apparatus having non-contact gesture sensitive region
CN102314301A (zh) 虚拟触控感应系统及方法
US9477373B1 (en) Simultaneous zoom in windows on a touch sensitive device
US10042445B1 (en) Adaptive display of user interface elements based on proximity sensing
KR101519225B1 (ko) 휴대용 디바이스 센서를 이용한 디바이스 간 컨텐츠 이동 방법 및 시스템
JP2024520943A (ja) キー機能実行方法、キー機能実行システム、キー機能実行装置、電子機器、及びコンピュータプログラム
JP5311080B2 (ja) 車載用電子機器操作装置
JP6183820B2 (ja) 端末、及び端末制御方法
US10140003B1 (en) Simultaneous zoom in windows on a touch sensitive device
JP5472842B2 (ja) 車両用操作装置
WO2014181587A1 (ja) 携帯端末装置
JP2012173981A (ja) 表示装置、表示方法、及び表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100329

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120110