JP2015032101A - 情報端末装置 - Google Patents
情報端末装置 Download PDFInfo
- Publication number
- JP2015032101A JP2015032101A JP2013160537A JP2013160537A JP2015032101A JP 2015032101 A JP2015032101 A JP 2015032101A JP 2013160537 A JP2013160537 A JP 2013160537A JP 2013160537 A JP2013160537 A JP 2013160537A JP 2015032101 A JP2015032101 A JP 2015032101A
- Authority
- JP
- Japan
- Prior art keywords
- light
- touch panel
- display
- touch
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】複雑な処理を必要としないで、より直感的な操作によりコマンドの指示が可能な情報端末装置を提供する。
【解決手段】実施形態の情報端末装置1は、タッチパネル13付きの表示器3と、表示器3の表示面に対向する3次元空間内の物体の位置を検出する位置検出部と、タッチパネル13へのタッチ操作によるタッチパネル13のタッチ位置情報と、タッチパネル13へのタッチがされた後に又はタッチパネル13へのタッチがされている状態で位置検出部により検出された3次元空間内における物体の空間内位置情報とに基づいて、所定の処理を実行させる所定のコマンドを生成するコマンド生成部と、を有する。
【選択図】図14
【解決手段】実施形態の情報端末装置1は、タッチパネル13付きの表示器3と、表示器3の表示面に対向する3次元空間内の物体の位置を検出する位置検出部と、タッチパネル13へのタッチ操作によるタッチパネル13のタッチ位置情報と、タッチパネル13へのタッチがされた後に又はタッチパネル13へのタッチがされている状態で位置検出部により検出された3次元空間内における物体の空間内位置情報とに基づいて、所定の処理を実行させる所定のコマンドを生成するコマンド生成部と、を有する。
【選択図】図14
Description
本発明の実施形態は、情報端末装置に関する。
近年、スマートフォン、タブレット端末、デジタルサイネージなどの情報端末装置が広く普及している。これらの情報端末装置は、タッチパネル付きの表示器を有する。
タッチパネルは、ユーザが画面上に表示されているボタン、画像などをタッチすることにより、コマンドの指示、オブジェクトの選択などが直感的にできるため、スマートフォン、タブレット端末などに広く利用されている。
タッチパネルは、ユーザが画面上に表示されているボタン、画像などをタッチすることにより、コマンドの指示、オブジェクトの選択などが直感的にできるため、スマートフォン、タブレット端末などに広く利用されている。
また、近年は、ゲーム機などにおいて、ジェスチャによりコマンドの指示を行うことができる技術も実用化されている。ジェスチャは3次元的な動作であるため、タッチパネルと比較して、より直感的な動作によりコマンドの指示が可能である。
しかし、ジェスチャだけによるコマンドの指示の場合、ジェスチャ動作の認識精度が悪いという問題がある。そのため、高精度なジェスチャの認識処理のためには、複雑な処理が必要となる。
また、タッチパネルも直感的な操作が可能であるが、オブジェクトの選択などのコマンドの指示しかできず、ジェスチャのような、より直感的な操作をすることはできない。
そこで、実施形態は、複雑な処理を必要としないで、より直感的な操作によりコマンドの指示が可能な情報端末装置を提供することを目的とする。
実施形態の情報端末装置は、タッチパネル付きの表示器と、前記表示器の表示面に対向する3次元空間内の物体の位置を検出する位置検出部と、前記タッチパネルへのタッチ操作による前記タッチパネルのタッチ位置情報と、前記タッチパネルへのタッチがされた後に又は前記タッチパネルへのタッチがされている状態で前記位置検出部により検出された前記3次元空間内における前記物体の空間内位置情報とに基づいて、所定の処理を実行させる所定のコマンドを生成するコマンド生成部と、を有する。
以下、図面を参照して実施形態を説明する。
(第1の実施形態)
(構成)
図1は、実施形態に係わる情報端末装置であるタブレット端末の概観図である。
なお、ここでは、情報端末装置として、タブレット端末を例に挙げて説明するが、情報端末装置は、タッチパネルを有するスマートフォン、デジタルサイネージなどであってもよい。
(第1の実施形態)
(構成)
図1は、実施形態に係わる情報端末装置であるタブレット端末の概観図である。
なお、ここでは、情報端末装置として、タブレット端末を例に挙げて説明するが、情報端末装置は、タッチパネルを有するスマートフォン、デジタルサイネージなどであってもよい。
タブレット端末1は、薄い板形状の本体部2を有し、本体部2の上面にタッチパネル付きの表示器3の矩形の表示領域3aが配置され、矩形の表示領域3aに画像が表示されるように構成されている。タブレット端末1の上面には、スイッチ4とカメラ5も配置されて設けられている。ユーザは、タブレット端末1をインターネットに接続して各種サイトを閲覧したり、各種アプリケーションソフトウエアを実行させたりすることができる。表示領域3a上には、各種サイト画面が表示されたり、各種アプリケーションソフトウエアにより生成された各種画面が表示されたりする。
スイッチ4は、タブレット端末1のオン、オフ、所定の画面へのジャンプなどを、指示するためにユーザにより操作される操作部である。
カメラ5は、表示領域3aの表示面に対向する方向を撮像するためのCCDなどの撮像素子を含む撮像装置である。
カメラ5は、表示領域3aの表示面に対向する方向を撮像するためのCCDなどの撮像素子を含む撮像装置である。
タブレット端末1の表示領域3aの周囲には、3つの発光部6a、6b、6cと、1つの受光部7が配置されている。
具体的には、3つの発光部6a、6b、6c(以下、3つの発光部を纏めて指すとき、あるいは任意の1つの発光部を指すときは、発光部6ともいう)は、それぞれ矩形の表示領域3aの四隅のうちの3つの角部の近傍に設けられ、点線で示すように、表示領域3aの表示面に直交する方向に所定の範囲に所定の波長の光を放射するように設けられている。
具体的には、3つの発光部6a、6b、6c(以下、3つの発光部を纏めて指すとき、あるいは任意の1つの発光部を指すときは、発光部6ともいう)は、それぞれ矩形の表示領域3aの四隅のうちの3つの角部の近傍に設けられ、点線で示すように、表示領域3aの表示面に直交する方向に所定の範囲に所定の波長の光を放射するように設けられている。
また、受光部7は、3つの発光部6が設けられていない、表示領域3aの四隅の1つの角部の近傍に設けられ、点線に示すように所定の範囲内の光を受光するように設けられている。すなわち、3つの発光部6a、6b、6cは、表示器3の表示面の周囲に配置され、受光部も、その表示面の周囲に配置されている。
各発光部6は、所定の波長の光、ここでは近赤外線の光、を出射する発光ダイオード(以下、LEDという)と、レンズなどの光学系とを有し、受光部7は、各発光部3が出射した、所定の波長の光を受光するフォトダイオード(PD)と、レンズなどの光学系とを有する。ここでは、可視光線の赤色の光よりも波長の長い近赤外線を利用しているので、ユーザには発光部6が発光していることは見えない。すなわち、各発光部6は、可視光の波長範囲外の波長の光として、近赤外線の光を出射する。
発光部6からの出射光の出射方向は、表示領域3aの表面に直交する方向における所定の範囲であり、各発光部6からの出射光が受光部7に直接入力しないように、受光部7の向きは設定されている。
すなわち、各発光部6は、出射側に設けられた光学系のレンズの向きなどを調整することにより、表示領域3aの上側の後述する動作判定空間FDAを含む空間に向けて光を出射するような出射範囲を有するように設けられている。同様に、受光部7も、入射側に設けられた光学系のレンズの向きなどを調整することにより、表示領域3aの上側の後述する動作判定空間FDAを含む空間からの光を入射するような入射範囲を有するように設けられている。
図2は、タブレット端末1の構成を示すブロック図である。図2に示すように、タブレット端末1は、制御部11、液晶表示装置(以下、LCDという)12と、タッチパネル13と、無線通信のための通信部14と、記憶部15と、スイッチ4と、カメラ5と、3つの発光部6と、受光部7とを有して構成されている。LCD12、タッチパネル13、通信部14、記憶部15、スイッチ4、カメラ5、3つの発光部6及び受光部7は、制御部11と接続されている。
制御部11は、中央処理装置(以下、CPUという)、ROM、RAM、バス、書き換え可能な不揮発性メモリ(例えばフラッシュメモリ)、各種インタフェース部を含む。ROM及び記憶部15には、各種プログラムが格納され、ユーザにより指定されたプログラムは、CPUにより読み出されて実行される。
LCD12とタッチパネル13は、表示器3を構成する。すなわち、表示器3は、タッチパネル付きの表示器である。制御部11は、タッチパネル13からのタッチ位置信号を入力し、入力されたタッチ位置信号に基づく所定の処理を実行する。制御部11は、接続されたLCD12に対して、画面データを生成して出力することにより、表示領域3aの画面上にグラフィカルユーザインターフェース(GUI)を提供する。
通信部14は、インターネット、LANなどのネットワークと無線通信するための回路であり、制御部11の制御下で、ネットワークとの通信を行う。
記憶部15は、ハードディスクドライブ装置(HDD)、ソリッドステートドライブ装置(SSD)等の大容量の記憶装置である。各種プログラムだけでなく、各種データが記憶される。
スイッチ4は、ユーザにより操作され、その操作信号を制御部11へ出力する。
カメラ5は、制御部11の制御下で動作し、撮像信号を制御部11へ出力する。
記憶部15は、ハードディスクドライブ装置(HDD)、ソリッドステートドライブ装置(SSD)等の大容量の記憶装置である。各種プログラムだけでなく、各種データが記憶される。
スイッチ4は、ユーザにより操作され、その操作信号を制御部11へ出力する。
カメラ5は、制御部11の制御下で動作し、撮像信号を制御部11へ出力する。
各発光部6は、後述するように、制御部11により、所定の順番で駆動されて、所定の光(ここでは、近赤外線の光)を出射する。
受光部7は、所定の光(ここでは、各発光部6が出射した近赤外線の光)を受光し、受光量に応じた検出信号を制御部11へ出力する。
受光部7は、所定の光(ここでは、各発光部6が出射した近赤外線の光)を受光し、受光量に応じた検出信号を制御部11へ出力する。
制御部11は、3つの発光部6の発光タイミングと、受光部7の受光タイミングを制御して受光部7の検出信号を用いて、後述する所定の演算及び判定処理を実行し、所定の条件に合致すると、通信部14を介して所定のデータを送信する。
本実施形態では、表示領域3a上の3次元空間内の指の動きを検出する空間が設定され、その空間内におけるユーザの指の動きが検出される。
(表示領域上の3次元空間内の指の位置検出)
図3は、表示領域3aから離れた上方の指の動きを検出する領域である動作判定空間FDAを説明するための図である。
図3は、表示領域3aから離れた上方の指の動きを検出する領域である動作判定空間FDAを説明するための図である。
図3に示すように、本実施形態の動作判定空間FDAは、表示領域3aから離れた上方に設定された直方体空間である。ここでは、動作判定空間FDAにおいて、発光部6aと6bとを結ぶ線方向をX方向とし、発光部6bと6cとを結ぶ線方向をY方向とし、表示領域3aの表面に直交する方向をZ方向とするとき、動作判定空間FDAは、表示領域3aからZ方向において所定の距離Znだけ離れた位置から、表示領域3aの矩形枠に沿って、Z方向に伸びた直方体空間である。よって、動作判定空間FDAは、X方向にLxの長さを有し、Y方向にLyの長さを有し、Z方向にLzの長さを有する直方体である。Lzは、例えば10cmから20cmの範囲の長さである。
動作判定空間FDAは、表示領域3aの表面から所定の距離Znだけ離れた位置に規定される。これは、受光部7が指Fからの反射光を受光できないZ方向における高さ範囲があるためである。よって、動作判定空間FDAは、その受光できない範囲を除いて設定される。ここでは、図3に示すように、動作判定空間FDAのX方向の左方端、Y方向の下方端、及びZ方向の下方端が、動作判定空間FDAの位置の基準点P0としている。
図4は、各発光部6の発光タイミングと、受光部7の受光タイミングを説明するための図である。図4において、縦軸は、発光量又は受光量を示し、横軸は、時間軸である。
制御部11は、3つの発光部6a、6b、6cを所定の順番で所定の光量ELで発光させる。図4に示すように、制御部11は、3つの発光部6のうちの、最初に、発光部6aを所定時間T1だけ発光させ、発光部6aの発光後、所定時間T2をおいて、発光部6bを所定時間T1だけ発光させる。そして、発光部6bの発光後、制御部11は、所定時間T2をおいて、発光部6cを所定時間T1だけ発光させる。その後は、発光部6cの発光後、制御部11は、所定時間T2をおいて、発光部6aを所定時間T1だけ発光させ、続いて、第2の発光部6bを発光させるように、以下、第1から第3の発光部6a、6b、6cを、順番に発光させることを、繰り返す。
制御部11は、3つの発光部6a、6b、6cを所定の順番で所定の光量ELで発光させる。図4に示すように、制御部11は、3つの発光部6のうちの、最初に、発光部6aを所定時間T1だけ発光させ、発光部6aの発光後、所定時間T2をおいて、発光部6bを所定時間T1だけ発光させる。そして、発光部6bの発光後、制御部11は、所定時間T2をおいて、発光部6cを所定時間T1だけ発光させる。その後は、発光部6cの発光後、制御部11は、所定時間T2をおいて、発光部6aを所定時間T1だけ発光させ、続いて、第2の発光部6bを発光させるように、以下、第1から第3の発光部6a、6b、6cを、順番に発光させることを、繰り返す。
すなわち、3つの発光部6a、6b、6cは、互いに異なるタイミングで発光し、受光部7は、その異なるタイミングに応じて、3つの発光部6a、6b、6cのそれぞれから発光された光の反射光を検出する。
制御部11は、以上のように、3つの発光部6を所定の発光タイミングで発光させると共に、各発光部6の発光時間である所定時間T1中の所定のタイミングで受光部7の検出信号を取得する。
図4では、受光量ALaは、発光部6aが発光したときに受光部7が検出した光量であり、受光量ALbは、発光部6bが発光したときに受光部7が検出した光量であり、受光量ALcは、発光部6cが発光したときに受光部7が検出した光量であることを示している。制御部11は、受光部7の検出信号を入力し、各発光部6に対応する受光量の情報を得ることができる。
図5は、タブレット端末1の表示領域3aの上方からみた、発光部6から出射した光が受光部7において受光される光路を説明するための図である。図5は、X方向における指Fの位置の推定を説明するための図である。
図5において、位置P1は、タブレット端末1の表示領域3aの上方からみたときに、X方向においてはやや左寄りで、Y方向においてはやや下寄りの位置である。位置P2は、X方向においてはやや左寄りで、Y方向においてはやや上寄りの位置である。但し、位置P1とP2は、X方向における位置X1は、同じである。
指Fが表示器3にタッチしないで(すなわちタッチパネル13にタッチしないで)、表示領域3aから離れた上方の位置P1にあるときに、発光部6aから出射した光のうち、指Fに当たった光が反射して受光部7に入射する光は、図5に示す光路L11とL13を通り、発光部6bから出射した光のうち、指Fに当たった光が反射して受光部7に入射する光は、図5に示す光路L12とL13を通る。
指Fが表示器3にタッチしないで(すなわちタッチパネル13にタッチしないで)、表示領域3aから離れた上方の位置P2にあるときに、発光部6aから出射した光のうち、指Fに当たった光が反射して受光部7に入射する光は、図5に示す光路L14とL16を通り、発光部6bから出射した光のうち、指Fに当たった光が反射して受光部7に入射する光は、図5に示す光路L14とL16を通る。
受光部7は、図4に示す発光タイミングに応じた光を受光し、検出信号を制御部11へ出力するので、制御部11は、受光部7から、各発光部6に対応する受光量信号を取得する。指Fの3次元空間内の位置は、次のようにして算出される。
発光部6aからの光の反射光の受光量ALaと、発光部6bからの光の反射光の受光量ALbとから、次の式(1)で示される比率Rxを算出する。
Rx=((LAa−LAb)/(LAa+LAb)) ・・・(1)
比率Rxは、光量ALaが光量ALbに比べて大きくなるにつれて、大きくなり、光量ALaが光量ALbに比べて小さくなるにつれて、小さくなる。
Rx=((LAa−LAb)/(LAa+LAb)) ・・・(1)
比率Rxは、光量ALaが光量ALbに比べて大きくなるにつれて、大きくなり、光量ALaが光量ALbに比べて小さくなるにつれて、小さくなる。
また、X方向における位置が位置P1とP2に示すように、同じ位置であるときは、比率Rxは同じになる。
図6は、X方向における指Fの位置と、比率Rxとの関係を示すグラフである。X方向において、指Fが発光部6aの近くあると、比率Rxは大きくなり、指Fが発光部6bの近くあると、比率Rxは小さくなる。表示領域3aのX方向の中央位置Xmでは、比率Rxは0(ゼロ)となる。
よって、X方向における指Fの位置は、発光部6aと6bから出射した光の反射光の受光量に基づいて、式(1)により、推定することができる。
図6は、X方向における指Fの位置と、比率Rxとの関係を示すグラフである。X方向において、指Fが発光部6aの近くあると、比率Rxは大きくなり、指Fが発光部6bの近くあると、比率Rxは小さくなる。表示領域3aのX方向の中央位置Xmでは、比率Rxは0(ゼロ)となる。
よって、X方向における指Fの位置は、発光部6aと6bから出射した光の反射光の受光量に基づいて、式(1)により、推定することができる。
図7は、タブレット端末1の表示領域3aの上方からみた、発光部6から出射した光が受光部7において受光される光路を説明するための図である。図7は、Y方向における指Fの位置の推定を説明するための図である。
図7において、位置P1は、タブレット端末1の表示領域3aの上方からみたときに、X方向においてはやや左寄りで、Y方向においてはやや下寄りの位置である。位置P3は、X方向においてはやや右寄りで、Y方向においてはやや下寄りの位置である。但し、位置P1とP3は、Y方向における位置Y1は、同じである。
指Fが表示器3にタッチしないで(すなわちタッチパネル13にタッチしないで)、表示領域3aから離れた上方の位置P1にあるときに、発光部6bから出射した光のうち、指Fに当たった光が反射して受光部7に入射する光は、図5と同様に、光路L12とL13を通り、発光部6cから出射した光のうち、指Fに当たった光が反射して受光部7に入射する光は、図7に示す光路L17とL13を通る。
指Fが表示器3にタッチしないで(すなわちタッチパネル13にタッチしないで)、表示領域3aから離れた上方の位置P3にあるときに、発光部6bから出射した光のうち、指Fに当たった光が反射して受光部7に入射する光は、図7に示す光路L18とL19を通り、発光部6cから出射した光のうち、指Fに当たった光が反射して受光部7に入射する光は、図7に示す光路L20とL19を通る。
今、発光部6bからの光の反射光の受光量ALbと、発光部6cからの光の反射光の受光量ALcとから、次の式(2)で示される比率Ryを算出する。
Ry=((LAb−LAc)/(LAb+LAc)) ・・・(2)
比率Ryは、光量ALbが光量ALcに比べて大きくなるにつれて、大きくなり、光量ALbが光量ALcに比べて小さくなるにつれて、小さくなる。
Ry=((LAb−LAc)/(LAb+LAc)) ・・・(2)
比率Ryは、光量ALbが光量ALcに比べて大きくなるにつれて、大きくなり、光量ALbが光量ALcに比べて小さくなるにつれて、小さくなる。
また、Y方向における位置が位置P1とP3に示すように、同じ位置であるときは、比率Ryは同じになる。
図8は、Y方向における指Fの位置と、比率Ryとの関係を示すグラフである。Y方向において、指Fが発光部6bの近くあると、比率Ryは大きくなり、指Fが発光部6cの近くあると、比率Ryは小さくなる。表示領域3aのY方向の中央位置Ymでは、比率Ryは0(ゼロ)となる。
よって、Y方向における指Fの位置は、発光部6bと6cから出射した光の反射光の受光量に基づいて、式(2)により、推定することができる。
図8は、Y方向における指Fの位置と、比率Ryとの関係を示すグラフである。Y方向において、指Fが発光部6bの近くあると、比率Ryは大きくなり、指Fが発光部6cの近くあると、比率Ryは小さくなる。表示領域3aのY方向の中央位置Ymでは、比率Ryは0(ゼロ)となる。
よって、Y方向における指Fの位置は、発光部6bと6cから出射した光の反射光の受光量に基づいて、式(2)により、推定することができる。
次に、Z方向における指Fの位置の推定について説明する。
図9は、タブレット端末1の左側からみた、発光部6から出射した光が受光部7において受光される光路を説明するための図である。図10は、タブレット端末1の上側からみた、発光部6から出射した光が受光部7において受光される光路を説明するための図である。図9と図10においてタブレット端末1の上面は、表示領域3aの表面である。
図9は、タブレット端末1の左側からみた、発光部6から出射した光が受光部7において受光される光路を説明するための図である。図10は、タブレット端末1の上側からみた、発光部6から出射した光が受光部7において受光される光路を説明するための図である。図9と図10においてタブレット端末1の上面は、表示領域3aの表面である。
各発光部6の発光タイミングにおいて所定の波長の光が出射され、表示領域3a上に物体、ここでは指Fがあると、その指Fで反射された反射光が、受光部7に入射する。受光部7に入射する反射光の光量は、物体までの距離の二乗に反比例する。
なお、図9と図10では、表示領域3aに最も近い、指Fの皮膚の表面上の位置を、指Fの位置として説明する。図9と図10において、指Fの位置Pnは、動作判定空間FDAの下面からの距離Z1だけ離れた位置であり、指Fの位置Pfは、動作判定空間FDAの下面からの距離Z2だけ離れた位置であり、距離Z2は、距離Z1より長い。
指Fが位置Pnにある場合、各発光部6a、6bからの出射光は、図9では光路L31とL32を通って、図10では光路L41とL42を通って、受光部7に入射する。指Fが位置Pfにある場合、各発光部6a、6bからの出射光は、図9では光路L33とL34を通って、図10では光路L43とL44を通って、受光部7に入射する。また、指Fが位置Pnにある場合、発光部6cからの出射光は、図9では光路L32を通って、図10では光路L41とL42を通って、受光部7に入射する。また、指Fが位置Pfにある場合、発光部6cからの出射光は、図9では光路L34を通って、図10では光路L43とL44を通って、受光部7に入射する。
指Fが位置Pnにある場合と、位置Pnよりも表示領域3aから遠い位置Pfに指Fがある場合とを比較すると、発光部6からの出射光が、光路L31,L32を通って受光部7に入射するときの光量AL1は、光路L33,L34を通って受光部7に入射するときの光量AL2よりも大きい。
そこで、受光部7が受光する、3つの発光部6からの光の受光量の和SLを、次の式(3)により求める。
SL=(ALa+ALb+ALc) ・・・(3)
そして、3つの発光部6からの光が指Fで反射して受光部7に入射した各光の光量は、指Fの表示領域3a上の高さ方向(すなわち、Z方向)の距離の二乗に反比例する。
そして、3つの発光部6からの光が指Fで反射して受光部7に入射した各光の光量は、指Fの表示領域3a上の高さ方向(すなわち、Z方向)の距離の二乗に反比例する。
図11は、Z方向における指Fの位置と、3つの受光量の和SLとの関係を示すグラフである。Z方向において、指Fが表示領域3aの近くあると、3つの受光量の和SLは大きくなり、指Fが表示領域3aから離れた位置にあると、3つの受光量の和SLは小さくなる。
よって、Z方向における指Fの位置は、発光部6b、6b及び6cから出射した光の反射光の受光量に基づいて、上記の式(3)により、推定することができる。
なお、上述した例では、3つの発光部6の発光量が同一の値ELであるが、3つの発光部6の発光量を異ならせてもよい。その場合は、上述した式も、発光量の差を考慮して、補正された受光量が用いられて、各比率及び受光量の和が算出される。
なお、上述した例では、3つの発光部6の発光量が同一の値ELであるが、3つの発光部6の発光量を異ならせてもよい。その場合は、上述した式も、発光量の差を考慮して、補正された受光量が用いられて、各比率及び受光量の和が算出される。
以上のように、3つの発光部6から発光された光の物体からのそれぞれの反射光を受光部7により検出して得られた3つの光量に基づいて、表示面に平行な2次元平面上の位置と、表示面に直交する方向における位置とを算出することにより、物体の位置が検出される。特に、表示面に平行な2次元平面上の位置は、2つの光量の差と和の値を用いて算出した2次元平面の第1の方向における位置と、2つの光量の差と和の値を用いて算出した2次元平面の第1の方向とは異なる第2の方向における位置とから決定される。
そして、表示面に直交する方向における位置は、3つの光量の和の値を用いて決定される。なお、Z方向の位置は、3つの光量を用いなくても、2つの光量から決定してもよい。
そして、表示面に直交する方向における位置は、3つの光量の和の値を用いて決定される。なお、Z方向の位置は、3つの光量を用いなくても、2つの光量から決定してもよい。
従って、3つの受光量ALa、ALb、ALcが得られる度に、上記の式(1)、(2)、(3)を用いて、指Fの3次元空間内の位置を算出することができる。図4に示すように、タイミングt1、t2、・・・毎に、3次元空間内の指Fの位置情報が算出される。
本実施形態のタブレット端末1は、タッチパネル機能と、3次元空間内の指の位置検出機能とを有するので、ユーザの直感的な指の動作により、所望の操作指示を、タブレット端末1に与えることができる。
なお、本実施形態及び他の実施形態(第2と第3)では、動作判定空間FDAにおける指Fの位置Pf及び移動の軌跡が検出されるが、指Fの位置Pf及び移動の軌跡の検出は、上述したような動作判定空間FDA内に限られず、動作判定空間FDAを含むより広い空間において検出するようにしてもよい。すなわち、3つの発光部6と受光部7により検出可能な3次元空間における指Fの位置Pf及び移動の軌跡を、検出するようにしてもよい。
さらに、動作判定空間FDA及び動作判定空間FDAを含むより広い空間は、上述した直方体のような形状でなくてもよい。
(作用)
本実施形態は、指の摘まみ上げ動作に関する。指の摘まみ上げ動作の例として、ページめくり操作を説明する。
本実施形態は、指の摘まみ上げ動作に関する。指の摘まみ上げ動作の例として、ページめくり操作を説明する。
図12は、電子書籍の表示例を示す図である。タブレット端末1の表示器3の表示領域3aには、電子書籍のイメージ画面が表示されている。記憶部15に、電子書籍アプリケーションソフトウエア(以下、電子書籍アプリケーションという)と書籍データが記憶されており、ユーザが電子書籍アプリを起動し、所望の書籍を指定すると、その書籍のページイメージが表示器3の表示領域3aに表示される。ユーザは、ページをめくりながら、その書籍を読むことができる。
本実施形態では、ユーザがページの端を摘まんでページをめくるような動作を行うという、直感的な操作で、ページめくりの操作のコマンド指示を、このような電子書籍のアプリケーションに対して与える場合について説明する。
電子書籍アプリケーションは、書籍の画像イメージデータを読み出して、ページイメージを、表示器3に表示することによって、ユーザがその書籍をよむことができるようにするためのソフトウエアである。
図12に示す電子書籍の画像イメージG1は、本を開いた右側のページを示し、ここでは、ユーザがそのページを読み終え、次のページを表示させる場合、指でページをめくるような動作あるいはジェスチャをすることによって、電子書籍アプリケーションに対してページめくりコマンドを与えることができる。
図12は、ユーザの指Fが表示領域3aに表示されたページの右下の部分に触れて摘まむ動作をした場合を示す図である。図12は、ユーザが、親指F1と人差し指F2で、ページの右下の部分を摘まむ動作をしている状態を示している。図13は、図12の状態から、ユーザが、親指F1と人差し指F2を表示領域3aから離して、2本の指F1,F2を左上方向に向かって移動させる動作、すなわちページをめくるようなジェスチャ、をしている状態を示す図である。
このような指の動作を行うことよって、ユーザは、タブレット端末1の電子書籍アプリケーションにして対して、ページめくりコマンドを与えることができる。電子書籍アプリケーションは、ページめくりコマンドを受信すると、現在表示されているページのオブジェクトを、次のページイメージのオブジェクトを表示器3の表示領域に表示する処理を実行する。
図13では、2本の指F1,F2が、2点鎖線の矢印A1に沿って移動していることが示されている。電子書籍アプリケーションは、ページめくりコマンドを受信すると、例えば、2点鎖線で示すように、実際の書籍において、ページがめくれるようなアニメーション表示により、ページがめくれるようにして、次のページを表示する。
図14は、タッチパネル機能と3次元空間位置検出機能によるコマンド判定処理の流れの例を示すフローチャートである。図14のコマンド判定処理プログラムは、記憶部15あるいはROMに記憶され、電子書籍アプリケーションが制御部11のCPUにより実行されているときに、制御部11のCPUにより読み出されて実行される。なお、コマンド判定処理プログラムは、電子書籍アプリケーションの一部であってもよいし、タブレット端末1の入力処理プログラムの一部であってもよい。
制御部11は、タッチパネル13から出力されるタッチ位置信号を監視することによって、タッチパネル13へのタッチを検出したか否かを判定する(S1)。タッチパネル13へのタッチが検出されなければ(S1:NO)、処理は、何もしない。
タッチパネル13へのタッチが検出されると(S1:YES)、制御部11は、互いに近づく2点の位置を検出したか否かを判定する(S2)。すなわち、タッチパネル13において、2つの点がタッチされ、かつ2つの点が互いに近づくか否かが判定される。互いに近づく2つの点が検出されなければ(S2:NO)、処理は、何もしない。
以上のS1とS2の処理により、図12の指F1,F2によるタッチパネル13への摘まむようなタッチ動作があった場合の検出が行われる。
以上のS1とS2の処理により、図12の指F1,F2によるタッチパネル13への摘まむようなタッチ動作があった場合の検出が行われる。
互いに近づく2点の位置が検出されると(S2:YES)、制御部11は、タッチパネル13へのタッチがなくなったか否かを判定する(S3)。タッチパネル13へのタッチがなくならないとき(S3:NO)、処理は、何もしない。
タッチパネル13へのタッチがなくなると(S3:YES)、制御部11は、所定時間内における、タッチパネル13から離れた指F1,F2の動きの軌跡を算出する(S4)。S4の処理が、表示器3の表示面に対向する3次元空間内の物体の位置を検出する位置検出部を構成する。
S4における指F1,F2の動きの検出は、上述した式(1)から(3)により求めることができる。すなわち、所定時間内、例えば1秒以内、における指F1,F2の、動作判定空間FDA内における位置の検出が、所定回数実行されることにより、指F1,F2の動きの軌跡が算出される。算出される軌跡は、2本の指F1,F2がタッチパネル13から離れたときの2点を結ぶ線の中央の位置の近傍から、動作判定空間FDA内における検出された指F1,F2の複数の位置情報から構成される。
なお、2本の指F1,F2からの光の反射光なので、2本の指F1,F2を含む手を1つの物体として、その位置の軌跡が算出されることになる。
なお、2本の指F1,F2からの光の反射光なので、2本の指F1,F2を含む手を1つの物体として、その位置の軌跡が算出されることになる。
次に、算出された軌跡が、所定の軌跡と一致するか否かが判定される(S5)。所定の軌跡は、例えば、図13に示すような、動作判定空間FDAにおける矢印A1で示すような軌跡に類似する軌跡である。所定の軌跡は、人が、図12に示すような電子書籍のイメージ画像に対して、ページをめくるとしたときに、想定されるあるいは実験により求められた軌跡であり、コマンド判定処理プログラムの中に予め設定あるいは記述される。図13では、2本の指F1,F2を含む左手が、矢印A1で示すように、表示領域3aの右下をタッチしている状態から、あたかもページをめくるように左上方向へ移動している状況が示されている。よって、所定の軌跡は、表示領域3aに表示されるページイメージの右下のページの端の下方の位置の近傍から、ページイメージの左端の上方に向かう3次元の動作判定空間FDA内の移動の軌跡に類似する軌跡である。
S5では、算出された軌跡が、所定の許容範囲内で所定の軌跡と一致するか否かが判定され、算出された軌跡が、所定の軌跡と一致したときは、制御部11は、所定のコマンド、すなわち、ページめくりコマンドを生成して、電子書籍アプリケーションに与えるコマンド出力処理を実行する(S6)。
よって、S5とS6の処理が、タッチパネル13へのタッチ操作によるタッチパネル13のタッチ位置情報と、タッチパネル13へのタッチがされた後に、S4の位置検出部により検出された3次元空間内における物体の空間内位置情報とに基づいて、所定の処理を実行させる所定のコマンドを生成するコマンド生成部を構成する。
そして、タッチ位置情報は、互いに近づく2本の指の2点についての位置情報であり、空間内位置情報は、近づいた2点の位置の中央(又は近傍)の位置から物体が移動する軌跡を示す情報であり、所定の処理は、表示器3に表示されている画像をめくるように動かす処理である。
その結果、電子書籍アプリケーションは、現在表示しているページの次のページのページイメージを読み出して、表示領域3aに表示する。算出された軌跡が、所定の軌跡と一致しないときは(S5:NO)は、処理は何もしない。
従って、電子書籍において、ユーザは、タッチパネルへのタッチと3次元空間内におけるジェスチャにより、ページをめくるという、自然で直感的な指の動作により、ページめくりコマンドを指示することができる。
以上の例は、指の摘まみ動作と3次元空間内の指の移動によるページめくり操作であるが、絵本などにおいて、アニメーションの動きコマンドの出力にも、指の摘まみ動作と3次元空間内の指の移動は、利用することができる。
図15と図16は、電子絵本の一場面が表示器3に表示されているタブレット端末1の斜視図である。
図15と図16は、電子絵本の一場面が表示器3に表示されているタブレット端末1の斜視図である。
電子絵本においては、コマンドに応じたアニメーション機能がある。アニメーション機能によれば、所定のコマンド入力に応じて、表示される画像が変化する。このようなアニメーション機能に対するコマンド入力の方法に、上述したタッチパネル機能と3次元空間位置検出機能によるコマンド入力を適用することができる。
図15は、絵の中に、布Bにより覆われた物があって、ユーザが、例えば親指F1と人差し指F2の2本の指で、タッチパネル13にタッチしながら、布Bの端部を摘まんでいる状態を示す。
その状態から、2本の指を、タッチパネル13から離して、布Bをめくるような動作を行うと、布Bをめくるというコマンドが生成されて出力される。その結果、アニメーション機能により布Bがめくれて、覆われていた物が見えるように、画像が変化する。
図16では、2点鎖線の矢印A2で示すように、2本の指F1,F2が移動すると、布Bがめくれて、覆われていた人Pが現れた状態が示されている。
図15と図16に示すようなアニメーション機能のためのコマンド指示入力も、図14に示す処理により実現される。
図15と図16に示すようなアニメーション機能のためのコマンド指示入力も、図14に示す処理により実現される。
S1とS2により、タッチパネル13上における互いに近づく2つの点が検出され、S3からS5により、タッチパネル13を離れた後の3次元空間内の指の動きの軌跡が、布Bをめくるというアニメーション機能のコマンドに対応する所定の軌跡と一致するか否かが判定される。
めくるに相当する所定の軌跡は、例えばタッチパネル13にタッチされた位置から、斜め上方へ移動するという3次元空間内の物体の動きの軌跡であり、コマンド判定処理プログラムの中に予め設定あるいは記述される。
タッチパネル13を離れた後の指の動きの軌跡が、そのような所定の軌跡と一致すると、布Bをめくるというアニメーション機能を実行させるコマンドであると判定され、制御部11は、そのコマンドを電子絵本アプリケーションソフトウエアに対して指示する。その結果、電子絵本アプリケーションソフトウエアは、図16のような画像の変化の画像を表示領域3aに表示するアニメーション機能処理を実行する。
以上のように、本実施形態によれば、複雑な処理を必要としないで、より直感的な操作によりコマンドの指示、ここではめくり動作コマンドの指示、が可能な情報端末装置を提供することができる。
なお、以上の例は、電子書籍のページめくり機能及び電子絵本におけるアニケーション機能の例であるが、ゲーム画像においても、上述したような指で摘まんで指を移動するという動作によるコマンド指示の入力は適用可能である。
(第2の実施形態)
第1の実施形態において指示されるコマンドは、タッチパネル13に指で摘まむようにタッチして、その後にタッチパネル13から2本の指を離す動作によるオブジェクトをめくる動作のためのコマンドであるが、第2の実施形態において指示されるコマンドは、タッチパネル13に2本の指をタッチした状態で指を移動させながら、タッチパネル13から2本の指を離す動作により、オブジェクトの拡大と縮小のためのコマンドである。
第1の実施形態において指示されるコマンドは、タッチパネル13に指で摘まむようにタッチして、その後にタッチパネル13から2本の指を離す動作によるオブジェクトをめくる動作のためのコマンドであるが、第2の実施形態において指示されるコマンドは、タッチパネル13に2本の指をタッチした状態で指を移動させながら、タッチパネル13から2本の指を離す動作により、オブジェクトの拡大と縮小のためのコマンドである。
本実施形態のタブレット端末の構成は、第1の実施形態で説明したタブレット端末1と同じであるので、同じ構成要素については同じ符号を用いて説明し、各構成の説明は省略し、異なる構成についてのみ説明する。すなわち、本実施形態のタブレット端末のハードウエア構成及び、タッチパネル13にタッチ位置検出及び3つの発光部6と受光部7による3次元空間内における物体の位置検出の機能は、第1の実施形態のタブレット端末1と同じであり、コマンド判定機能は、第1の実施形態のコマンド判定機能とは異なっている。
図17と図18は、表示領域3aに表示されているオブジェクトを拡大表示するコマンドの指示の方法を説明するための図である。
図17等には、画像等のオブジェクトが表示領域3aに表示されている。さらに、表示されているオブジェクトと共に、所定の釦3Aも併せて表示領域3aに表示されている。釦3Aは、ズーム動作の停止を指示するための釦である。
図17等には、画像等のオブジェクトが表示領域3aに表示されている。さらに、表示されているオブジェクトと共に、所定の釦3Aも併せて表示領域3aに表示されている。釦3Aは、ズーム動作の停止を指示するための釦である。
まず、図17に示すように、ユーザは、2本の指、ここでは、親指F1と人差し指F2、を、表示領域3a上の拡大したいオブジェクトの中心位置C1に位置させて、タッチパネル13に触れた状態にする。
その状態から、ユーザは、2本の指F1とF2が互いに離れるように2本の指F1,F2を開くようにして、タッチパネル13上を少し滑らせるというピンチアウト動作をした後に、2本の指F1,F2を表示器3から離す。図17では、矢印A3で示す方向に、2本の指F1,F2をタッチパネル13にタッチさせながら、タッチパネル13上を移動させるという動作の後に、図18に示すように、矢印A4で示す方向(すなわちZ方向)に、2本の指F1,F2がタッチパネル13から離れる。すなわち、点線A5で示すように、2本の指F1,F2は、開きながら、Z方向に移動する。
図19と図20は、表示領域3aに表示されているオブジェクトを縮小表示するコマンドの指示の方法を説明するための図である。
図19に示すように、ユーザは、2本の指、ここでは、親指F1と人差し指F2を互いに離した状態で、親指F1と人差し指F2がタッチパネル13にタッチした2点を結ぶ線の中央に、表示領域3a上の縮小したいオブジェクトの中心位置C2に位置させて、タッチパネル13に触れた状態にする。
図19に示すように、ユーザは、2本の指、ここでは、親指F1と人差し指F2を互いに離した状態で、親指F1と人差し指F2がタッチパネル13にタッチした2点を結ぶ線の中央に、表示領域3a上の縮小したいオブジェクトの中心位置C2に位置させて、タッチパネル13に触れた状態にする。
その状態から、ユーザは、2本の指F1とF2が互いに近づくように2本の指F1,F2を閉じるようにして、タッチパネル13上を少し滑らせるというピンチイン動作をした後に、2本の指F1,F2を表示器3から離す。図19では、矢印A6示す方向に、2本の指F1,F2をタッチパネル13にタッチさせながら、タッチパネル13上を移動した後に、図20に示すように、矢印A7で示す方向(すなわちZ方向)に、2本の指F1,F2がタッチパネル13から離れる。すなわち、点線A8で示すように、2本の指F1,F2は、閉じながら、Z方向に移動する。
以上のような2本の指の動作により、ユーザは、オブジェクトの拡大及び縮小の表示コマンドを、タブレット端末1へ指示することができる。
なお、上記の例では、図17と図18で示すような2本の指の動作が、表示されているオブジェクトを拡大する拡大コマンドの指示を示す動作で、図19と図20で示すような2本の指の動作が、表示されているオブジェクトを縮小する縮小コマンドの指示を示す動作であるが、図17と図18で示すような2本の指の動作が、表示されているオブジェクトを縮小する縮小コマンドの指示を示す動作で、図19と図20で示すような2本の指の動作が、表示されているオブジェクトを拡大する拡大コマンドの指示を示す動作でもよい。
なお、上記の例では、図17と図18で示すような2本の指の動作が、表示されているオブジェクトを拡大する拡大コマンドの指示を示す動作で、図19と図20で示すような2本の指の動作が、表示されているオブジェクトを縮小する縮小コマンドの指示を示す動作であるが、図17と図18で示すような2本の指の動作が、表示されているオブジェクトを縮小する縮小コマンドの指示を示す動作で、図19と図20で示すような2本の指の動作が、表示されているオブジェクトを拡大する拡大コマンドの指示を示す動作でもよい。
図21は、拡大及び縮小におけるズーム量を示す図である。図21は、横軸がZ方向における指の位置を示し、縦軸が拡大及び縮小のズーム量を示し、線MLは、拡大率のズーム量を示し、線RLは、縮小率のズーム量を示す。算出されたZ方向における2本の指の位置が、動作判定空間FDAで表示領域3aから離れるにつれて、拡大率は増加し、縮小率は減少する。
すなわち、拡大の場合、2本の指がZ方向において動作判定空間FDAに入ってから表示器3から離れるにつれて、拡大率であるズーム量MLは、徐々に増加し、2本の指がZ方向において動作判定空間FDAの範囲を超えると、ズーム量MLは、拡大率α1で固定され、変化しない。縮小の場合、2本の指がZ方向において動作判定空間FDAに入ってから表示器3から離れるにつれて、縮小率であるズーム量RLは、徐々に減少し、2本の指がZ方向において動作判定空間FDAの範囲を超えると、ズーム量RLは、縮小率α2で固定され、変化しない。
図22は、タッチパネル機能と3次元空間位置検出機能によるオブジェクトの拡大及び縮小の表示のためのコマンド判定処理の流れの例を示すフローチャートである。図22において、図14と同じ処理については、同じステップ符号を付して、説明は簡略にする。
図22のコマンド判定処理プログラムは、記憶部15あるいはROMに記憶され、表示器3にオブジェクトが表示されているときに、制御部11のCPUにより読み出されて実行される。
制御部11は、タッチパネル13から出力されるタッチ位置信号を監視することによって、タッチパネル13へのタッチを検出したか否かを判定する(S1)。
タッチパネル13へのタッチが検出されると(S1:YES)、制御部11は、2点の位置を検出したか否かを判定する(S2)。
タッチパネル13へのタッチが検出されると(S1:YES)、制御部11は、2点の位置を検出したか否かを判定する(S2)。
以上のS1とS2の処理により、図12の指F1,F2によるタッチパネル13へのタッチがあった場合の検出が行われる。
2つの点がタッチされると(S2:YES)、制御部11は、検出されている2点の位置が、近づきながら、あるいは遠ざかりながらしながら、タッチパネル13へのタッチがなくなったか否か、すなわち2本の指のタッチパネル13へのタッチがなくなったか否かを判定する(S11)。2点の位置が、近づきながら、あるいは遠ざかりながらしながら、タッチパネル13へのタッチがなくならないとき(S11:NO)、処理は、何もしない。
2つの点がタッチされると(S2:YES)、制御部11は、検出されている2点の位置が、近づきながら、あるいは遠ざかりながらしながら、タッチパネル13へのタッチがなくなったか否か、すなわち2本の指のタッチパネル13へのタッチがなくなったか否かを判定する(S11)。2点の位置が、近づきながら、あるいは遠ざかりながらしながら、タッチパネル13へのタッチがなくならないとき(S11:NO)、処理は、何もしない。
S11の判定は、図17から図20で説明した動作の判定である。図17と図18に示すように、2本の指F1,F2が開きながら、タッチパネル13から離れたのか、あるいは図19と図20に示すように、2本の指F1,F2が閉じながら、タッチパネル13から離れたのか、が判定される。
S11でYESの場合、制御部11は、動作判定空間FDAを含む3次元空間内の2本の指のZ方向における位置を算出する(S12)。S12の処理が、表示器3の表示面に対向する3次元空間内の物体の位置を検出する位置検出部を構成する。
S12における2本の指のZ方向における位置は、上述したように、式(3)により求めることができる。
S12における2本の指のZ方向における位置は、上述したように、式(3)により求めることができる。
次に、2本の指が動作判定空間FDA外にあるか否かが判定される(S13)。
2本の指が動作判定空間FDA外にあるときは(S13:YES)、処理は終了する。すなわち、3次元空間内の物体の位置が所定の位置を超えると、ズーム量は、そのときズーム量の値に固定される。
2本の指が動作判定空間FDA外にあるときは(S13:YES)、処理は終了する。すなわち、3次元空間内の物体の位置が所定の位置を超えると、ズーム量は、そのときズーム量の値に固定される。
2本の指が動作判定空間FDA外にないときは(S13:NO)、制御部11は、算出されたZ方向における位置に応じて拡大又は縮小の倍率を決定する(S14)。例えば、図17と図18に示す拡大コマンドの場合、図21のズーム量MLで示すように、動作判定空間FDA のZ方向における位置に応じて、2本の指の距離が表示器3から離れれば離れる程、拡大倍率が大きくなるように、コマンド判定処理プログラム中に記述されている。同様に、図19と図20に示す縮小コマンドの場合、図21のズーム量RLで示すように、動作判定空間FDA のZ方向における位置に応じて、2本の指の距離が表示器3から離れれば離れる程、縮小倍率が大きくなるように、コマンド判定処理プログラム中に記述されている。
制御部11は、S14で決定された倍率で、オブジェクトの拡大表示あるいは縮小表示コマンドを生成して実行する、拡大及び縮小処理を実行する(S15)。この拡大あるいは縮小処理のとき、制御部11は、S2で検出された2点の位置から、上述した点C1あるいはC2を算出し、その算出された点C1あるいはC2を中心に、拡大あるいは縮小表示処理を実行する。
さらに、制御部11は、表示領域3a上の釦3Aがタッチされたか否かを判定する(S16)。釦3Aがタッチされると(S16:YES)、処理は、終了する。すなわち、タッチパネル13に対する所定のタッチ操作があると、ズーム処理の実行は終了される。その結果、表示器3の表示領域3a上に表示されているオブジェクトは、そのときのズーム量で固定された状態となる。すなわち、例えば、右手の2本の指が動作検出範囲FDA内にあっても、左手の指で釦3Aがタッチされると、オブジェクトは、そのときのサイズで固定される。
よって、S13からS16の処理が、タッチパネル13へのタッチ操作によるタッチパネル13のタッチ位置情報と、タッチパネル13へのタッチがされた後に、S12の位置検出部により検出された3次元空間内における物体の空間内位置情報とに基づいて、所定の処理を実行させる所定のコマンドを生成するコマンド生成部を構成する。
そして、タッチ位置情報は、互いに近づくあるいは互いに離れる2本の指の2点についての位置情報であり、空間内位置情報は、表示器3の表示面に対して直行する方向における3次元空間内の物体の位置の情報であり、所定の処理は、空間内位置情報に基づいて決定されたズーム量で、表示器3に表示されている画像をズームするズーム処理である。
釦3Aがタッチされなければ(S16:NO)、処理は、S12に戻る。
釦3Aがタッチされなければ(S16:NO)、処理は、S12に戻る。
従って、2本の指が動作判定空間FDA内に存在する限り、Z方向に動くと、Z方向における位置に応じて、オブジェクトの拡大あるいは縮小が連続的に行われる。そして、2本の指が動作判定空間FDA外になると、拡大あるいは縮小の処理は、実行されなくなる。
よって、図17と図18に示すような指の動きが検出されたときは、点C1を中心にオブジェクトを拡大表示するコマンドが実行され、図19と図20に示すような指の動きが検出されたときは、点C2を中心にオブジェクトを縮小表示するコマンドが実行される。
その結果、表示器3に表示されているオブジェクトは、拡大あるいは縮小表示される。
その結果、表示器3に表示されているオブジェクトは、拡大あるいは縮小表示される。
従来のタッチパネルによるズーム操作は、ズームのための操作は、ズーム量を変化させるために、頻繁なピンチ操作が必要であるが、本実施形態のズームのための操作は、動作判定空間FDA内における指の位置の変更によりズーム量を変化させることができ、従来のような頻繁なピンチ操作が必要ない。
従って、タブレット端末1において、ユーザは、2本の指の自然で直感的な指の動作により、画像等のオブジェクトの拡大と縮小のコマンドを指示することができる。
従って、タブレット端末1において、ユーザは、2本の指の自然で直感的な指の動作により、画像等のオブジェクトの拡大と縮小のコマンドを指示することができる。
以上のように、本実施形態によれば、複雑な処理を必要としないで、より直感的な操作によりコマンド、ここでは拡大と縮小のコマンド、の指示が可能な情報端末装置を提供することができる。
(第3の実施形態)
第1と第2の実施形態において指示されるコマンドは、それぞれ、めくり動作コマンド及び拡大・縮小コマンドであるが、第3の実施形態において指示されるコマンドは、タッチパネル13に片方の手の1つあるいは複数の指でタッチしながら、他方の手又は別の指の3次元空間内での動作させることによる所定の動作のためのコマンドである。
本実施形態のタブレット端末の構成は、第1の実施形態で説明したタブレット端末1と同じであるので、同じ構成要素については同じ符号を用いて説明し、各構成の説明は省略し、異なる構成についてのみ説明する。すなわち、本実施形態のタブレット端末のハードウエア構成及び、タッチパネル13にタッチ位置検出及び3つの発光部6と受光部7による3次元空間内における物体の位置検出の機能は、第1の実施形態のタブレット端末1と同じであり、コマンド判定機能は、第1の実施形態のコマンド判定機能とは異なっている。
第1と第2の実施形態において指示されるコマンドは、それぞれ、めくり動作コマンド及び拡大・縮小コマンドであるが、第3の実施形態において指示されるコマンドは、タッチパネル13に片方の手の1つあるいは複数の指でタッチしながら、他方の手又は別の指の3次元空間内での動作させることによる所定の動作のためのコマンドである。
本実施形態のタブレット端末の構成は、第1の実施形態で説明したタブレット端末1と同じであるので、同じ構成要素については同じ符号を用いて説明し、各構成の説明は省略し、異なる構成についてのみ説明する。すなわち、本実施形態のタブレット端末のハードウエア構成及び、タッチパネル13にタッチ位置検出及び3つの発光部6と受光部7による3次元空間内における物体の位置検出の機能は、第1の実施形態のタブレット端末1と同じであり、コマンド判定機能は、第1の実施形態のコマンド判定機能とは異なっている。
図23から図26は、第3の実施形態のコマンド指示の方法を説明するための図である。
図23は、スクロールのコマンドを指定する方法を説明するための図である。図23は、タブレット端末1の表示器3に表示される画像の表示例を示す図である。タブレット端末1の表示器3の表示領域3aには、3つの写真アルバムPA1,PA2,PA3のそれぞれについての、複数の画像のサムネイル画像が表示されている。記憶部15に、複数の写真アルバムの画像データが記憶されており、制御部11は、所定の閲覧プログラムによって、3つの写真アルバムの画像を表示部3に表示する。各写真アルバム毎に、それぞれの画像表示領域PA1a,PA2a,PA3aに4つのサムネイル画像が横方向に並んで表示されているが、表示されていないその他のサムネイル画像を見るためには、表示されている4つのサムネイル画像を横方向にスクロールすることによって、ユーザは、他のサムネイル画像を見ることができる。
図23は、スクロールのコマンドを指定する方法を説明するための図である。図23は、タブレット端末1の表示器3に表示される画像の表示例を示す図である。タブレット端末1の表示器3の表示領域3aには、3つの写真アルバムPA1,PA2,PA3のそれぞれについての、複数の画像のサムネイル画像が表示されている。記憶部15に、複数の写真アルバムの画像データが記憶されており、制御部11は、所定の閲覧プログラムによって、3つの写真アルバムの画像を表示部3に表示する。各写真アルバム毎に、それぞれの画像表示領域PA1a,PA2a,PA3aに4つのサムネイル画像が横方向に並んで表示されているが、表示されていないその他のサムネイル画像を見るためには、表示されている4つのサムネイル画像を横方向にスクロールすることによって、ユーザは、他のサムネイル画像を見ることができる。
図23において、表示領域3aに表示されている3つの写真アルバム(以下、単にアルバムという)PA1,PA2,PA3の内、一番上に表示されているアルバムPA1のサムネイル画像をスクロールする場合を例に説明する。
ユーザは、片手(ここでは右手RH)で、スクロールを行うアルバムを選択する。その選択は、選択するアルバムの画像表示領域内のいずれかをタッチすることによって行われる。図23では、右手RHが、一番上のアルバムPA1の画像表示領域PA1aをタッチしていることが示されている。画像表示領域PA1aのタッチは、タッチパネル13により検出される。
そして、右手が画像表示領域PA1aをタッチしている状態で、ユーザが、動作判定空間FDA内において左手LHを左から右へ移動させる動作を行うと、動作判定空間FDA内における指の動きが検出される。
制御部11は、検出された指の動きが、所定の動き、例えば、左から右方向への移動あるいは右から左方向への移動、と一致するか否かを判定し、検出された指の動きが所定の動きと一致したときは、選択されているアルバムPA1のサムネイル画像を所定の方向へスクロールして、画像表示領域PA1aに表示されるサムネイル画像を変更する。図23は、2点鎖線の矢印A11で示すように、左手LHが左から右方向へ移動しているので、制御部11は、画像表示領域PA1aの表示画像の右へのスクロール動作処理を実行する。
よって、ユーザは、タブレット端末1において、スクロール操作を簡単に直感的に行うことができる。
よって、ユーザは、タブレット端末1において、スクロール操作を簡単に直感的に行うことができる。
図24は、色の濃淡を変更するコマンドを指定する方法を説明するための図である。図24は、タブレット端末1の表示器3に表示される画像の表示例を示す図である。タブレット端末1の表示器3の表示領域3aには、絵DAが表示されている。ユーザは、描画ソフトウエアを利用して、タブレット端末1の表示領域3aに絵を描くことができる。図24に示す絵DAは、家の絵である。
ユーザは、描画ソフトウエアを利用して、絵DAに着色する場合、着色する領域を指定して、着色コマンドを指示すると、制御部11は、指定された領域を、指定された色で着色することができ、さらに着色した色の濃淡も変更する変更処理を行うことができる。
図24において、表示領域3aに表示されている絵DAにおける家の屋根を示す三角形領域DPaの色の濃淡を変更する場合を例に説明する。
ユーザは、片手(ここでは右手RH)で、色の濃淡も変更する領域を指定する。図24では、右手RHの人差し指が、家の屋根を示す三角形領域DPaをタッチしていることが示されている。三角形領域DPaのタッチは、タッチパネル13により検出される。
ユーザは、片手(ここでは右手RH)で、色の濃淡も変更する領域を指定する。図24では、右手RHの人差し指が、家の屋根を示す三角形領域DPaをタッチしていることが示されている。三角形領域DPaのタッチは、タッチパネル13により検出される。
そして、右手RHが三角形領域DPaをタッチしている状態で、ユーザが、動作判定空間FDA内において、例えば、左手LHを上から下方向へ、あるいは下から上方向へ、移動させる動作を行うと、タブレット端末1において、動作判定空間FDA内における指の動きが検出される。
制御部11は、検出された指の動きが、所定の動き、例えば、色を薄くする指示となる上から下方向への移動、あるいは色を濃くする指示となる下から上方向への移動、と一致するか否かを判定し、検出された指の動きが所定の動きと一致したときは、選択されている三角形領域DPa内の色の濃淡を変更する処理を行う。図24は、2点鎖線の矢印A12で示すように、左手LHの人差し指が上から下方向へ移動しているので、制御部11は、三角形領域DPa内の色を薄くするように色の濃淡を変更する変更処理を実行する。
よって、ユーザは、タブレット端末1において、色の濃淡の変更処理を簡単に直感的に行うことができる。
図25は、図形の回転を指定する方法を説明するための図である。図25は、タブレット端末1の表示器3に表示される画像の表示例を示す。タブレット端末1の表示器3の表示領域3aには、直方体の立体図形DMが表示されている。立体図形DMは、例えば、ユーザが3DのCADソフトウエアを用いて作成した画像である。
通常、ユーザは、CADソフトウエアを用いて作成して表示された立体図形DMを3次元空間内において回転させて、作成した立体図形DMの周囲から見て、立体図形DMの外観などを確認することができる。例えば、立体図形DM上の1つの点を指定して、所定の操作を行うと、制御部11は、立体図形DMが回転する処理を実行する。
図25において、表示領域3aに表示されている立体図形DMの一点を指定して、立体図形DMを回転する場合を例に説明する。
ユーザは、片手(ここでは右手RH)で、回転の中心となる位置RPを指定する。図25では、右手RHの人差し指が、立体図形DMの右端の点RPを指定している。点RPのタッチは、タッチパネル13により検出される。
ユーザは、片手(ここでは右手RH)で、回転の中心となる位置RPを指定する。図25では、右手RHの人差し指が、立体図形DMの右端の点RPを指定している。点RPのタッチは、タッチパネル13により検出される。
そして、右手RHが点RPをタッチしている状態で、ユーザが、動作判定空間FDA内において、例えば、左手LHを左から右方向、あるいは右から左方向へ移動させる動作を行うと、動作判定空間FDA内における指の動きが検出される。
制御部11は、検出された指の動きが、所定の動き、例えば、左から右方向への移動、あるいは右から左方向への移動、と一致するか否かを判定し、検出された指の動きが所定の動きと一致したときは、選択すなわち指定されている位置RPを中心に立体図形DMを所定量だけ回転する回転処理を行う。図25は、2点鎖線の矢印A13で示すように、左手LHの人差し指が左から右方向へ移動しているので、制御部11は、立体図形DMを、位置RPを中心に左回りに所定量だけ回転させる回転処理を実行する。
よって、ユーザは、タブレット端末1において、図形の回転処理を簡単に直感的に行うことができる。
図26は、指定された位置の画像を除いて画面のスクロールを指定する方法を説明するための図である。タブレット端末1の表示器3の表示領域3aには、各種画面が表示される。各画面の全ての範囲が表示領域3a内に表示されていないときは、ユーザは、画面のスクロールを行うことによって、表示されていなかった画面の部分を、表示領域に移動させることができる。
図26において、表示領域3aに表示されている画面の一部を右手RHの人差し指F2でタッチした状態で、右手RHの中指F3を動かして、画面スクロールする場合を例に説明する。
ユーザは、片手(ここでは右手RH)の人差し指F2で、スクロールの対象から除きたい画像領域を指定する。図26では、右手RHの人差し指F2が、表示領域3aに表示された画面G2の一部領域GG(点線で示す)を指定している。一部領域GGのタッチは、タッチパネル13により検出される。
そして、右手RHの一つの指(ここでは人差し指F2)が一部領域GGをタッチしている状態で、ユーザが、動作判定空間FDA内において、例えば、右手RHの他の指(ここでは中指F3の指先を、スクロールする方向に移動させる動作を行うと、タブレット端末1において、動作判定空間FDA内における指の動きが検出される。
制御部11は、動作判定空間FDA内で検出された指(中指F3)の動きを判定し、領域GGを除いて、画面G2を判定された動きの方向へスクロールする処理を行う。図26は、2点鎖線の矢印A14で示すように、右手RHの中指F3が、図26の紙面に向かって下から上方向へ移動しているので、制御部11は、画面G2(領域GGは除く)を、上方向にスクロールする処理を実行する。
よって、ユーザは、タブレット端末1において、スクロール処理を簡単に直感的に行うことができる。
よって、ユーザは、タブレット端末1において、スクロール処理を簡単に直感的に行うことができる。
図27は、本実施形態に係るタッチパネル機能と3次元空間位置検出機能によるコマンド判定処理の流れの例を示すフローチャートである。図27のコマンド判定処理プログラムは、記憶部15あるいはROMに記憶され、各種アプリケーションが制御部11のCPUにより実行されているときに、制御部11のCPUにより読み出されて実行される。
制御部11は、タッチパネル13から出力されるタッチ位置信号を監視することによって、タッチパネル13へのタッチを検出したか否かを判定する(S21)。タッチパネル13へのタッチが検出されなければ(S21:NO)、処理は、何もしない。
タッチパネル13へのタッチが検出されると(S21:YES)、制御部11は、所定時間内における、タッチパネル13から離れた動作判定空間FDA内における手若しくは指の動きの軌跡を算出する(S22)。S22の処理が、表示器3の表示面に対向する3次元空間内の物体の位置を検出する位置検出部を構成する。
S22における手又は指の動きの検出は、上述した式(1)から(3)により求めることができる。すなわち、所定時間内、例えば1秒以内、における手又は指の、動作判定空間FDA内における位置の検出が、所定回数実行されることにより、手又は指の動きの軌跡が算出される。
なお、手又は指の動きの検出は、反射光なので、指を含む手を1つの物体として、その位置の軌跡が算出されることになる。
なお、手又は指の動きの検出は、反射光なので、指を含む手を1つの物体として、その位置の軌跡が算出されることになる。
次に、算出された軌跡が、所定の軌跡と一致するか否かが判定される(S23)。所定の軌跡は、例えば、図23の場合は、矢印A11で示す左手LFの移動の軌跡であり、図24の場合は、矢印A12で示す左手LHの指の動きの軌跡であり、図25の場合は、矢印A13で示す左手LHの指の動きの軌跡であり、図26の場合は、矢印A14で示す右手RHの指F3の動きの軌跡である。
S23では、算出された軌跡が、所定の許容範囲内で所定の軌跡と一致するか否かが判定され、算出された軌跡が、所定の軌跡と一致したときは、制御部11は、所定のコマンドを生成して、出力する(S24)。出力されるコマンドは、図23と26の場合は、スクロールコマンドであり、図24の場合は、色の濃淡変更コマンドであり、図25の場合は、図形の回転コマンドである。算出された軌跡が、所定の軌跡と一致しないとき(S23:NO)、処理は、何もしない。
よって、S23とS24の処理が、タッチパネル13へのタッチ操作によるタッチパネル13のタッチ位置情報と、タッチパネル13へのタッチがされている状態で、S22の位置検出部により検出された3次元空間内における物体の空間内位置情報とに基づいて、所定の処理を実行させる所定のコマンドを生成するコマンド生成部を構成する。
そして、空間内位置情報は、3次元空間内における所定の方向に向かって物体が移動する軌跡を示す情報である。そして、所定の処理は、所定の方向に沿って、表示器3に表示されている画像をスクロールする処理、空間内位置情報に基づいて、表示器3に表示されている画像の濃淡を変化させる処理、あるいは所定の方向に沿って、表示器3に表示されている図形を回転させる処理である。
その結果、本実施形態では、タッチパネルがタッチされている状態における、動作判定空間FDA内における物体の位置情報に基づいて、所定の処理を実行させる所定のコマンドを生成することができる。
従って、タブレット端末1において、ユーザは、2本の手、あるいは2本の指の自然で直感的な指の動作により、画像等のオブジェクトのスクロール、回転などのコマンドを指示することができる。
以上のように、上述した本実施形態の情報処理端末によれば、複雑な処理を必要としないで、直感的な操作によりコマンド、ここでは、スクロール、回転などのコマンド、の指示が可能な情報端末装置を提供することができる。
図28は、第1から第3の実施形態のコマンド生成部を含む制御部の構成を示すブロック図である。コマンド生成部に関係する制御部11は、指空間位置情報算出部21、タッチパネル処理部22、コマンド生成出力部23及び画像処理部24を含む。
指空間位置情報算出部21は、発光部6への発光タイミング毎における、受光部7の受光量の情報に基づいて、上述した式(1)、(2)及び(3)を用いて、指の3次元空間上の位置を算出する処理部であり、図14のS4、図22のS12、図27のS22の処理部に対応する。よって、指空間位置情報算出部21は、表示器3の表示面に対向する3次元空間内の物体の位置を検出する位置検出部を構成する。
タッチパネル処理部22は、タッチパネル13からの出力信号を検出して、タッチパネル13においてタッチされた位置の情報を検出する処理部であり、図14と図22のS1,S2、図27のS21の処理に対応する。よって、S2の処理及びタッチパネル処理部22は、表示器3のタッチパネル13へのタッチがあったことを検出するタッチパネルタッチ検出部を構成する。
コマンド生成出力部23は、所定の条件に合致する状態が検出されたときに、所定のコマンドの出力を行う処理部であり、図14のS5,S6、図22のS13〜S16、図27のS23,S24の処理に対応する。よって、コマンド生成出力部23は、タッチパネル13へのタッチ操作によるタッチパネル13のタッチ位置情報と、タッチパネル13へのタッチがされた後に又はタッチパネル13へのタッチがされている状態で位置検出部により検出された所定空間内における物体の空間内位置情報とに基づいて、所定の処理を実行させる所定のコマンドを生成するコマンド生成部を構成する。
画像処理部24は、生成されたコマンドに基づいて、ズーム、スクロール、回転、濃淡変化などのための画像処理を行う処理部である。
画像処理部24は、生成されたコマンドに基づいて、ズーム、スクロール、回転、濃淡変化などのための画像処理を行う処理部である。
なお、上述した例では、複数の発光部と、1つの受光部とを利用して、3次元空間の指の位置を検出しているが、デジタルサイネージなどのサイズが比較的大きい装置の場合は、2つのカメラ装置を用いて、画像処理により指の3次元空間内の位置を取得するようにしてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として例示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 タブレット端末、2 本体部、3 表示器、3a 表示領域、4 スイッチ、5 カメラ、6a、6b、6c 発光部、7 受光部、11 制御部、12 液晶表示装置、13 タッチパネル、14 通信部、15 記憶部、21 指空間位置情報算出部、22 タッチパネル処理部、23 コマンド生成出力部、24 画像処理部。
Claims (15)
- タッチパネル付きの表示器と、
前記表示器の前記表示面の周囲に配置された第1、第2及び第3の発光部と、
前記表示面の周囲に配置された受光部と、
前記表示器の前記タッチパネルへのタッチがあったことを検出するタッチパネルタッチ検出部と、
前記第1、前記第2及び前記第3の発光部から発光された光の前記物体からのそれぞれの反射光を前記受光部により検出して得られた第1、第2及び第3の光量に基づいて、前記表示器の表示面から離れた、予め設定された3次元の所定空間を含む空間内の物体の位置を検出する位置検出部と、
前記タッチパネルへのタッチ操作による前記タッチパネルのタッチ位置情報と、前記タッチパネルへのタッチがされた後に又は前記タッチパネルへのタッチがされている状態で前記位置検出部により検出された前記3次元空間内における前記物体の空間内位置情報とに基づいて、所定の処理を実行させる所定のコマンドを生成するコマンド生成部と、
を有する情報端末装置。 - タッチパネル付きの表示器と、
前記表示器の表示面に対向する3次元空間内の物体の位置を検出する位置検出部と、
前記タッチパネルへのタッチ操作による前記タッチパネルのタッチ位置情報と、前記タッチパネルへのタッチがされた後に又は前記タッチパネルへのタッチがされている状態で前記位置検出部により検出された前記3次元空間内における前記物体の空間内位置情報とに基づいて、所定の処理を実行させる所定のコマンドを生成するコマンド生成部と、
を有する情報端末装置。 - 前記タッチ位置情報は、互いに近づく2点についての位置情報であり、
前記空間内位置情報は、近づいた前記2点の位置から前記物体が移動する軌跡を示す情報であり、
前記所定の処理は、前記表示器に表示されている画像をめくるように動かす処理である請求項2に記載の情報端末装置。 - 前記タッチ位置情報は、互いに近づくあるいは互いに離れる2点についての位置情報であり、
前記空間内位置情報は、前記表示器の表示面に対して直行する方向における前記3次元空間内の前記物体の位置の情報であり、
前記所定の処理は、前記空間内位置情報に基づいて決定されたズーム量で、前記表示器に表示されている画像をズームするズーム処理である請求項2に記載の情報端末装置。 - 前記3次元空間内の前記物体の位置が所定の位置を超えると、前記ズーム量は、第1の値に固定される請求項4に記載の情報端末装置。
- 前記タッチパネルに対する所定のタッチ操作があると、前記ズーム処理の実行は終了される請求項4に記載の情報端末装置。
- 前記空間内位置情報は、前記3次元空間内における所定の方向に向かって前記物体が移動する軌跡を示す情報であり、
前記所定の処理は、前記所定の方向に沿って、前記表示器に表示されている画像をスクロールする処理である請求項2に記載の情報端末装置。 - 前記空間内位置情報は、前記3次元空間内における所定の方向に向かって前記物体が移動する軌跡を示す情報であり、
前記所定の処理は、前記空間内位置情報に基づいて、前記表示器に表示されている画像の濃淡を変化させる処理である請求項2に記載の情報端末装置。 - 前記空間内位置情報は、前記3次元空間内における所定の方向に向かって前記物体が移動する軌跡を示す情報であり、
前記所定の処理は、前記所定の方向に沿って、前記表示器に表示されている図形を回転させる処理である請求項2に記載の情報端末装置。 - 前記表示器の前記表示面の周囲に配置された第1、第2及び第3の発光部と、
前記表示面の周囲に配置された受光部と、
を有し、
前記位置検出部は、前記第1、前記第2及び前記第3の発光部から発光された光の前記物体からのそれぞれの反射光を前記受光部により検出して得られた第1、第2及び第3の光量に基づいて、前記表示面に平行な2次元平面上の第1の位置と、前記表示面に直交する方向における第2の位置とを算出して検出する請求項2から9のいずれか1つに記載の情報端末装置。 - 前記位置検出部は、前記第1と前記第2の光量の差と和の値を用いて算出した前記2次元平面の第1の方向における位置と、前記第2と前記第3の光量の差と和の値を用いて算出した前記2次元平面の前記第1の方向とは異なる第2の方向における位置とから、前記第1の位置を決定する請求項10に記載の情報端末装置。
- 前記位置検出部は、前記第1、前記第2及び前記第3の光量のうち少なくとも2つの光量の和の値を用いて前記表示面に直交する方向における前記第2の位置を決定する請求項10又は11に記載の情報端末装置。
- 前記第1、前記第2及び前記第3の発光部は、互いに異なるタイミングで発光し、前記受光部は、前記異なるタイミングに応じて、前記第1、前記第2及び前記第3の発光部のそれぞれから発光された光の前記反射光を検出する請求項10から12のいずれか1つに記載の情報端末装置。
- 前記第1、前記第2及び前記第3の発光部は、可視光の波長範囲外の波長の光を出射する請求項10から13のいずれ1つに記載の情報端末装置。
- 前記可視光の波長範囲外の波長の光は、近赤外線の光である請求項14に記載の情報端末装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013160537A JP2015032101A (ja) | 2013-08-01 | 2013-08-01 | 情報端末装置 |
US14/199,841 US20150035800A1 (en) | 2013-08-01 | 2014-03-06 | Information terminal apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013160537A JP2015032101A (ja) | 2013-08-01 | 2013-08-01 | 情報端末装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015032101A true JP2015032101A (ja) | 2015-02-16 |
Family
ID=52427230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013160537A Pending JP2015032101A (ja) | 2013-08-01 | 2013-08-01 | 情報端末装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20150035800A1 (ja) |
JP (1) | JP2015032101A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046458A (ja) * | 2017-09-04 | 2019-03-22 | 株式会社ワコム | 空間位置指示システム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9202297B1 (en) * | 2011-07-12 | 2015-12-01 | Domo, Inc. | Dynamic expansion of data visualizations |
US9792017B1 (en) | 2011-07-12 | 2017-10-17 | Domo, Inc. | Automatic creation of drill paths |
JP2015022567A (ja) * | 2013-07-19 | 2015-02-02 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
JP6464576B2 (ja) * | 2014-06-04 | 2019-02-06 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
KR20160037508A (ko) * | 2014-09-29 | 2016-04-06 | 삼성전자주식회사 | 디스플레이 장치 및 그의 표시 방법 |
US10481736B2 (en) * | 2017-06-21 | 2019-11-19 | Samsung Electronics Company, Ltd. | Object detection and motion identification using electromagnetic radiation |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007219676A (ja) * | 2006-02-15 | 2007-08-30 | Tokyo Institute Of Technology | データ入力装置、情報機器、およびデータ入力方法 |
JP2011123584A (ja) * | 2009-12-09 | 2011-06-23 | Seiko Epson Corp | 光学式位置検出装置および位置検出機能付き表示装置 |
US20110296334A1 (en) * | 2010-05-28 | 2011-12-01 | Lg Electronics Inc. | Mobile terminal and method of controlling operation of the mobile terminal |
JP2011252882A (ja) * | 2010-06-04 | 2011-12-15 | Seiko Epson Corp | 光学式位置検出装置 |
US20120092284A1 (en) * | 2010-09-30 | 2012-04-19 | Broadcom Corporation | Portable computing device including a three-dimensional touch screen |
WO2012063387A1 (ja) * | 2010-11-10 | 2012-05-18 | パナソニック株式会社 | 非接触ポジションセンシング装置及び非接触ポジションセンシング方法 |
US20120268409A1 (en) * | 2008-10-10 | 2012-10-25 | At&T Intellectual Property I, L.P. | Augmented i/o for limited form factor user-interfaces |
WO2013081819A1 (en) * | 2011-11-30 | 2013-06-06 | Neonode Inc. | Light-based finger gesture user interface |
WO2013083737A1 (en) * | 2011-12-09 | 2013-06-13 | Microchip Technology Germany Ii Gmbh & Co. Kg | Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means |
JP2013127753A (ja) * | 2011-12-19 | 2013-06-27 | Sharp Corp | 情報処理装置の入力方法、及び情報処理装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8086971B2 (en) * | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US8619029B2 (en) * | 2009-05-22 | 2013-12-31 | Motorola Mobility Llc | Electronic device with sensing assembly and method for interpreting consecutive gestures |
US10007393B2 (en) * | 2010-01-19 | 2018-06-26 | Apple Inc. | 3D view of file structure |
JP2011257338A (ja) * | 2010-06-11 | 2011-12-22 | Seiko Epson Corp | 光学式位置検出装置および位置検出機能付き表示装置 |
-
2013
- 2013-08-01 JP JP2013160537A patent/JP2015032101A/ja active Pending
-
2014
- 2014-03-06 US US14/199,841 patent/US20150035800A1/en not_active Abandoned
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007219676A (ja) * | 2006-02-15 | 2007-08-30 | Tokyo Institute Of Technology | データ入力装置、情報機器、およびデータ入力方法 |
US20120268409A1 (en) * | 2008-10-10 | 2012-10-25 | At&T Intellectual Property I, L.P. | Augmented i/o for limited form factor user-interfaces |
JP2011123584A (ja) * | 2009-12-09 | 2011-06-23 | Seiko Epson Corp | 光学式位置検出装置および位置検出機能付き表示装置 |
US20110296334A1 (en) * | 2010-05-28 | 2011-12-01 | Lg Electronics Inc. | Mobile terminal and method of controlling operation of the mobile terminal |
JP2011252882A (ja) * | 2010-06-04 | 2011-12-15 | Seiko Epson Corp | 光学式位置検出装置 |
US20120092284A1 (en) * | 2010-09-30 | 2012-04-19 | Broadcom Corporation | Portable computing device including a three-dimensional touch screen |
WO2012063387A1 (ja) * | 2010-11-10 | 2012-05-18 | パナソニック株式会社 | 非接触ポジションセンシング装置及び非接触ポジションセンシング方法 |
WO2013081819A1 (en) * | 2011-11-30 | 2013-06-06 | Neonode Inc. | Light-based finger gesture user interface |
WO2013083737A1 (en) * | 2011-12-09 | 2013-06-13 | Microchip Technology Germany Ii Gmbh & Co. Kg | Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means |
JP2013127753A (ja) * | 2011-12-19 | 2013-06-27 | Sharp Corp | 情報処理装置の入力方法、及び情報処理装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046458A (ja) * | 2017-09-04 | 2019-03-22 | 株式会社ワコム | 空間位置指示システム |
JP7523610B2 (ja) | 2017-09-04 | 2024-07-26 | 株式会社ワコム | 座標算出システム |
Also Published As
Publication number | Publication date |
---|---|
US20150035800A1 (en) | 2015-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015032101A (ja) | 情報端末装置 | |
KR102219912B1 (ko) | 원격 호버 터치 시스템 및 방법 | |
US10645272B2 (en) | Camera zoom level and image frame capture control | |
US9313406B2 (en) | Display control apparatus having touch panel function, display control method, and storage medium | |
US9360965B2 (en) | Combined touch input and offset non-touch gesture | |
JP5900393B2 (ja) | 情報処理装置、操作制御方法及びプログラム | |
US10303324B2 (en) | Electronic device configured to display three dimensional (3D) virtual space and method of controlling the electronic device | |
US11483469B2 (en) | Camera zoom level and image frame capture control | |
US9250443B2 (en) | Head mounted display apparatus and contents display method | |
JP5878698B2 (ja) | ジェスチャーに基づくマン−マシンインターフェース | |
JP6288084B2 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
TWI501121B (zh) | 手勢辨識方法及使用該方法之觸控系統 | |
WO2014188798A1 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
EP2534567A2 (en) | Multi-layer user interface with flexible parallel and orthogonal movement | |
US10521101B2 (en) | Scroll mode for touch/pointing control | |
CA2787112A1 (en) | Multi-layer user interface with flexible parallel movement | |
TW201109998A (en) | Gesture recognition method and interactive system using the same | |
KR20140100547A (ko) | 모바일 장치상의 풀 3d 상호작용 | |
US20160026244A1 (en) | Gui device | |
US9313408B2 (en) | Mobile device for capturing images and control method thereof | |
JP6548068B2 (ja) | 電子機器、表示制御方法及びプログラム | |
JP6008904B2 (ja) | 表示制御装置、表示制御方法、及び、プログラム | |
TW201545051A (zh) | 電子裝置的控制方法 | |
TWI522895B (zh) | 介面操作方法與應用該方法之可攜式電子裝置 | |
KR20140117957A (ko) | 이중 디스플레이 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160628 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161227 |