JP2013073412A - User interface device for generating projection image signal for pointer projection and image projection method and program - Google Patents
User interface device for generating projection image signal for pointer projection and image projection method and program Download PDFInfo
- Publication number
- JP2013073412A JP2013073412A JP2011211783A JP2011211783A JP2013073412A JP 2013073412 A JP2013073412 A JP 2013073412A JP 2011211783 A JP2011211783 A JP 2011211783A JP 2011211783 A JP2011211783 A JP 2011211783A JP 2013073412 A JP2013073412 A JP 2013073412A
- Authority
- JP
- Japan
- Prior art keywords
- image
- finger
- projection
- screen
- pressing force
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、画像を表示するディスプレイと、ユーザインタフェースとしてのタッチパネルとを備え、画像を投影対象に投影するための投影像信号を生成するユーザインタフェース装置に関する。 The present invention relates to a user interface device that includes a display for displaying an image and a touch panel as a user interface, and generates a projection image signal for projecting the image onto a projection target.
従来、指で、又はスタイラス等の接触器具で、画面に触れることによって入力操作を行う、タッチパネルを搭載したユーザインタフェース装置が広く普及している。特に、スマートフォン、タブレット型コンピュータ、電子書籍、PDA(Personal Digital Assistant)といったユーザインタフェース装置、いわゆる携帯型情報機器では、指等による操作を受け入れるユーザインタフェースとしてタッチパネルが、積極的に採用されている。 2. Description of the Related Art Conventionally, user interface devices equipped with touch panels that perform an input operation by touching a screen with a finger or a contact instrument such as a stylus have been widely used. In particular, in user interface devices such as smartphones, tablet computers, electronic books, and PDAs (personal digital assistants), so-called portable information devices, touch panels are actively employed as user interfaces that accept operations with fingers and the like.
近年、この携帯型情報機器において、動画を含む画像を、スクリーン等の投影対象に投影するプロジェクタ機能を備えたものが開発されている。このような機器を用いることにより、例えば、機器を携帯しているその場で、機器内のコンテンツ等を投影像として多数の人間に公開することができる。 In recent years, a portable information device having a projector function for projecting an image including a moving image onto a projection target such as a screen has been developed. By using such a device, for example, the content in the device can be disclosed as a projected image to a large number of people on the spot where the device is carried.
このようなプロジェクタ機能を備えた携帯型情報機器として、例えば、特許文献1には、スクリーンに画像を投射する投射光学系内のLED光源において、出力光の色変動を抑止したプロジェクタ装置が開示されている。また、特許文献2には、カウンターウエイトと減衰器とを利用して手振れを抑制した携帯型のプロジェクタ装置が開示されている。 As a portable information device having such a projector function, for example, Patent Document 1 discloses a projector device that suppresses color variation of output light in an LED light source in a projection optical system that projects an image on a screen. ing. Patent Document 2 discloses a portable projector device that suppresses camera shake using a counterweight and an attenuator.
さらに、特許文献3には、投影対象までの距離を測定する測距部からの信号に基づいて、投影光源の発光量を制御するプロジェクタ内蔵携帯機器が開示されている。ここでは、この発光量制御によって、視聴者に使用条件に応じた映像を投影することが意図されている。また、特許文献4には、プロジェクタ動作時の消費電力を低減させるため、電池電圧値に応じて投影用光源の発光量を制御する携帯通信端末が開示されている。
Further,
このプロジェクタ機能を備えた携帯型情報機器において、タッチパネルに対して指で操作を行いながら画像を投影する際、ユーザにとって不都合が生じ易い。 In a portable information device having this projector function, when projecting an image while operating the touch panel with a finger, inconvenience is likely to occur for the user.
一般に、プロジェクタ機能を利用する状況では、ユーザは、映出された投影像を見ながら指による操作を行いたい場合も少なくない。例えば、投影像が実際にどのような状態で映出されているかを見て確認しながら、その投影像について説明する場合もある。また、投影像の映出先を選びながら又は移動させながら、同時に指による操作を行う場合もある。さらに、プロジェクタ機能を利用したプレゼンテーションの際には、映出された投影像と参加者とに向かいながら説明を行うのが通常である。 In general, in a situation where a projector function is used, a user often wants to perform an operation with a finger while viewing a projected image that is projected. For example, there is a case where the projected image is described while confirming the actual state in which the projected image is projected. In some cases, a finger may be operated simultaneously while selecting or moving the projection destination of the projected image. Further, in the presentation using the projector function, the explanation is usually made while facing the projected image and the participants.
これに対して、例えば、ディスプレイの画面に表示された画像にアイコンが含まれており、ユーザの指がこのアイコンに接触する場合を考える。スクリーン等の投影対象には、このアイコン(のイメージ)を含む投影像が映出されている。しかしながら、ユーザの指が画面内のアイコンの表示位置付近に接触したとしても、この投影像には、指の接触に関するイメージは何ら現れない。 On the other hand, for example, a case where an icon is included in an image displayed on a display screen and a user's finger touches the icon is considered. A projected image including this icon (image) is projected on a projection target such as a screen. However, even if the user's finger touches the vicinity of the icon display position on the screen, no image relating to the finger contact appears in the projected image.
従って、ユーザは、指による操作の際、ディスプレイの画面を見て、指の接触位置を確認しなければならない。さもなければ、指が意図しないアイコンを選択して不要のアプリケーションが起動したり、指をブラインドで移動させることになって所望の機能を発動させるのに時間がかかったりする可能性が高い。 Therefore, the user must check the contact position of the finger by looking at the screen of the display when operating with the finger. Otherwise, it is highly likely that an unnecessary application is activated by selecting an icon that is not intended by the finger, or that it takes time to activate a desired function by moving the finger blindly.
このように、プロジェクタ機能を利用する際、映出された投影像を見ながら、タッチパネルに対して指で操作を行うことが困難となっている。しかしながら、特許文献1乃至4に開示されたような従来の携帯型プロジェクタ分野では、このようなユーザインタフェース及び操作性に関する問題に十分に取り組んでこなかったことは否めない。 Thus, when using the projector function, it is difficult to operate the touch panel with a finger while viewing the projected image. However, in the field of conventional portable projectors as disclosed in Patent Documents 1 to 4, it cannot be denied that such problems relating to user interface and operability have not been sufficiently addressed.
そこで、本発明は、映出された投影像を見て確認しながら、タッチパネルに対する指での操作を適切に実行することができるユーザインタフェース装置、画像投影方法及びプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a user interface device, an image projection method, and a program capable of appropriately executing a finger operation on the touch panel while viewing and confirming the projected image projected. .
本発明によれば、画像を画面に表示するディスプレイと、このディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルと、このタッチパネルに接触した指によって与えられる押圧力を検出する押圧力検出部とを備えており、画像に対応する投影像を投影対象に映出するための信号を生成するユーザインタフェース装置であって、
指がタッチパネルに接触したか否かを判定する接触判定手段と、
押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
接触判定手段が真の判定を行った際、接触した指による操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御し、さらに押圧力判定手段が真の判定を行った際、指による押し込み操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御する動作・画像制御手段と、
接触判定手段が真の判定を行った際、投影対象に映出された投影像内の位置であって、指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成するポインタ情報生成手段と、
ポインタ情報と、動作・画像制御手段によって制御された画像とを投影対象に投影するための投影像信号を生成する投影像信号生成手段と
を有するユーザインタフェース装置が提供される。
According to the present invention, a display that displays an image on a screen, a touch panel that is arranged on the screen of the display and sequentially outputs a contact position of a finger as time elapses, and a touch given by a finger that touches the touch panel. A user interface device that generates a signal for projecting a projection image corresponding to an image onto a projection target, and a pressure detection unit that detects pressure.
Contact determination means for determining whether or not a finger touches the touch panel;
A pressing force determining means for determining whether the pressing force is equal to or greater than a predetermined threshold;
When the contact determination means makes a true determination, an action corresponding to the operation with the touched finger is activated, and the image displayed on the screen is controlled according to this action, and the pressing force determination means makes a true determination. An action / image control means for activating an action corresponding to the pushing operation with a finger when controlling the image displayed on the screen according to the action;
When the contact determination means makes a true determination, it generates pointer information for displaying a pointer indicating a position corresponding to the contact position of the finger in the projected image projected on the projection target. Pointer information generating means;
A user interface device is provided that includes pointer information and a projection image signal generation unit that generates a projection image signal for projecting an image controlled by the operation / image control unit onto a projection target.
また、本発明によるユーザインタフェース装置によれば、接触判定手段は、指の接触位置がディスプレイに表示された画像に含まれる操作対象であるオブジェクトの表示位置範囲と重畳したか否かを判定し、
動作・画像制御手段は、接触判定手段がオブジェクトの表示位置範囲に関して真の判定を行い且つ押圧力判定手段が真の判定を行った際、オブジェクトの機能を発動させる操作が行われたとして対応する動作を発動させ、この動作に応じて画面に表示された画像を制御することも好ましい。
According to the user interface device of the present invention, the contact determination unit determines whether or not the contact position of the finger is superimposed on the display position range of the object that is the operation target included in the image displayed on the display,
The action / image control means responds that an operation for activating the function of the object is performed when the contact determination means makes a true determination regarding the display position range of the object and the pressing force determination means makes a true determination. It is also preferable to activate an operation and control an image displayed on the screen in accordance with the operation.
また、この実施形態において、接触判定手段がオブジェクトの表示位置範囲に関して真の判定を行った際、動作・画像制御手段は、オブジェクトを選択する操作が行われたとして対応する動作を発動させ、この動作に応じて画面に表示された画像を制御することも好ましい。 In this embodiment, when the contact determination unit makes a true determination regarding the display position range of the object, the operation / image control unit activates a corresponding operation on the assumption that an operation for selecting the object is performed. It is also preferable to control the image displayed on the screen according to the operation.
また、本発明によるユーザインタフェース装置によれば、投影像信号を、外部のプロジェクタに出力するための投影像信号出力端子をさらに有することも好ましい。 The user interface device according to the present invention preferably further includes a projection image signal output terminal for outputting the projection image signal to an external projector.
さらに、本発明によるユーザインタフェース装置によれば、ポインタ情報と、動作・画像制御手段によって制御された画像とを投影対象に投影するプロジェクタ光学系と、
投影像信号を入力し、この投影像信号に応じてプロジェクタ光学系を制御するプロジェクタ制御手段と
をさらに有することも好ましい。
Further, according to the user interface device of the present invention, the projector optical system that projects the pointer information and the image controlled by the operation / image control means onto the projection target;
It is preferable to further include a projector control means for inputting a projection image signal and controlling the projector optical system in accordance with the projection image signal.
さらにまた、本発明によるユーザインタフェース装置によれば、ユーザの操作から見て、投影対象に映出されたポインタの指し示す位置を見て確認しつつ指による操作を実行することができるように、投影像信号生成手段は、ポインタに対応するポインタ情報を含む投影像信号を生成することも好ましい。 Furthermore, according to the user interface device of the present invention, the projection with the finger can be performed while seeing and confirming the position indicated by the pointer projected on the projection target as seen from the user's operation. The image signal generation means preferably generates a projection image signal including pointer information corresponding to the pointer.
本発明によれば、さらに、画像を画面に表示するディスプレイと、このディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルと、このタッチパネルに接触した指によって与えられる押圧力を検出する押圧力検出部とを備えており、画像に対応する投影像を投影対象に映出するための信号を生成するユーザインタフェース装置に搭載されたプログラムであって、
指がタッチパネルに接触したか否かを判定する接触判定手段と、
押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
接触判定手段が真の判定を行った際、接触した指による操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御し、さらに押圧力判定手段が真の判定を行った際、指による押し込み操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御する動作・画像制御手段と、
接触判定手段が真の判定を行った際、投影対象に映出された投影像内の位置であって、指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成するポインタ情報生成手段と、
ポインタ情報と、動作・画像制御手段によって制御された画像とを投影対象に投影するための投影像信号を生成する投影像信号生成手段と
してコンピュータを機能させるユーザインタフェース装置用のプログラムが提供される。
According to the present invention, the display is further provided by a display that displays an image on the screen, a touch panel that is arranged on the screen of the display and that sequentially outputs the contact position of the finger as time elapses, and a finger that touches the touch panel. A program mounted on a user interface device that generates a signal for projecting a projection image corresponding to an image onto a projection target,
Contact determination means for determining whether or not a finger touches the touch panel;
A pressing force determining means for determining whether the pressing force is equal to or greater than a predetermined threshold;
When the contact determination means makes a true determination, an action corresponding to the operation with the touched finger is activated, and the image displayed on the screen is controlled according to this action, and the pressing force determination means makes a true determination. An action / image control means for activating an action corresponding to the pushing operation with a finger when controlling the image displayed on the screen according to the action;
When the contact determination means makes a true determination, it generates pointer information for displaying a pointer indicating a position corresponding to the contact position of the finger in the projected image projected on the projection target. Pointer information generating means;
There is provided a program for a user interface device that causes a computer to function as projection image signal generation means for generating a projection image signal for projecting pointer information and an image controlled by an operation / image control means onto a projection target.
本発明によれば、さらにまた、画像を画面に表示するディスプレイと、このディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルと、このタッチパネルに接触した指によって与えられる押圧力を検出する押圧力検出部とを備えており、画像に対応する投影像を投影対象に映出するための信号を生成するユーザインタフェース装置における画像投影方法であって、
指がタッチパネルに接触したか否かを判定する第1のステップと、
第1のステップで真の判定がなされた際、接触した指による操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御する第2のステップと、
押圧力が所定閾値以上であるか否かを判定する第3のステップと、
第1のステップで真の判定がなされ且つ第3のステップで真の判定がなされた際、指による押し込み操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御する第4のステップと、
第1のステップで真の判定がなされた際、投影対象に映出された投影像内の位置であって、指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成する第5のステップと、
ポインタ情報と、第2のステップ及び第4のステップで制御された画像とを投影対象に投影するための投影像信号を生成する第6のステップと
を有する画像投影方法が提供される。
Further, according to the present invention, a display that displays an image on a screen, a touch panel that is arranged on the screen of the display and sequentially outputs a contact position of a finger as time elapses, and a finger that touches the touch panel An image projecting method in a user interface device that generates a signal for projecting a projection image corresponding to an image onto a projection target, the image sensing method comprising:
A first step of determining whether a finger has touched the touch panel;
When a true determination is made in the first step, a second step of activating an action corresponding to an operation with a touched finger and controlling an image displayed on the screen in accordance with the action;
A third step of determining whether the pressing force is equal to or greater than a predetermined threshold;
When the true determination is made in the first step and the true determination is made in the third step, an action corresponding to the pushing operation by the finger is activated, and the image displayed on the screen is controlled according to this action. A fourth step;
When a true determination is made in the first step, pointer information is generated for projecting a pointer indicating a position in the projected image projected on the projection target and corresponding to the finger contact position. A fifth step to:
An image projection method is provided that includes pointer information and a sixth step of generating a projection image signal for projecting the image controlled in the second step and the fourth step onto a projection target.
本発明のユーザインタフェース装置、画像投影方法及びプログラムによれば、映出された投影像を見て確認しながら、タッチパネルに対する指での操作を適切に実行することができる。 According to the user interface device, the image projecting method, and the program of the present invention, it is possible to appropriately execute an operation with a finger on the touch panel while checking and confirming the projected image.
以下、本発明の実施形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本発明による、ディスプレイ及びタッチパネルを備えたユーザインタフェース装置は、
(1)ディスプレイ画面に表示された画像を投影するための投影像信号を生成する
ことができる装置である。また、
(2)スクリーン等の投影対象に、ディスプレイ画面に表示された画像を投影するプロジェクタ機能を有する
ことも好ましい。この本発明によるユーザインタフェース装置では、投影対象に映出された投影像内の位置であって、ディスプレイ画面内の指の接触位置に相当する位置を指し示すポインタを、投影対象に投影するための投影像信号を生成する点に特徴を有する。
According to the present invention, a user interface device including a display and a touch panel is provided.
(1) An apparatus capable of generating a projection image signal for projecting an image displayed on a display screen. Also,
(2) It is also preferable to have a projector function for projecting an image displayed on the display screen onto a projection target such as a screen. In this user interface device according to the present invention, a projection for projecting a pointer on a projection target, which is a position in the projected image projected on the projection target and corresponding to a position touched by a finger in the display screen. It is characterized in that an image signal is generated.
これにより、ユーザは、映出された投影像に表示されたポインタを見て、その指し示す位置を確認することができる。その結果、投影像を見て確認しつつ、タッチパネルに対する指での操作を適切に実行することができる。 Thereby, the user can see the pointer displayed on the projected image displayed and can confirm the position pointed to. As a result, it is possible to appropriately execute an operation with a finger on the touch panel while checking the projected image.
ここで、「画像」とは、ユーザインタフェース装置のディスプレイ画面に表示された、静止画及び動画を含むイメージである。また、「投影像信号」は、「画像」情報を含み、この「画像」をスクリーン等の投影対象に投影するためにプロジェクタ部またはプロジェクタ装置に出力される信号である。さらに、「投影像」とは、「投影像信号」を入力したプロジェクタ部またはプロジェクタ装置から放射された投射光が、スクリーン等の投影対象上に形成するイメージである。 Here, the “image” is an image including a still image and a moving image displayed on the display screen of the user interface device. The “projection image signal” includes “image” information, and is a signal output to the projector unit or the projector device in order to project the “image” onto a projection target such as a screen. Further, the “projection image” is an image formed on a projection target such as a screen by projection light emitted from the projector unit or the projector apparatus to which the “projection image signal” is input.
また、本発明によるユーザインタフェース装置では、ユーザの指がタッチパネルに接触することによって情報が入力される。このため、当該装置の多くは、片手又は両手で携帯して指での操作が可能となる、スマートフォンやタブレット型コンピュータのような携帯型情報機器である。従って、以下、本発明の実施形態として、携帯型情報機器を説明する。 In the user interface device according to the present invention, information is input when a user's finger contacts the touch panel. For this reason, many of the devices are portable information devices such as smartphones and tablet computers that can be carried with one hand or both hands and operated with fingers. Therefore, hereinafter, a portable information device will be described as an embodiment of the present invention.
図1は、本発明によるプロジェクタ機能を備えた携帯型情報機器と、投影対象とを示す概略図、並びに、ディスプレイ画面に表示された画像を示す携帯型情報機器の前面図、及び投影対象に映出された投影像を示すスクリーンの正面図である。 FIG. 1 is a schematic diagram showing a portable information device having a projector function according to the present invention and a projection target, a front view of the portable information device showing an image displayed on a display screen, and a projection target. It is a front view of the screen which shows the projected image taken out.
図1(A)は、プロジェクタ機能を備えた携帯型情報機器1から投射光が放射され、投影対象であるスクリーン200に投影像201が映出された状態を示している。この図によれば、携帯型情報機器1は、画像を画面に表示するディスプレイ101と、ディスプレイ101の画面上に配置されたタッチパネル100とを備えている。ユーザは、タッチパネル100に対して指による入力操作を行う。この入力操作に応じて動作が発動し、この発動した動作に対応した画像が、ディスプレイ101の画面に表示される。
FIG. 1A shows a state in which projection light is emitted from the portable information device 1 having a projector function, and a
尚、以下、指を直接接触させて入力操作を行う形態を説明するが、指の代わりに、スタイラス等の接触器具を用いて入力することも可能である。この場合、以下に説明する実施形態において、指の接触位置が、接触器具の先端の接触位置に置き換わることになる。 In the following, a mode in which an input operation is performed by directly contacting a finger will be described, but it is also possible to input using a contact instrument such as a stylus instead of the finger. In this case, in the embodiment described below, the contact position of the finger is replaced with the contact position of the tip of the contact instrument.
携帯型情報機器1は、さらに、プロジェクタ機能を有するプロジェクタ光学系13を内蔵している。ディスプレイ101の画面に表示される画像の情報は、同時に、投影像信号に変換される。この投影像信号は、プロジェクタ光学系13を制御するプロジェクタ制御部130(図5(A))に出力される。この投影像信号に基づいてプロジェクタ光学系13が制御され、プロジェクタ光学系13の出力部となる投射レンズ133から、ディスプレイ101の画面に表示される画像の情報を含む投射光が放射される。その結果、スクリーン200に、この画像に対応した投影像201が映出される。
The portable information device 1 further includes a projector
図1(B)は、ディスプレイ101の画面に表示された画像と、スクリーンに映出された投影像201との対応関係を示している。この図によれば、ディスプレイ101の画面に表示された画像には、複数のアイコン104が表示されている。アイコン104は、アプリケーションを起動させるための、ユーザにとっての操作対象(オブジェクト)である。ユーザは、指を直接アイコン104に接触させることによって、アイコン104を選択することができる。
FIG. 1B shows the correspondence between the image displayed on the screen of the
図1(B)において、ユーザの指は、接触位置105で、タッチパネル100に接触している。ここで、ディスプレイ101の画面にxy座標系の第一象限を導入し、この指の接触位置105の座標を(x1,y1)とする。また、図1(B)における画面左下隅を原点(0,0)とする。この指の接触位置105に基づいて、後述するポインタ情報生成部123(図5(A))により、ポインタ情報106が生成される。ポインタ情報106は、投影像201内にポインタ205を映出するための画像情報(イメージデータ)である。
In FIG. 1B, the user's finger is in contact with the
ポインタ情報106において、先端106aの座標は、指の接触位置105の座標(x1,y1)と一致するように設定される。すなわち、ポインタ情報106がディスプレイ101の画面に表示されたとすると、そのポインタ情報106のイメージは、指の接触位置105を指すことになる。すなわち、先端106aが指の接触位置と一致する。尚、ポインタ情報106は、本実施形態において、ディスプレイ101の画面に表示されない。しかしながら、スクリーンに映出されたポインタ205と互いに対応する形で、ポインタ情報106がディスプレイ101の画面に表示されてもよい。
In the
次いで、形成されたポインタ情報106と、ディスプレイ101の画面に表示される画像の情報とが合成されて、スクリーン200に投影するための投影像信号が生成される。この投影像信号に応じた投射光が放射され、その結果、ポインタ情報106と、ディスプレイ101の画面に表示される画像の情報とに対応した投影像201が、スクリーン200に映出される。
Next, the formed
同じく図1(B)において、スクリーン200に映出された投影像201は、ポインタ情報106に対応したポインタ205と、複数のアイコン104に対応した複数のアイコンイメージ204とを含む。ポインタ205は、投影像201内における、ディスプレイ101の画面内での指の接触位置105に相当する位置を指し示す。すなわち、ポインタ205の先端205aの位置が、この投影像201内における指の接触位置105に相当する位置と一致する。
Similarly in FIG. 1B, a projected
ここで、スクリーン200の投射面は平坦であって、投影レンズ133から放射される投射光の光軸に垂直であるとする。また、これにより、投影像201は、ディスプレイ101の画面(に表示された画像全体)と相似形、または縦横比がこの画面とは異なる矩形をなしているとする。さらに、スクリーン200の投影面にXY座標系の第一象限を導入し、ポインタ205の先端205aの位置の座標を(X1,Y1)とする。また、図1(B)における投影像201左下隅を原点(0,0)とする。
Here, it is assumed that the projection surface of the
この場合、指の接触位置105の座標(x1,y1)と、先端205a位置の座標(X1,Y1)とには、以下の関係が存在する。
(a) X1=α・x1、 Y1=β・y1
ここで、
(b) α=(投影像201のX軸方向での幅)/(画面のx軸方向での幅)
(c) β=(投影像201のY軸方向での高さ)/(画面のy軸方向での高さ)
である。例えば、投影像201とディスプレイ101の画面(に表示された画像全体)とが相似である場合、α=β(=拡大率)となる。
In this case, the following relationship exists between the coordinates (x 1 , y 1 ) of the
(A) X 1 = α · x 1 , Y 1 = β · y 1
here,
(B) α = (width of the projected
(C) β = (height of the projected
It is. For example, when the projected
このように、ポインタ205は、その先端205aによって、投影像201内における、指の接触位置105に相当する位置を指し示す。これにより、ユーザは、ディスプレイ101の画面を見なくとも、投影像201内での先端205aの位置を見ることによって、画面内での指の接触位置105を確認することができる。従って、映出された投影像201内におけるポインタ205の先端205aを見て確認しながら、タッチパネル100に対する指での操作を適切に実行することが可能となる。
As described above, the
また、言い換えると、プロジェクタ光学系13に出力される投影像信号は、ユーザの操作から見て、スクリーン200に映出されたポインタ205の指し示す位置を確認しつつ指による操作を実行することができるように、ポインタ205に対応するポインタ情報106を含む信号となっている。
In other words, the projection image signal output to the projector
尚、ポインタ205は、必ずしも矢印形状のイメージに限られるものではない。例えば、頂点が明確な二等辺三角形、人差し指のみを伸ばした片手のイメージ、又はドット若しくは星形等の微小面積イメージ等、1つの点を指し示していることが認識されるイメージならば、種々の形態がポインタ205として採用可能となる。また、ポインタ205は、半透明であることも好ましい。これにより、投影像201内に表示された他のイメージ(アイコンイメージ204等)が、ポインタ205に遮られて確認し難くなる事態を回避することができる。
The
また、スクリーン200の投影面が投影レンズ133から放射される投射光の光軸に垂直な場合においても、投影像201は、必ずしも矩形に限られるものではない。例えば、ディスプレイ101の画面に、円形の画像が表示され、その画像内に複数のアイコンが表示されている場合、投影像201は、この画像に応じて、複数のアイコンイメージを含む円形のイメージとすることもできる。または、このような円形のイメージを含む、ディスプレイ101の画面に対応した矩形のイメージであってもよい。
Even when the projection surface of the
さらに、ユーザは、携帯型情報機器1を片手(図1(B)では右手)で保持することも可能である。この場合、ユーザは、片手で保持した携帯型情報機器1の投影レンズ133をスクリーン200に向け、映出された投影像201を見ながら、この保持した片手の指(親指)で適切な操作を行うことも可能となる。
Further, the user can hold the portable information device 1 with one hand (the right hand in FIG. 1B). In this case, the user directs the
以下、タッチパネル100に対して行うことができる指による操作の形態を示し、操作に対応した投影像201の様子を説明する。この指による操作の例として、
(1) 「フォーカス」操作:アイコン等のオブジェクトを選択する、
(2) 「クリック」操作:オブジェクトの機能を発動させる、
を以下に説明する。
Hereinafter, a mode of operation with a finger that can be performed on the
(1) “Focus” operation: Select an object such as an icon,
(2) “Click” operation: Activate the function of the object.
Is described below.
尚、当然に、上記以外の従来の操作、例えばドラッグ操作、フリック操作、ピンチイン操作、ピンチアウト操作等も、タッチパネル100を介して実行し得るように設定することもできる。ピンチイン操作およびピンチアウト操作のように、指の接触点が同時に2つ又はそれ以上存在する場合、これらの指の接触位置のそれぞれに対応した複数の位置を、それぞれ指し示す複数のポインタが、投影像201内に映出されることも好ましい。
Needless to say, conventional operations other than those described above, for example, a drag operation, a flick operation, a pinch-in operation, a pinch-out operation, and the like can also be set so as to be executed via the
図2は、「フォーカス」操作及びそれに対応した投影像201の様子を説明するための、携帯型情報機器1の前面図及びスクリーン200の正面図、並びに指による操作を示す概略図である。
FIG. 2 is a schematic diagram illustrating a front view of the portable information device 1, a front view of the
図2(A)及び(B)は、「フォーカス」操作を示している。図2(A)によれば、ユーザの指が、タッチパネル100に接触し、接触を保ちながらタッチパネル100上をなぞるように移動(スライド)している。ここで、アイコン104を含む画像全体は、指の移動にもかかわらず移動せず、固定された状態となっている。
2A and 2B show a “focus” operation. According to FIG. 2A, the user's finger is touching the
ユーザは、指を接触させたまま移動させ、位置が固定されたアイコン104に順次触れていく。これに応じて、スクリーン200に映出された投影像201内のポインタ205も移動し、同じく位置が固定されたアイコンイメージ204を順次指し示していく。また、後述する接触判定部121(図5(A))が、指の移動中も、指の接触位置105とアイコン104の表示位置範囲とが重畳したか否かを判定している。すなわち、ディスプレイ101の画面に表示された画像全体を固定した状態で、指の接触位置105がモニタされている。
The user moves while keeping the finger in contact, and sequentially touches the
ユーザは、指で画面に表示された画像(タッチパネル100)をなぞりつつ、画像内に所望のアイコン104が存在するか否かを確かめながら、所望のアイコン104の表示位置範囲まで指を進める。ここで、ユーザは、指を移動(スライド)させるためにディスプレイ101を見る必要はなく、接触位置を確認するために投影像201内のポインタ205を見ていればよい。従って、このような指での操作は、携帯型情報機器1においてプロジェクタ機能を発動させた場合に非常に適したものとなっている。
The user advances the finger to the display position range of the desired
ユーザは、その後、所望のアイコン104を探し出し、対応するアイコン104の表示位置範囲内に指を進める。このように、指の接触位置をアイコン104の表示位置範囲に重畳させる操作を、以後、「フォーカス」操作と称する。「フォーカス」操作は、ユーザがアイコン104を選択する操作であり、その後のアイコン104の機能を発動させる操作を確実に行うための準備動作としての役割を果たす。
Thereafter, the user searches for the desired
この指による「フォーカス」操作に対応して、投影像201内のポインタ205が、所望のアイコン104に対応したアイコンイメージ204を指し示す(ポインタ205の先端205aが、アイコンイメージ204の表示位置範囲と重畳する)。従って、ユーザは、ポインタ205(の先端205a)のアイコンイメージ204に対する位置を見て確認することによって、画面内での指の接触位置105をアイコン104の表示位置範囲に重畳させることができる。すなわち、ディスプレイ101の画面を見なくとも、「フォーカス」操作を適切に実行することが可能となる。
In response to the “focus” operation by the finger, the
ここで、「フォーカス」操作によって選択されたアイコン104は、表示位置範囲がより強く光る、又は周囲より浮き上がって見える等、強調表示されることも好ましい。この場合、投影像201に表示された対応するアイコンイメージ204も強調表示される。これにより、ユーザは、ディスプレイ101の画面を見なくとも、「フォーカス」操作が適切に実行されたことを確認することができる。
Here, it is also preferable that the
また、指の接触位置105がアイコン104の表示位置範囲に重畳した際には、後述する触覚応答機構部102(図5(A))が、指に、物理的な押下ボタンの存在を感じさせる振動を与えることができる。これにより、ユーザは、投影像201を見ながらであっても、指による「フォーカス」操作が受け入れられたことを確認でき、安定した確実な操作感を得ることができる。
Further, when the
図3は、「クリック」操作及びそれらに対応した投影像201の様子を説明するための、携帯型情報機器1の前面図及びスクリーン200の正面図である。
FIG. 3 is a front view of the portable information device 1 and a front view of the
図3によれば、指が、所望のアイコン104の位置まで進み、その結果、指の接触位置105がアイコン104の表示位置範囲と重畳する。すなわち、「フォーカス」操作が行われる。これに対応して、投影像201内におけるポインタ205の先端205aの位置も、アイコンイメージ204の表示位置範囲に重畳する。この状態から、ユーザが指をタッチパネル100に押し込むと、対応するアイコン104の機能が発動する。このように、アイコン104の機能を発動させるために指でアイコン104(タッチパネル100)を押し込む操作を、以後、「クリック」操作と称する。
According to FIG. 3, the finger advances to the position of the desired
尚、アイコン104の機能、例えば、電子メール・アプリケーションが起動すると、ディスプレイ101の画面に表示された画像は、例えば、送信メール作成画面のイメージとなる。これに対応して、スクリーン200に映出された投影像201も、アイコンイメージ104が表示された状態から、送信メール作成画面のイメージに変化する。すなわち、投影像201は、アイコン104の機能発動前後を含めて常時、ディスプレイ101の画面に表示された画像を反映したものとなっている。
When the function of the
ここで、「クリック」操作と判定される条件を説明する。最初に、指の接触位置105が、所望のアイコン104の表示位置範囲と重畳する。すなわち「フォーカス」操作が行われる。次いで、この状態から、ユーザが指を強く押し込み、指による押圧力pCが所定の押圧力閾値pTH以上となる場合(pC≧pTH)、後述する動作・画像制御部124(図5(A))で、「クリック」操作が行われたと判断され、アイコン104の機能が発動する。このように、押圧力pCが所定閾値pTH以上であることが、「クリック」操作と判断される条件となる。尚、押圧力閾値pTHは、例えば、0.5N(ニュートン)乃至2.0Nの範囲内の値に設定可能である。
Here, the condition determined as the “click” operation will be described. First, the
以上に述べた「クリック」操作は、あくまで指による押し込みの強さを変えて行う操作である。従って、ユーザは、ディスプレイ101を見て確認せずに、「クリック」操作を適切に実行することができる。このように、「クリック」操作は、携帯型情報機器1においてプロジェクタ機能を発動させた場合に、非常に実行し易い操作となることが理解される。
The “click” operation described above is an operation performed by changing the strength of pressing with a finger. Therefore, the user can appropriately execute the “click” operation without looking at the
また、後述する触覚応答機構部102(図5(A))が、「クリック」操作を行った指に、物理的な押下ボタンを実際に押下したかのような感覚を付与する振動を与えることもできる。これにより、ユーザは、投影像201を見ながらであっても、指による「クリック」操作が受け入れられたことを確認でき、安定した確実な操作感を得ることができる。
Further, the tactile response mechanism 102 (FIG. 5A), which will be described later, gives a vibration that gives a sensation as if the physical press button was actually pressed to the finger that performed the “click” operation. You can also. Accordingly, the user can confirm that the “click” operation with the finger has been accepted even while viewing the
図4は、本発明による携帯型情報機器における他の実施形態を示す概略図である。 FIG. 4 is a schematic view showing another embodiment of the portable information device according to the present invention.
図4(A)において、携帯型情報機器3は、タブレット型コンピュータである。ユーザは、携帯型情報機器3を一方の手(同図では左手)で保持しながら、他方の手の指(同図では右手の人差し指)をタッチパネル30に接触させて操作することができる。このような携帯型情報機器3においても、指の接触位置35に基づいてポインタ情報が生成される。また、指による操作に対応した動作が発動し、この動作に応じてディスプレイ31の画面に表示される画像が制御される。次いで、このポインタ情報と、制御された画像とをスクリーン40に投影するための投影像信号が生成される。
In FIG. 4A, the
生成された投影像信号は、制御部を介して、携帯型情報機器3に内蔵されたプロジェクタ光学系32に出力され、プロジェクタ光学系32の投射レンズ320から、この投影像信号に対応した投射光が放射される。この投射光がスクリーン40に投射されて、ディスプレイ31の画面に表示される制御された画像に対応した投影像41が形成される。この投影像41は、さらに、ポインタ情報に対応したポインタであって、指の接触位置35に相当する投影像41上の位置を指し示すポインタ45を含む。
The generated projection image signal is output to the projector
ユーザは、ディスプレイ31の画面を見なくとも、投影像41内でのポインタ45(の先端)を見ることによって、画面内での指の接触位置35を確認することができる。従って、投影像41内におけるポインタ45(の先端)を見て確認しながら、タッチパネル30に対する指での操作を適切に実行することが可能となる。
The user can confirm the
図4(B)において、携帯型情報機器5は、ディスプレイ51の画面に表示された画像を投影するための投影像信号を生成することができる装置である。但し、この投影像信号を受けてこの画像を投影するプロジェクタ光学系及びその制御部は、設けられていない。携帯型情報機器5は、生成した投影像信号を、外部のプロジェクタ6に出力するための投影像信号出力端子52を備えている。
In FIG. 4B, the portable information device 5 is a device that can generate a projection image signal for projecting an image displayed on the screen of the
プロジェクタ6は、投影像信号出力端子52と接続される投影像信号入力端子60と、投影像信号入力端子60を介して投影像信号を入力するプロジェクタ制御部61と、プロジェクタ制御部61によって制御され、投影像信号に係る画像を投影するプロジェクタ光学系62とを備えている。
The
ユーザは、保持した片手の指(同図では右手の親指)をタッチパネル50に接触させて、携帯型情報機器5を操作する。このような携帯型情報機器5においても、指の接触位置55に基づいてポインタ情報が生成される。また、指による操作に対応した動作が発動し、この動作に応じてディスプレイ51の画面に表示される画像が制御される。次いで、このポインタ情報と、制御された画像とをスクリーン70に投影するための投影像信号が生成される。
The user operates the portable information device 5 by bringing the finger of one hand held (the thumb of the right hand in the figure) into contact with the
生成された投影像信号は、投影像信号出力端子52を介して携帯型情報機器5から出力され、投影像信号入力端子60を介してプロジェクタ6に入力される。プロジェクタ制御部61は、プロジェクタ光学系62を制御し、投射レンズ620から、入力した投影像信号に対応した投射光を放射させる。この投射光がスクリーン70に投射されて、ディスプレイ51の画面に表示される制御された画像に対応した投影像71が形成される。この投影像71は、さらに、ポインタ情報に対応したポインタであって、指の接触位置55に相当する投影像71上の位置を指し示すポインタ75を含む。
The generated projection image signal is output from the portable information device 5 via the projection image
ユーザは、ディスプレイ51の画面を見なくとも、投影像71内でのポインタ75(の先端)を見ることによって、画面内での指の接触位置55を確認することができる。従って、映出された投影像71内におけるポインタ75(の先端)を見て確認しながら、タッチパネル50に対する指での操作を適切に実行することが可能となる。
The user can confirm the
以上述べたように、投影像信号の形成機能(携帯型情報機器5)を、画像投影機能(プロジェクタ6)から分離することによって、携帯型情報機器5が、小型・軽量化される。また、例えば、複数ユーザによるプレゼンテーションの際、各ユーザは、自らのプレゼンテーションデータを自らの携帯型情報機器5に保有したまま、定位置に設置されたプロジェクタ6を用いて、プレゼンテーションを、輪番で且つ同一スクリーン70で行うことができる。
As described above, by separating the projection image signal forming function (portable information device 5) from the image projection function (projector 6), the portable information device 5 is reduced in size and weight. In addition, for example, when a presentation is made by a plurality of users, each user uses his / her
図5は、本発明による携帯型情報機器1の構成を概略的に示す斜視図及び機能構成図、並びに本発明による携帯型情報機器5(図4(B))の構成の一部を概略的に示す機能構成図である。 FIG. 5 is a perspective view and a functional configuration diagram schematically showing the configuration of the portable information device 1 according to the present invention, and a part of the configuration of the portable information device 5 (FIG. 4B) according to the present invention. It is a functional block diagram shown in FIG.
図5(A)は、携帯型情報機器1の構成を示している。同図によれば、携帯型情報機器1は、タッチパネル100と、ディスプレイ101と、触覚応答機構部102と、押圧力検出部103と、プロセッサ・メモリとを備えている。携帯型情報機器1は、さらに、プロジェクタ光学系13を備えている。ここで、プロセッサ・メモリは、プログラムを実行することによってその機能を実現させる。
FIG. 5A shows the configuration of the portable information device 1. As shown in the figure, the portable information device 1 includes a
ディスプレイ101は、画面に画像を表示する。また、タッチパネル100は、ディスプレイ100の画面上に配置されており、ユーザの指の接触位置を時間経過に応じて逐次出力する。このタッチパネル100として、投影型静電容量方式タッチパネル、表面型静電容量方式タッチパネル、抵抗膜方式タッチパネル、超音波表面弾性波方式タッチパネル、又は赤外線走査方式タッチパネル等を採用することができる。
The
触覚応答機構部102は、タッチパネル100に接触した指に対して、タッチパネル100を振動させることにより触覚応答を与える。例えば、上述した「フォーカス」操作時、及び/又は「クリック」操作時に、操作内容に応じた種類及び強度の振動を指に与える。触覚応答機構部102は、例えば、PZT(チタン酸ジルコン酸鉛)等の圧電材料を用いて形成された圧電アクチュエータとすることができる。
The tactile
押圧力検出部103は、指によってタッチパネル100に与えられる押圧力pCを検出する。押圧力検出部103は、例えば、タッチパネル100の四隅下に設置されており、指を押し付けられて撓んだタッチパネル100が自身に及ぼす押圧の合計を、押圧力pCとして検出する。この押圧力検出部103が出力する押圧力信号は、後述する押圧力判定部122に入力される。押圧力検出部103は、例えば、PZT等の圧電材料を用いて形成された圧電センサとすることができる。また、圧電アクチュエータで構成された触覚応答機構部102を設ける代わりに又は設けると共に、押圧力検出部103を触覚応答機構部として利用することも可能である。
The pressing
プロセッサ・メモリは、タッチパネル100から出力される指の接触位置信号と、押圧力検出部103から出力される押圧力信号とを入力し、これらの信号に基づいてユーザの指による操作を認定し、この操作に対応した動作を発動させる。また、この動作に応じてディスクプレイ101の画面に表示された画像を制御する。
The processor memory inputs a finger contact position signal output from the
さらに、プロセッサ・メモリは、スクリーン200にポインタ205を映出するためのポインタ情報106を生成する。さらに、プロセッサ・メモリは、このポインタ情報と、制御された画像とを投影するための操作対応投影像信号を生成し、この信号に基づいて、プロジェクタ光学系13を制御する。以下、同じく図5(A)を用いて、このプロセッサ・メモリの機能構成を説明する。
Further, the processor memory generates
図5(A)によれば、プロセッサ・メモリは、接触判定部121と、押圧力判定部122と、ポインタ情報生成部123と、動作・画像制御部124と、投影像信号生成部125と、触覚応答制御部126と、プロジェクタ制御部130と、画面表示制御部111と、アプリケーション処理部112とを有する。
According to FIG. 5A, the processor memory includes a
接触判定部121は、タッチパネル100から出力される指の接触位置信号を入力し、指がタッチパネル100に接触したか否かを判定して、この判定結果及び指の接触位置情報を、ポインタ情報生成部123及び動作・画像制御部124に出力する。また、この接触判定部121が、指の接触位置105がアイコン104の表示位置範囲と重畳したか否かを判定し、この判定結果を動作・画像制御部124に出力することも好ましい。
The
押圧力判定部122は、押圧力検出部103からの押圧力信号を入力し、指による押圧力pCが所定の押圧力閾値pTH以上であるか否かを判定する。さらに、この判定結果を、動作・画像制御部124へ出力する。
The pressing
ポインタ情報生成部123は、接触判定部122から出力される、接触の有無についての判定結果及び指の接触位置情報を入力する。次いで、スクリーン200に映出された投影像201内における、指の接触位置105に相当する位置を指し示すポインタ205を映出するためのポインタ情報(ポインタイメージデータ)106を生成する。ここで、ポインタ情報106は、投影像201内におけるポインタ205の先端205aの位置が、ディスプレイ101の画面内における指の接触位置105に対応するように生成される。ポインタ情報生成部123は、この生成したポインタ情報106を、投影像信号生成部125に出力する。
The pointer
動作・画像制御部124は、接触判定部122から、接触の有無についての判定結果及び指の接触位置情報を入力し、さらに、押圧力判定部122から判定結果を入力する。動作・画像制御部124は、これらの入力情報を基に、接触した指による操作(例えば、「フォーカス」操作又は「クリック」操作)を認定し、認定した操作に対応した動作を発動させる。さらに、この発動させた動作に応じてディスプレイ101の画面に表示された画像を制御するように、画面表示制御部111に動作指示情報を出力する。
The operation /
具体的に、動作・画像制御部124は、指の接触位置105がアイコン104の表示位置範囲と重畳した場合に、「フォーカス」操作が行われたとして対応する動作を発動させることも好ましい。さらに、指の接触位置105がアイコン104の表示位置範囲と重畳し且つ押圧力pCが所定の閾値pTH以上である場合、「クリック」操作が行われたとして対応する動作を発動させることも好ましい。
Specifically, when the
さらに、動作・画像制御部124は、発動させた動作に応じて制御された(ディスプレイ101の画面に表示される)画像情報を、投影像信号生成部125に出力する。
Further, the operation /
投影像信号生成部125は、ポインタ情報生成部123からポインタ情報106を入力し、動作・画像制御部124から制御された画像情報を入力する。投影像信号生成部125は、これらポインタ情報106と制御された画像情報とをスクリーン200に投影するための投影像信号を生成する。また、生成した投影像信号を、プロジェクタ制御部130に出力する。
The projection image
触覚応答制御部126は、動作・画像制御部124から出力される動作指示情報を入力する。次いで、この情報に基づいて、タッチパネル100に接触した指に対して触覚応答を与えるべく、触覚応答機構部102を制御する。
The tactile
画面表示制御部111は、アプリケーション処理部112からのアプリケーション処理情報を入力して、アプリケーションの実行に応じた画像をディスプレイ101に表示させる。また、画面表示制御部111は、動作・画像制御部124から出力される動作指示情報を入力し、指示された動作に応じた画像をディスプレイ101に表示させる。
The screen
プロジェクタ制御部130は、投影像信号生成部125から入力した投影像信号に基づいて、プロジェクタ光学系13を制御する。
The
プロジェクタ光学系13は、光源131と、MEMS(微小電気機械系)ミラー光学系132と、投射レンズ133とを備えている。光源131は、スクリーン200に投射する投射光用の光源である。この光源131には、それぞれR(赤)、G(緑)及びB(青)の光を放射する3種のLED(発光ダイオード)、又はそれぞれR,G及びBの光を放射する3種のダイオードチップが一体化したLEDを用いることができる。
The projector
MEMSミラー光学系132は、例えばDMD(Digital Micro mirror Device、登録商標)素子を備えていて、DLP(Digital Light Processing、登録商標)方式により、投影像信号から投射光を形成する光学系である。DMD素子は、2次元に配列しており鏡面の傾斜角が個別に制御される多数のマイクロミラーを有している。
The MEMS mirror
DLP方式では、プロジェクタ制御部130が、入力した投影像信号に対してDMD素子に合わせた解像度変換等を施し、これにより、多数のマイクロミラー駆動用の信号を形成する。次いで、この駆動用信号によってDMD素子を制御駆動させる。また、プロジェクタ制御部130は、個々のマイクロミラー駆動のタイミングに合わせて(同期させて)光源131を制御し、光源131からR、G又はBの光を適宜放射させる。
In the DLP method, the
光源131から放射された光は、所定の光学系を介してDMD素子に照射され、同素子で反射して、多数のマイクロミラーの傾斜角に対応した多数の画素からなる画像に相当する投射光を形成する。この投射光は、所定の光学系を介して投射レンズ133から、スクリーン200に向けて放射される。これにより、(投影像信号生成部125が生成した)ポインタ情報106を含む投影像信号に対応した投影像201が、スクリーン200に映出される。
Light emitted from the
図5(B)は、図4(B)に示す携帯型情報機器5の構成を示している。携帯型情報機器5も、携帯型情報機器1(図5(A))と同様、タッチパネルと、ディスプレイと、触覚応答機構部と、押圧力検出部と(以上図示せず)、プロセッサ・メモリとを備えている。しかしながら、プロジェクタ光学系及びその制御部は設けられていない。また、携帯型情報機器5は、生成した投影像信号を、外部のプロジェクタ6(図4(B))に出力するための投影像信号出力端子52を備えている。
FIG. 5B illustrates a configuration of the portable information device 5 illustrated in FIG. Similarly to the portable information device 1 (FIG. 5A), the portable information device 5 also includes a touch panel, a display, a tactile response mechanism unit, a pressing force detection unit (not shown above), a processor memory, It has. However, the projector optical system and its control unit are not provided. Further, the portable information device 5 includes a projection image
また、携帯型情報機器5のプロセッサ・メモリも、携帯型情報機器1(図5(A))と同様、接触判定部と、押圧力判定部と、ポインタ情報生成部と、動作・画像制御部と、触覚応答制御部と、画面表示制御部と、アプリケーション処理部と(以上図示せず)、投影像信号生成部525とを有する。しかしながら、プロジェクタ制御部は設けられていない。
Similarly to the portable information device 1 (FIG. 5A), the processor / memory of the portable information device 5 also includes a contact determination unit, a pressing force determination unit, a pointer information generation unit, and an operation / image control unit. A tactile response control unit, a screen display control unit, an application processing unit (not shown above), and a projection image
このような携帯型情報機器5においても、外部のプロジェクタ6を利用することによって、(投影像信号生成部525が生成した)ポインタ情報を含む操作対応投影像信号に対応した投影像71が、スクリーン70に映出される。
Also in such a portable information device 5, by using the
図6は、本発明によるユーザインタフェース装置における画像投影方法の一実施形態を示すフローチャートである。 FIG. 6 is a flowchart showing an embodiment of an image projecting method in the user interface device according to the present invention.
図6によれば、最初に、ディスプレイ101の画面に、アイコン104を含む画像が表示される(ステップS600)。次いで、タッチパネル100に対する指の接触の有無が測定される(ステップS601)。次いで、接触判定部121によって、指がタッチパネル100に接触したか否かが判定される(ステップS602)。
According to FIG. 6, first, an image including the
ここで、真の判定、すなわち指が接触しているとの判定がなされた場合、指による接触・押し込み操作ループ(ステップS610乃至ステップS622)に入り、動作・画像制御部124が、画像全体を固定した状態で、指の接触位置をモニタ(監視)する(ステップS611)。一方、指が接触していないとの判定がなされた場合、再度、ステップS601に戻り、指の接触の有無をモニタする。
Here, when the true determination, that is, the determination that the finger is in contact is made, the finger touch / push operation loop (steps S610 to S622) is entered, and the operation /
ステップS611の後、接触判定部121は、指の接触位置105がアイコン104の表示位置範囲と重畳したか否かを判定する(ステップS612)。接触判定部121が真の判定、すなわち指の接触位置105がアイコン104の表示位置範囲と重畳したとの判定を行った際、動作・画像制御部124は、「フォーカス」操作が行われたと判断して、アイコン104の選択動作を発動させる(ステップS613)。さらに、この発動した動作に応じてディスプレイ101の画面に表示された画像を制御(更新)する(ステップS614)。一方、接触判定部121が偽の判定を行った際、直ちにステップS619に進み、指の接触位置105に応じてポインタ情報が生成される。
After step S611, the
ステップS614の後、押圧力検出部103が、指によるタッチパネル100に対する押圧力pCを測定する(ステップS615)。ここで、押圧力判定部122によって、指による押圧力pCが所定の閾値pTH以上であるか否かが判定される(ステップS616)。押圧力判定部122が真の判定、すなわち押圧力pCが所定の閾値pTH以上であるとの判定を行った際、動作・画像制御部124は、「クリック」操作が行われたと判断して、アイコン104の機能に対応した動作を発動させる(ステップS617)。さらに、この発動した動作に応じてディスプレイ101の画面に表示された画像を制御(更新)する(ステップS618)。一方、押圧力判定部122が偽の判定を行った際、直ちにステップS619に進み、指の接触位置105に応じてポインタ情報が生成される。
After step S614, the pressing
ステップS618の後、ポインタ情報生成部123が、指の接触位置105に応じてポインタ情報を生成する(ステップS619)。次いで、投影像信号生成部125が、生成されたポインタ情報と、制御(更新)された画像とをスクリーン200に投影するための投影像信号を生成する(ステップS620)。次いで、プロジェクタ光学系13及びプロジェクタ制御部130によって、ポインタ情報と制御(更新)された画像とをスクリーン200に投影し、投影像201が映出される(ステップS621)。
After step S618, the pointer
次いで、接触判定部121によって、指がタッチパネル100に接触しているか否かが判定される(ステップS622)。ここで、指が接触していると判定された場合、以上に述べたステップS610乃至ステップS622からなる指による接触・押し込み操作ループが繰り返される。一方、指が接触していないと判定された場合、ユーザの指による操作が終了したものとして、本画像投影方法は終了する。
Next, the
以上、詳細に説明したように、本発明のユーザインタフェース装置、画像投影方法及びプログラムによれば、映出された投影像201に、指の接触位置105に相当する位置を指し示すポインタ205が表示される。これにより、映出された投影像201を見て確認しながら、タッチパネル100に対する指での操作を適切に実行することができる。
As described above in detail, according to the user interface device, the image projection method, and the program of the present invention, the
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.
1、3、5 携帯型情報機器(ユーザインタフェース装置)
100、30、50 タッチパネル
101、31、51 ディスプレイ
102 触覚応答機構部
103 押圧力検出部
104 アイコン
105、35、55 接触位置
106 ポインタ情報
107 検索結果
111 画面表示制御部
112 アプリケーション処理部
121 接触判定部
122 押圧力判定部
123 ポインタ情報生成部
124 動作・画像制御部
125、525 投影像信号生成部
126 触覚応答制御部
13、32、62 プロジェクタ光学系
130、61 プロジェクタ制御部
131 光源
132 MEMSミラー光学系
133、320、620 投射レンズ
200、40、70 スクリーン
201、41、71 投影像
204 アイコンイメージ
205、45、75 ポインタ
207 検索結果イメージ
52 投影像信号出力端子
6 プロジェクタ
60 投影像信号入力端子
1, 3, 5 Portable information device (user interface device)
DESCRIPTION OF
Claims (8)
当該指が前記タッチパネルに接触したか否かを判定する接触判定手段と、
前記押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
前記接触判定手段が真の判定を行った際、接触した当該指による操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御し、さらに前記押圧力判定手段が真の判定を行った際、当該指による押し込み操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御する動作・画像制御手段と、
前記接触判定手段が真の判定を行った際、前記投影対象に映出された投影像内の位置であって、当該指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成するポインタ情報生成手段と、
前記ポインタ情報と、前記動作・画像制御手段によって制御された画像とを前記投影対象に投影するための投影像信号を生成する投影像信号生成手段と
を有することを特徴とするユーザインタフェース装置。 A display that displays an image on the screen, a touch panel that is arranged on the screen of the display and that sequentially outputs the contact position of the finger as time elapses, and a pressing force that detects the pressing force applied by the finger that touched the touch panel A user interface device that generates a signal for projecting a projection image corresponding to the image onto a projection target,
Contact determination means for determining whether or not the finger touches the touch panel;
A pressing force determining means for determining whether or not the pressing force is equal to or greater than a predetermined threshold;
When the contact determination means makes a true determination, an action corresponding to the operation by the touched finger is activated, an image displayed on the screen is controlled according to the action, and the pressing force determination means An action / image control means for activating an action corresponding to the pushing operation by the finger when performing a true determination, and controlling an image displayed on the screen according to the action;
Pointer information for projecting a pointer indicating a position corresponding to the contact position of the finger, which is a position in the projected image projected on the projection target when the contact determination unit makes a true determination Pointer information generating means for generating
A user interface device comprising: a projection image signal generation unit configured to generate a projection image signal for projecting the pointer information and an image controlled by the operation / image control unit onto the projection target.
前記動作・画像制御手段は、前記接触判定手段が当該オブジェクトの表示位置範囲に関して真の判定を行い且つ前記押圧力判定手段が真の判定を行った際、当該オブジェクトの機能を発動させる操作が行われたとして対応する動作を発動させ、該動作に応じて前記画面に表示された画像を制御する
ことを特徴とする請求項1に記載のユーザインタフェース装置。 The contact determination unit determines whether or not the contact position of the finger is superimposed on a display position range of an object that is an operation target included in an image displayed on the display;
The movement / image control means performs an operation to activate the function of the object when the contact determination means makes a true determination regarding the display position range of the object and the pressing force determination means makes a true determination. 2. The user interface device according to claim 1, wherein a corresponding operation is activated as a failure, and an image displayed on the screen is controlled in accordance with the operation.
前記投影像信号を入力し、該投影像信号に応じて前記プロジェクタ光学系を制御するプロジェクタ制御手段と
をさらに有することを特徴とする請求項1から4のいずれか1項に記載のユーザインタフェース装置。 A projector optical system that projects the pointer information and the image controlled by the operation / image control means onto the projection target;
5. The user interface device according to claim 1, further comprising a projector control unit that inputs the projection image signal and controls the projector optical system according to the projection image signal. 6. .
当該指が前記タッチパネルに接触したか否かを判定する接触判定手段と、
前記押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
前記接触判定手段が真の判定を行った際、接触した当該指による操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御し、さらに前記押圧力判定手段が真の判定を行った際、当該指による押し込み操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御する動作・画像制御手段と、
前記接触判定手段が真の判定を行った際、前記投影対象に映出された投影像内の位置であって、当該指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成するポインタ情報生成手段と、
前記ポインタ情報と、前記動作・画像制御手段によって制御された画像とを前記投影対象に投影するための投影像信号を生成する投影像信号生成手段と
してコンピュータを機能させることを特徴とするユーザインタフェース装置用のプログラム。 A display that displays an image on the screen, a touch panel that is arranged on the screen of the display and that sequentially outputs the contact position of the finger as time elapses, and a pressing force that detects the pressing force applied by the finger that touched the touch panel A program installed in a user interface device that generates a signal for projecting a projection image corresponding to the image onto a projection target,
Contact determination means for determining whether or not the finger touches the touch panel;
A pressing force determining means for determining whether or not the pressing force is equal to or greater than a predetermined threshold;
When the contact determination means makes a true determination, an action corresponding to the operation by the touched finger is activated, an image displayed on the screen is controlled according to the action, and the pressing force determination means An action / image control means for activating an action corresponding to the pushing operation by the finger when performing a true determination, and controlling an image displayed on the screen according to the action;
Pointer information for projecting a pointer indicating a position corresponding to the contact position of the finger, which is a position in the projected image projected on the projection target when the contact determination unit makes a true determination Pointer information generating means for generating
A user interface device that causes a computer to function as a projection image signal generation unit that generates a projection image signal for projecting the pointer information and an image controlled by the operation / image control unit onto the projection target. Program.
当該指が前記タッチパネルに接触したか否かを判定する第1のステップと、
第1のステップで真の判定がなされた際、接触した当該指による操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御する第2のステップと、
前記押圧力が所定閾値以上であるか否かを判定する第3のステップと、
第1のステップで真の判定がなされ且つ第3のステップで真の判定がなされた際、当該指による押し込み操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御する第4のステップと、
第1のステップで真の判定がなされた際、前記投影対象に映出された投影像内の位置であって、当該指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成する第5のステップと、
前記ポインタ情報と、第2のステップ及び第4のステップで制御された画像とを前記投影対象に投影するための投影像信号を生成する第6のステップと
を有することを特徴とする画像投影方法。 A display that displays an image on the screen, a touch panel that is arranged on the screen of the display and that sequentially outputs the contact position of the finger as time elapses, and a pressing force that detects the pressing force applied by the finger that touched the touch panel An image projection method in a user interface device that generates a signal for projecting a projection image corresponding to the image onto a projection target,
A first step of determining whether the finger touches the touch panel;
When a true determination is made in the first step, a second step of activating an action corresponding to an operation by the touched finger and controlling an image displayed on the screen according to the action;
A third step of determining whether or not the pressing force is equal to or greater than a predetermined threshold;
When the true determination is made in the first step and the true determination is made in the third step, an action corresponding to the pressing operation by the finger is activated, and an image displayed on the screen according to the action is displayed. A fourth step to control;
Pointer information for projecting a pointer indicating a position in the projected image projected on the projection target and corresponding to the contact position of the finger when the true determination is made in the first step A fifth step of generating
An image projection method comprising: a sixth step of generating a projection image signal for projecting the pointer information and the image controlled in the second step and the fourth step onto the projection target. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011211783A JP5713401B2 (en) | 2011-09-28 | 2011-09-28 | User interface device for generating projected image signal for pointer projection, image projection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011211783A JP5713401B2 (en) | 2011-09-28 | 2011-09-28 | User interface device for generating projected image signal for pointer projection, image projection method and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013073412A true JP2013073412A (en) | 2013-04-22 |
JP2013073412A5 JP2013073412A5 (en) | 2014-01-09 |
JP5713401B2 JP5713401B2 (en) | 2015-05-07 |
Family
ID=48477866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011211783A Active JP5713401B2 (en) | 2011-09-28 | 2011-09-28 | User interface device for generating projected image signal for pointer projection, image projection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5713401B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015091008A (en) * | 2013-11-05 | 2015-05-11 | パナソニックIpマネジメント株式会社 | Lighting system |
JP2017068797A (en) * | 2015-10-02 | 2017-04-06 | 富士通株式会社 | Input support system and electronic apparatus |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000267808A (en) * | 1999-03-16 | 2000-09-29 | Oki Electric Ind Co Ltd | Input method linking touch panel input device with display device |
JP2006331119A (en) * | 2005-05-26 | 2006-12-07 | Fujitsu Ltd | Information processor used for presentation, and program |
-
2011
- 2011-09-28 JP JP2011211783A patent/JP5713401B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000267808A (en) * | 1999-03-16 | 2000-09-29 | Oki Electric Ind Co Ltd | Input method linking touch panel input device with display device |
JP2006331119A (en) * | 2005-05-26 | 2006-12-07 | Fujitsu Ltd | Information processor used for presentation, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015091008A (en) * | 2013-11-05 | 2015-05-11 | パナソニックIpマネジメント株式会社 | Lighting system |
JP2017068797A (en) * | 2015-10-02 | 2017-04-06 | 富士通株式会社 | Input support system and electronic apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP5713401B2 (en) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5295328B2 (en) | User interface device capable of input by screen pad, input processing method and program | |
US8432362B2 (en) | Keyboards and methods thereof | |
JP5808712B2 (en) | Video display device | |
US7176904B2 (en) | Information input/output apparatus, information input/output control method, and computer product | |
JP6251957B2 (en) | Display device, head-mounted display device, and display device control method | |
WO2008011361A2 (en) | User interfacing | |
US9454257B2 (en) | Electronic system | |
WO2011114244A1 (en) | Pointer device to navigate a projected user interface | |
JP2014081807A (en) | Touch panel input device, control method therefor and program | |
JPWO2010047339A1 (en) | Touch panel device that operates as if the detection area is smaller than the display area of the display. | |
JP2006092321A (en) | Electronic equipment and touchpad device | |
JP2009098990A (en) | Display device | |
JP5713401B2 (en) | User interface device for generating projected image signal for pointer projection, image projection method and program | |
JP2011070603A (en) | Input device | |
JP2020135096A (en) | Display method, display unit, and interactive projector | |
JP2012014508A (en) | Input device | |
JP2002236550A (en) | Method and device for screen position input | |
WO2021225044A1 (en) | Information processing device, information processing method based on user input operation, and computer program for executing said method | |
JP4266076B2 (en) | Electronic blackboard system | |
JP4615178B2 (en) | Information input / output system, program, and storage medium | |
JP2003186620A (en) | Information processor equipped with display unit with pointing function | |
JP2010250735A (en) | Input device | |
KR20110032224A (en) | System and method for providing user interface by gesture, gesture signal generator and terminal thereof | |
TW201530350A (en) | Electronic apparatus and method for virtual input device | |
US11698575B2 (en) | Projective transformation matrix determination method, projector, and determination system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5713401 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |