JP2013073412A - User interface device for generating projection image signal for pointer projection and image projection method and program - Google Patents

User interface device for generating projection image signal for pointer projection and image projection method and program Download PDF

Info

Publication number
JP2013073412A
JP2013073412A JP2011211783A JP2011211783A JP2013073412A JP 2013073412 A JP2013073412 A JP 2013073412A JP 2011211783 A JP2011211783 A JP 2011211783A JP 2011211783 A JP2011211783 A JP 2011211783A JP 2013073412 A JP2013073412 A JP 2013073412A
Authority
JP
Japan
Prior art keywords
image
finger
projection
screen
pressing force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011211783A
Other languages
Japanese (ja)
Other versions
JP2013073412A5 (en
JP5713401B2 (en
Inventor
Tomoaki Matsuki
友明 松木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2011211783A priority Critical patent/JP5713401B2/en
Publication of JP2013073412A publication Critical patent/JP2013073412A/en
Publication of JP2013073412A5 publication Critical patent/JP2013073412A5/ja
Application granted granted Critical
Publication of JP5713401B2 publication Critical patent/JP5713401B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user interface device for enabling a user to appropriately execute an operation with a finger to a touch panel while visually checking a projected projection image.SOLUTION: The user interface device includes: contact determination means for determining whether or not a touch panel has been touched with a finger; pressing force determination means for determining whether or not the pressing force with the finger is equal to or more than a predetermined threshold; operation/image control means for, when a determination of truth is performed by the contact determination means, and a determination of truth is performed by the pressing force determination means, starting an operation corresponding to a push-in operation with the finger, and for controlling an image displayed on a screen in accordance with the operation; pointer information generation means for generating pointer information for projecting a pointer pointing a position in the projection image, that is, a position which is equivalent to the contact position of the finger; and projection image signal generation means for generating a projection image signal for projecting the pointer information and the image controlled by the operation/image control means to a projection object.

Description

本発明は、画像を表示するディスプレイと、ユーザインタフェースとしてのタッチパネルとを備え、画像を投影対象に投影するための投影像信号を生成するユーザインタフェース装置に関する。   The present invention relates to a user interface device that includes a display for displaying an image and a touch panel as a user interface, and generates a projection image signal for projecting the image onto a projection target.

従来、指で、又はスタイラス等の接触器具で、画面に触れることによって入力操作を行う、タッチパネルを搭載したユーザインタフェース装置が広く普及している。特に、スマートフォン、タブレット型コンピュータ、電子書籍、PDA(Personal Digital Assistant)といったユーザインタフェース装置、いわゆる携帯型情報機器では、指等による操作を受け入れるユーザインタフェースとしてタッチパネルが、積極的に採用されている。   2. Description of the Related Art Conventionally, user interface devices equipped with touch panels that perform an input operation by touching a screen with a finger or a contact instrument such as a stylus have been widely used. In particular, in user interface devices such as smartphones, tablet computers, electronic books, and PDAs (personal digital assistants), so-called portable information devices, touch panels are actively employed as user interfaces that accept operations with fingers and the like.

近年、この携帯型情報機器において、動画を含む画像を、スクリーン等の投影対象に投影するプロジェクタ機能を備えたものが開発されている。このような機器を用いることにより、例えば、機器を携帯しているその場で、機器内のコンテンツ等を投影像として多数の人間に公開することができる。   In recent years, a portable information device having a projector function for projecting an image including a moving image onto a projection target such as a screen has been developed. By using such a device, for example, the content in the device can be disclosed as a projected image to a large number of people on the spot where the device is carried.

このようなプロジェクタ機能を備えた携帯型情報機器として、例えば、特許文献1には、スクリーンに画像を投射する投射光学系内のLED光源において、出力光の色変動を抑止したプロジェクタ装置が開示されている。また、特許文献2には、カウンターウエイトと減衰器とを利用して手振れを抑制した携帯型のプロジェクタ装置が開示されている。   As a portable information device having such a projector function, for example, Patent Document 1 discloses a projector device that suppresses color variation of output light in an LED light source in a projection optical system that projects an image on a screen. ing. Patent Document 2 discloses a portable projector device that suppresses camera shake using a counterweight and an attenuator.

さらに、特許文献3には、投影対象までの距離を測定する測距部からの信号に基づいて、投影光源の発光量を制御するプロジェクタ内蔵携帯機器が開示されている。ここでは、この発光量制御によって、視聴者に使用条件に応じた映像を投影することが意図されている。また、特許文献4には、プロジェクタ動作時の消費電力を低減させるため、電池電圧値に応じて投影用光源の発光量を制御する携帯通信端末が開示されている。   Further, Patent Document 3 discloses a portable device with a built-in projector that controls the light emission amount of a projection light source based on a signal from a distance measuring unit that measures a distance to a projection target. Here, it is intended to project an image corresponding to the use condition to the viewer by this light emission amount control. Patent Document 4 discloses a portable communication terminal that controls the light emission amount of a projection light source according to a battery voltage value in order to reduce power consumption during projector operation.

特開2010−191402号公報JP 2010-191402 A 特開2010−169966号公報JP 2010-169966 A 特開2011−7948号公報JP2011-7948A 特開2007−300321号公報JP 2007-300321 A

このプロジェクタ機能を備えた携帯型情報機器において、タッチパネルに対して指で操作を行いながら画像を投影する際、ユーザにとって不都合が生じ易い。   In a portable information device having this projector function, when projecting an image while operating the touch panel with a finger, inconvenience is likely to occur for the user.

一般に、プロジェクタ機能を利用する状況では、ユーザは、映出された投影像を見ながら指による操作を行いたい場合も少なくない。例えば、投影像が実際にどのような状態で映出されているかを見て確認しながら、その投影像について説明する場合もある。また、投影像の映出先を選びながら又は移動させながら、同時に指による操作を行う場合もある。さらに、プロジェクタ機能を利用したプレゼンテーションの際には、映出された投影像と参加者とに向かいながら説明を行うのが通常である。   In general, in a situation where a projector function is used, a user often wants to perform an operation with a finger while viewing a projected image that is projected. For example, there is a case where the projected image is described while confirming the actual state in which the projected image is projected. In some cases, a finger may be operated simultaneously while selecting or moving the projection destination of the projected image. Further, in the presentation using the projector function, the explanation is usually made while facing the projected image and the participants.

これに対して、例えば、ディスプレイの画面に表示された画像にアイコンが含まれており、ユーザの指がこのアイコンに接触する場合を考える。スクリーン等の投影対象には、このアイコン(のイメージ)を含む投影像が映出されている。しかしながら、ユーザの指が画面内のアイコンの表示位置付近に接触したとしても、この投影像には、指の接触に関するイメージは何ら現れない。   On the other hand, for example, a case where an icon is included in an image displayed on a display screen and a user's finger touches the icon is considered. A projected image including this icon (image) is projected on a projection target such as a screen. However, even if the user's finger touches the vicinity of the icon display position on the screen, no image relating to the finger contact appears in the projected image.

従って、ユーザは、指による操作の際、ディスプレイの画面を見て、指の接触位置を確認しなければならない。さもなければ、指が意図しないアイコンを選択して不要のアプリケーションが起動したり、指をブラインドで移動させることになって所望の機能を発動させるのに時間がかかったりする可能性が高い。   Therefore, the user must check the contact position of the finger by looking at the screen of the display when operating with the finger. Otherwise, it is highly likely that an unnecessary application is activated by selecting an icon that is not intended by the finger, or that it takes time to activate a desired function by moving the finger blindly.

このように、プロジェクタ機能を利用する際、映出された投影像を見ながら、タッチパネルに対して指で操作を行うことが困難となっている。しかしながら、特許文献1乃至4に開示されたような従来の携帯型プロジェクタ分野では、このようなユーザインタフェース及び操作性に関する問題に十分に取り組んでこなかったことは否めない。   Thus, when using the projector function, it is difficult to operate the touch panel with a finger while viewing the projected image. However, in the field of conventional portable projectors as disclosed in Patent Documents 1 to 4, it cannot be denied that such problems relating to user interface and operability have not been sufficiently addressed.

そこで、本発明は、映出された投影像を見て確認しながら、タッチパネルに対する指での操作を適切に実行することができるユーザインタフェース装置、画像投影方法及びプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a user interface device, an image projection method, and a program capable of appropriately executing a finger operation on the touch panel while viewing and confirming the projected image projected. .

本発明によれば、画像を画面に表示するディスプレイと、このディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルと、このタッチパネルに接触した指によって与えられる押圧力を検出する押圧力検出部とを備えており、画像に対応する投影像を投影対象に映出するための信号を生成するユーザインタフェース装置であって、
指がタッチパネルに接触したか否かを判定する接触判定手段と、
押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
接触判定手段が真の判定を行った際、接触した指による操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御し、さらに押圧力判定手段が真の判定を行った際、指による押し込み操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御する動作・画像制御手段と、
接触判定手段が真の判定を行った際、投影対象に映出された投影像内の位置であって、指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成するポインタ情報生成手段と、
ポインタ情報と、動作・画像制御手段によって制御された画像とを投影対象に投影するための投影像信号を生成する投影像信号生成手段と
を有するユーザインタフェース装置が提供される。
According to the present invention, a display that displays an image on a screen, a touch panel that is arranged on the screen of the display and sequentially outputs a contact position of a finger as time elapses, and a touch given by a finger that touches the touch panel. A user interface device that generates a signal for projecting a projection image corresponding to an image onto a projection target, and a pressure detection unit that detects pressure.
Contact determination means for determining whether or not a finger touches the touch panel;
A pressing force determining means for determining whether the pressing force is equal to or greater than a predetermined threshold;
When the contact determination means makes a true determination, an action corresponding to the operation with the touched finger is activated, and the image displayed on the screen is controlled according to this action, and the pressing force determination means makes a true determination. An action / image control means for activating an action corresponding to the pushing operation with a finger when controlling the image displayed on the screen according to the action;
When the contact determination means makes a true determination, it generates pointer information for displaying a pointer indicating a position corresponding to the contact position of the finger in the projected image projected on the projection target. Pointer information generating means;
A user interface device is provided that includes pointer information and a projection image signal generation unit that generates a projection image signal for projecting an image controlled by the operation / image control unit onto a projection target.

また、本発明によるユーザインタフェース装置によれば、接触判定手段は、指の接触位置がディスプレイに表示された画像に含まれる操作対象であるオブジェクトの表示位置範囲と重畳したか否かを判定し、
動作・画像制御手段は、接触判定手段がオブジェクトの表示位置範囲に関して真の判定を行い且つ押圧力判定手段が真の判定を行った際、オブジェクトの機能を発動させる操作が行われたとして対応する動作を発動させ、この動作に応じて画面に表示された画像を制御することも好ましい。
According to the user interface device of the present invention, the contact determination unit determines whether or not the contact position of the finger is superimposed on the display position range of the object that is the operation target included in the image displayed on the display,
The action / image control means responds that an operation for activating the function of the object is performed when the contact determination means makes a true determination regarding the display position range of the object and the pressing force determination means makes a true determination. It is also preferable to activate an operation and control an image displayed on the screen in accordance with the operation.

また、この実施形態において、接触判定手段がオブジェクトの表示位置範囲に関して真の判定を行った際、動作・画像制御手段は、オブジェクトを選択する操作が行われたとして対応する動作を発動させ、この動作に応じて画面に表示された画像を制御することも好ましい。   In this embodiment, when the contact determination unit makes a true determination regarding the display position range of the object, the operation / image control unit activates a corresponding operation on the assumption that an operation for selecting the object is performed. It is also preferable to control the image displayed on the screen according to the operation.

また、本発明によるユーザインタフェース装置によれば、投影像信号を、外部のプロジェクタに出力するための投影像信号出力端子をさらに有することも好ましい。   The user interface device according to the present invention preferably further includes a projection image signal output terminal for outputting the projection image signal to an external projector.

さらに、本発明によるユーザインタフェース装置によれば、ポインタ情報と、動作・画像制御手段によって制御された画像とを投影対象に投影するプロジェクタ光学系と、
投影像信号を入力し、この投影像信号に応じてプロジェクタ光学系を制御するプロジェクタ制御手段と
をさらに有することも好ましい。
Further, according to the user interface device of the present invention, the projector optical system that projects the pointer information and the image controlled by the operation / image control means onto the projection target;
It is preferable to further include a projector control means for inputting a projection image signal and controlling the projector optical system in accordance with the projection image signal.

さらにまた、本発明によるユーザインタフェース装置によれば、ユーザの操作から見て、投影対象に映出されたポインタの指し示す位置を見て確認しつつ指による操作を実行することができるように、投影像信号生成手段は、ポインタに対応するポインタ情報を含む投影像信号を生成することも好ましい。   Furthermore, according to the user interface device of the present invention, the projection with the finger can be performed while seeing and confirming the position indicated by the pointer projected on the projection target as seen from the user's operation. The image signal generation means preferably generates a projection image signal including pointer information corresponding to the pointer.

本発明によれば、さらに、画像を画面に表示するディスプレイと、このディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルと、このタッチパネルに接触した指によって与えられる押圧力を検出する押圧力検出部とを備えており、画像に対応する投影像を投影対象に映出するための信号を生成するユーザインタフェース装置に搭載されたプログラムであって、
指がタッチパネルに接触したか否かを判定する接触判定手段と、
押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
接触判定手段が真の判定を行った際、接触した指による操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御し、さらに押圧力判定手段が真の判定を行った際、指による押し込み操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御する動作・画像制御手段と、
接触判定手段が真の判定を行った際、投影対象に映出された投影像内の位置であって、指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成するポインタ情報生成手段と、
ポインタ情報と、動作・画像制御手段によって制御された画像とを投影対象に投影するための投影像信号を生成する投影像信号生成手段と
してコンピュータを機能させるユーザインタフェース装置用のプログラムが提供される。
According to the present invention, the display is further provided by a display that displays an image on the screen, a touch panel that is arranged on the screen of the display and that sequentially outputs the contact position of the finger as time elapses, and a finger that touches the touch panel. A program mounted on a user interface device that generates a signal for projecting a projection image corresponding to an image onto a projection target,
Contact determination means for determining whether or not a finger touches the touch panel;
A pressing force determining means for determining whether the pressing force is equal to or greater than a predetermined threshold;
When the contact determination means makes a true determination, an action corresponding to the operation with the touched finger is activated, and the image displayed on the screen is controlled according to this action, and the pressing force determination means makes a true determination. An action / image control means for activating an action corresponding to the pushing operation with a finger when controlling the image displayed on the screen according to the action;
When the contact determination means makes a true determination, it generates pointer information for displaying a pointer indicating a position corresponding to the contact position of the finger in the projected image projected on the projection target. Pointer information generating means;
There is provided a program for a user interface device that causes a computer to function as projection image signal generation means for generating a projection image signal for projecting pointer information and an image controlled by an operation / image control means onto a projection target.

本発明によれば、さらにまた、画像を画面に表示するディスプレイと、このディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルと、このタッチパネルに接触した指によって与えられる押圧力を検出する押圧力検出部とを備えており、画像に対応する投影像を投影対象に映出するための信号を生成するユーザインタフェース装置における画像投影方法であって、
指がタッチパネルに接触したか否かを判定する第1のステップと、
第1のステップで真の判定がなされた際、接触した指による操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御する第2のステップと、
押圧力が所定閾値以上であるか否かを判定する第3のステップと、
第1のステップで真の判定がなされ且つ第3のステップで真の判定がなされた際、指による押し込み操作に対応した動作を発動させ、この動作に応じて画面に表示された画像を制御する第4のステップと、
第1のステップで真の判定がなされた際、投影対象に映出された投影像内の位置であって、指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成する第5のステップと、
ポインタ情報と、第2のステップ及び第4のステップで制御された画像とを投影対象に投影するための投影像信号を生成する第6のステップと
を有する画像投影方法が提供される。
Further, according to the present invention, a display that displays an image on a screen, a touch panel that is arranged on the screen of the display and sequentially outputs a contact position of a finger as time elapses, and a finger that touches the touch panel An image projecting method in a user interface device that generates a signal for projecting a projection image corresponding to an image onto a projection target, the image sensing method comprising:
A first step of determining whether a finger has touched the touch panel;
When a true determination is made in the first step, a second step of activating an action corresponding to an operation with a touched finger and controlling an image displayed on the screen in accordance with the action;
A third step of determining whether the pressing force is equal to or greater than a predetermined threshold;
When the true determination is made in the first step and the true determination is made in the third step, an action corresponding to the pushing operation by the finger is activated, and the image displayed on the screen is controlled according to this action. A fourth step;
When a true determination is made in the first step, pointer information is generated for projecting a pointer indicating a position in the projected image projected on the projection target and corresponding to the finger contact position. A fifth step to:
An image projection method is provided that includes pointer information and a sixth step of generating a projection image signal for projecting the image controlled in the second step and the fourth step onto a projection target.

本発明のユーザインタフェース装置、画像投影方法及びプログラムによれば、映出された投影像を見て確認しながら、タッチパネルに対する指での操作を適切に実行することができる。   According to the user interface device, the image projecting method, and the program of the present invention, it is possible to appropriately execute an operation with a finger on the touch panel while checking and confirming the projected image.

本発明によるプロジェクタ機能を備えた携帯型情報機器と、投影対象とを示す概略図、並びに、ディスプレイ画面に表示された画像を示す携帯型情報機器の前面図、及び投影対象に映出された投影像を示すスクリーンの正面図である。Schematic diagram showing a portable information device having a projector function according to the present invention and a projection target, a front view of the portable information device showing an image displayed on a display screen, and a projection projected on the projection target It is a front view of the screen which shows an image. 「フォーカス」操作及びそれに対応した投影像の様子を説明するための、携帯型情報機器の前面図及びスクリーンの正面図、並びに指による操作を示す概略図である。It is the schematic which shows operation with a front view of a portable information device, a front view of a screen, and a finger for explaining a situation of a "focus" operation and a projection image corresponding to it. 「クリック」操作及びそれらに対応した投影像の様子を説明するための、携帯型情報機器の前面図及びスクリーンの正面図である。FIG. 4 is a front view of a portable information device and a front view of a screen for explaining a “click” operation and a state of a projection image corresponding to the “click” operation. 本発明による携帯型情報機器における他の実施形態を示す概略図である。It is the schematic which shows other embodiment in the portable information device by this invention. 本発明による携帯型情報機器の一実施形態(図1(A))の構成を概略的に示す斜視図及び機能構成図、並びに本発明による携帯型情報機器の他の実施形態(図4(B))の構成の一部を概略的に示す機能構成図である。The perspective view and functional block diagram which show schematically the structure of one Embodiment (FIG. 1 (A)) of the portable information device by this invention, and other embodiment (FIG. 4 (B) of the portable information device by this invention It is a functional block diagram which shows a part of structure of)) schematically. 本発明によるユーザインタフェース装置における画像投影方法の一実施形態を示すフローチャートである。5 is a flowchart illustrating an embodiment of an image projection method in the user interface device according to the present invention.

以下、本発明の実施形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明による、ディスプレイ及びタッチパネルを備えたユーザインタフェース装置は、
(1)ディスプレイ画面に表示された画像を投影するための投影像信号を生成する
ことができる装置である。また、
(2)スクリーン等の投影対象に、ディスプレイ画面に表示された画像を投影するプロジェクタ機能を有する
ことも好ましい。この本発明によるユーザインタフェース装置では、投影対象に映出された投影像内の位置であって、ディスプレイ画面内の指の接触位置に相当する位置を指し示すポインタを、投影対象に投影するための投影像信号を生成する点に特徴を有する。
According to the present invention, a user interface device including a display and a touch panel is provided.
(1) An apparatus capable of generating a projection image signal for projecting an image displayed on a display screen. Also,
(2) It is also preferable to have a projector function for projecting an image displayed on the display screen onto a projection target such as a screen. In this user interface device according to the present invention, a projection for projecting a pointer on a projection target, which is a position in the projected image projected on the projection target and corresponding to a position touched by a finger in the display screen. It is characterized in that an image signal is generated.

これにより、ユーザは、映出された投影像に表示されたポインタを見て、その指し示す位置を確認することができる。その結果、投影像を見て確認しつつ、タッチパネルに対する指での操作を適切に実行することができる。   Thereby, the user can see the pointer displayed on the projected image displayed and can confirm the position pointed to. As a result, it is possible to appropriately execute an operation with a finger on the touch panel while checking the projected image.

ここで、「画像」とは、ユーザインタフェース装置のディスプレイ画面に表示された、静止画及び動画を含むイメージである。また、「投影像信号」は、「画像」情報を含み、この「画像」をスクリーン等の投影対象に投影するためにプロジェクタ部またはプロジェクタ装置に出力される信号である。さらに、「投影像」とは、「投影像信号」を入力したプロジェクタ部またはプロジェクタ装置から放射された投射光が、スクリーン等の投影対象上に形成するイメージである。   Here, the “image” is an image including a still image and a moving image displayed on the display screen of the user interface device. The “projection image signal” includes “image” information, and is a signal output to the projector unit or the projector device in order to project the “image” onto a projection target such as a screen. Further, the “projection image” is an image formed on a projection target such as a screen by projection light emitted from the projector unit or the projector apparatus to which the “projection image signal” is input.

また、本発明によるユーザインタフェース装置では、ユーザの指がタッチパネルに接触することによって情報が入力される。このため、当該装置の多くは、片手又は両手で携帯して指での操作が可能となる、スマートフォンやタブレット型コンピュータのような携帯型情報機器である。従って、以下、本発明の実施形態として、携帯型情報機器を説明する。   In the user interface device according to the present invention, information is input when a user's finger contacts the touch panel. For this reason, many of the devices are portable information devices such as smartphones and tablet computers that can be carried with one hand or both hands and operated with fingers. Therefore, hereinafter, a portable information device will be described as an embodiment of the present invention.

図1は、本発明によるプロジェクタ機能を備えた携帯型情報機器と、投影対象とを示す概略図、並びに、ディスプレイ画面に表示された画像を示す携帯型情報機器の前面図、及び投影対象に映出された投影像を示すスクリーンの正面図である。   FIG. 1 is a schematic diagram showing a portable information device having a projector function according to the present invention and a projection target, a front view of the portable information device showing an image displayed on a display screen, and a projection target. It is a front view of the screen which shows the projected image taken out.

図1(A)は、プロジェクタ機能を備えた携帯型情報機器1から投射光が放射され、投影対象であるスクリーン200に投影像201が映出された状態を示している。この図によれば、携帯型情報機器1は、画像を画面に表示するディスプレイ101と、ディスプレイ101の画面上に配置されたタッチパネル100とを備えている。ユーザは、タッチパネル100に対して指による入力操作を行う。この入力操作に応じて動作が発動し、この発動した動作に対応した画像が、ディスプレイ101の画面に表示される。   FIG. 1A shows a state in which projection light is emitted from the portable information device 1 having a projector function, and a projection image 201 is projected on a screen 200 that is a projection target. According to this figure, the portable information device 1 includes a display 101 that displays an image on a screen, and a touch panel 100 arranged on the screen of the display 101. The user performs an input operation with a finger on the touch panel 100. An operation is activated in response to the input operation, and an image corresponding to the activated operation is displayed on the screen of the display 101.

尚、以下、指を直接接触させて入力操作を行う形態を説明するが、指の代わりに、スタイラス等の接触器具を用いて入力することも可能である。この場合、以下に説明する実施形態において、指の接触位置が、接触器具の先端の接触位置に置き換わることになる。   In the following, a mode in which an input operation is performed by directly contacting a finger will be described, but it is also possible to input using a contact instrument such as a stylus instead of the finger. In this case, in the embodiment described below, the contact position of the finger is replaced with the contact position of the tip of the contact instrument.

携帯型情報機器1は、さらに、プロジェクタ機能を有するプロジェクタ光学系13を内蔵している。ディスプレイ101の画面に表示される画像の情報は、同時に、投影像信号に変換される。この投影像信号は、プロジェクタ光学系13を制御するプロジェクタ制御部130(図5(A))に出力される。この投影像信号に基づいてプロジェクタ光学系13が制御され、プロジェクタ光学系13の出力部となる投射レンズ133から、ディスプレイ101の画面に表示される画像の情報を含む投射光が放射される。その結果、スクリーン200に、この画像に対応した投影像201が映出される。   The portable information device 1 further includes a projector optical system 13 having a projector function. Information on the image displayed on the screen of the display 101 is simultaneously converted into a projection image signal. The projection image signal is output to a projector control unit 130 (FIG. 5A) that controls the projector optical system 13. The projector optical system 13 is controlled based on the projection image signal, and projection light including image information displayed on the screen of the display 101 is emitted from the projection lens 133 serving as an output unit of the projector optical system 13. As a result, a projected image 201 corresponding to this image is displayed on the screen 200.

図1(B)は、ディスプレイ101の画面に表示された画像と、スクリーンに映出された投影像201との対応関係を示している。この図によれば、ディスプレイ101の画面に表示された画像には、複数のアイコン104が表示されている。アイコン104は、アプリケーションを起動させるための、ユーザにとっての操作対象(オブジェクト)である。ユーザは、指を直接アイコン104に接触させることによって、アイコン104を選択することができる。   FIG. 1B shows the correspondence between the image displayed on the screen of the display 101 and the projected image 201 displayed on the screen. According to this figure, a plurality of icons 104 are displayed on the image displayed on the screen of the display 101. The icon 104 is an operation target (object) for the user for starting the application. The user can select the icon 104 by directly touching the icon 104 with a finger.

図1(B)において、ユーザの指は、接触位置105で、タッチパネル100に接触している。ここで、ディスプレイ101の画面にxy座標系の第一象限を導入し、この指の接触位置105の座標を(x,y)とする。また、図1(B)における画面左下隅を原点(0,0)とする。この指の接触位置105に基づいて、後述するポインタ情報生成部123(図5(A))により、ポインタ情報106が生成される。ポインタ情報106は、投影像201内にポインタ205を映出するための画像情報(イメージデータ)である。 In FIG. 1B, the user's finger is in contact with the touch panel 100 at the contact position 105. Here, the first quadrant of the xy coordinate system is introduced into the screen of the display 101, and the coordinates of the contact position 105 of the finger are (x 1 , y 1 ). Further, the lower left corner of the screen in FIG. 1B is set as the origin (0, 0). Based on the contact position 105 of the finger, pointer information 106 is generated by a pointer information generation unit 123 (FIG. 5A) described later. The pointer information 106 is image information (image data) for projecting the pointer 205 in the projection image 201.

ポインタ情報106において、先端106aの座標は、指の接触位置105の座標(x,y)と一致するように設定される。すなわち、ポインタ情報106がディスプレイ101の画面に表示されたとすると、そのポインタ情報106のイメージは、指の接触位置105を指すことになる。すなわち、先端106aが指の接触位置と一致する。尚、ポインタ情報106は、本実施形態において、ディスプレイ101の画面に表示されない。しかしながら、スクリーンに映出されたポインタ205と互いに対応する形で、ポインタ情報106がディスプレイ101の画面に表示されてもよい。 In the pointer information 106, the coordinates of the tip 106a are set to coincide with the coordinates (x 1 , y 1 ) of the finger contact position 105. That is, if the pointer information 106 is displayed on the screen of the display 101, the image of the pointer information 106 indicates the contact position 105 of the finger. That is, the tip 106a coincides with the contact position of the finger. Note that the pointer information 106 is not displayed on the screen of the display 101 in this embodiment. However, the pointer information 106 may be displayed on the screen of the display 101 in a form corresponding to the pointer 205 displayed on the screen.

次いで、形成されたポインタ情報106と、ディスプレイ101の画面に表示される画像の情報とが合成されて、スクリーン200に投影するための投影像信号が生成される。この投影像信号に応じた投射光が放射され、その結果、ポインタ情報106と、ディスプレイ101の画面に表示される画像の情報とに対応した投影像201が、スクリーン200に映出される。   Next, the formed pointer information 106 and the information on the image displayed on the screen of the display 101 are combined to generate a projection image signal for projection onto the screen 200. Projection light corresponding to the projection image signal is emitted, and as a result, a projection image 201 corresponding to the pointer information 106 and image information displayed on the screen of the display 101 is displayed on the screen 200.

同じく図1(B)において、スクリーン200に映出された投影像201は、ポインタ情報106に対応したポインタ205と、複数のアイコン104に対応した複数のアイコンイメージ204とを含む。ポインタ205は、投影像201内における、ディスプレイ101の画面内での指の接触位置105に相当する位置を指し示す。すなわち、ポインタ205の先端205aの位置が、この投影像201内における指の接触位置105に相当する位置と一致する。   Similarly in FIG. 1B, a projected image 201 projected on the screen 200 includes a pointer 205 corresponding to the pointer information 106 and a plurality of icon images 204 corresponding to the plurality of icons 104. A pointer 205 points to a position corresponding to the finger contact position 105 in the screen of the display 101 in the projection image 201. That is, the position of the tip 205a of the pointer 205 matches the position corresponding to the finger contact position 105 in the projection image 201.

ここで、スクリーン200の投射面は平坦であって、投影レンズ133から放射される投射光の光軸に垂直であるとする。また、これにより、投影像201は、ディスプレイ101の画面(に表示された画像全体)と相似形、または縦横比がこの画面とは異なる矩形をなしているとする。さらに、スクリーン200の投影面にXY座標系の第一象限を導入し、ポインタ205の先端205aの位置の座標を(X,Y)とする。また、図1(B)における投影像201左下隅を原点(0,0)とする。 Here, it is assumed that the projection surface of the screen 200 is flat and perpendicular to the optical axis of the projection light emitted from the projection lens 133. Accordingly, it is assumed that the projected image 201 has a shape similar to that of the screen of the display 101 (the entire image displayed on the screen) or a rectangle having an aspect ratio different from that of the screen. Further, the first quadrant of the XY coordinate system is introduced into the projection surface of the screen 200, and the coordinates of the position of the tip 205a of the pointer 205 are (X 1 , Y 1 ). Further, the lower left corner of the projected image 201 in FIG. 1B is defined as the origin (0, 0).

この場合、指の接触位置105の座標(x,y)と、先端205a位置の座標(X,Y)とには、以下の関係が存在する。
(a) X=α・x、 Y=β・y
ここで、
(b) α=(投影像201のX軸方向での幅)/(画面のx軸方向での幅)
(c) β=(投影像201のY軸方向での高さ)/(画面のy軸方向での高さ)
である。例えば、投影像201とディスプレイ101の画面(に表示された画像全体)とが相似である場合、α=β(=拡大率)となる。
In this case, the following relationship exists between the coordinates (x 1 , y 1 ) of the finger contact position 105 and the coordinates (X 1 , Y 1 ) of the position of the tip 205a.
(A) X 1 = α · x 1 , Y 1 = β · y 1
here,
(B) α = (width of the projected image 201 in the X-axis direction) / (width of the screen in the x-axis direction)
(C) β = (height of the projected image 201 in the Y-axis direction) / (height of the screen in the y-axis direction)
It is. For example, when the projected image 201 and the screen of the display 101 (the entire image displayed on the screen) are similar, α = β (= enlargement ratio).

このように、ポインタ205は、その先端205aによって、投影像201内における、指の接触位置105に相当する位置を指し示す。これにより、ユーザは、ディスプレイ101の画面を見なくとも、投影像201内での先端205aの位置を見ることによって、画面内での指の接触位置105を確認することができる。従って、映出された投影像201内におけるポインタ205の先端205aを見て確認しながら、タッチパネル100に対する指での操作を適切に実行することが可能となる。   As described above, the pointer 205 indicates the position corresponding to the finger contact position 105 in the projection image 201 by the tip 205a. Thus, the user can confirm the finger contact position 105 in the screen by looking at the position of the tip 205a in the projection image 201 without looking at the screen of the display 101. Accordingly, it is possible to appropriately perform an operation with a finger on the touch panel 100 while checking and confirming the tip 205a of the pointer 205 in the projected image 201 projected.

また、言い換えると、プロジェクタ光学系13に出力される投影像信号は、ユーザの操作から見て、スクリーン200に映出されたポインタ205の指し示す位置を確認しつつ指による操作を実行することができるように、ポインタ205に対応するポインタ情報106を含む信号となっている。   In other words, the projection image signal output to the projector optical system 13 can be operated by a finger while confirming the position indicated by the pointer 205 displayed on the screen 200 as viewed from the user's operation. Thus, the signal includes pointer information 106 corresponding to the pointer 205.

尚、ポインタ205は、必ずしも矢印形状のイメージに限られるものではない。例えば、頂点が明確な二等辺三角形、人差し指のみを伸ばした片手のイメージ、又はドット若しくは星形等の微小面積イメージ等、1つの点を指し示していることが認識されるイメージならば、種々の形態がポインタ205として採用可能となる。また、ポインタ205は、半透明であることも好ましい。これにより、投影像201内に表示された他のイメージ(アイコンイメージ204等)が、ポインタ205に遮られて確認し難くなる事態を回避することができる。   The pointer 205 is not necessarily limited to an arrow-shaped image. For example, if the image is recognized as pointing to one point, such as an isosceles triangle with a clear vertex, an image of one hand with only the index finger extended, or a minute area image such as a dot or a star, various forms are possible. Can be adopted as the pointer 205. The pointer 205 is also preferably translucent. As a result, it is possible to avoid a situation in which other images (icon image 204 or the like) displayed in the projected image 201 are blocked by the pointer 205 and are difficult to confirm.

また、スクリーン200の投影面が投影レンズ133から放射される投射光の光軸に垂直な場合においても、投影像201は、必ずしも矩形に限られるものではない。例えば、ディスプレイ101の画面に、円形の画像が表示され、その画像内に複数のアイコンが表示されている場合、投影像201は、この画像に応じて、複数のアイコンイメージを含む円形のイメージとすることもできる。または、このような円形のイメージを含む、ディスプレイ101の画面に対応した矩形のイメージであってもよい。   Even when the projection surface of the screen 200 is perpendicular to the optical axis of the projection light emitted from the projection lens 133, the projection image 201 is not necessarily limited to a rectangle. For example, when a circular image is displayed on the screen of the display 101 and a plurality of icons are displayed in the image, the projection image 201 includes a circular image including a plurality of icon images according to the image. You can also Alternatively, it may be a rectangular image corresponding to the screen of the display 101 including such a circular image.

さらに、ユーザは、携帯型情報機器1を片手(図1(B)では右手)で保持することも可能である。この場合、ユーザは、片手で保持した携帯型情報機器1の投影レンズ133をスクリーン200に向け、映出された投影像201を見ながら、この保持した片手の指(親指)で適切な操作を行うことも可能となる。   Further, the user can hold the portable information device 1 with one hand (the right hand in FIG. 1B). In this case, the user directs the projection lens 133 of the portable information device 1 held with one hand toward the screen 200 and performs an appropriate operation with the finger (thumb) of the held one hand while viewing the projected image 201 projected. It is also possible to do this.

以下、タッチパネル100に対して行うことができる指による操作の形態を示し、操作に対応した投影像201の様子を説明する。この指による操作の例として、
(1) 「フォーカス」操作:アイコン等のオブジェクトを選択する、
(2) 「クリック」操作:オブジェクトの機能を発動させる、
を以下に説明する。
Hereinafter, a mode of operation with a finger that can be performed on the touch panel 100 will be described, and a state of the projection image 201 corresponding to the operation will be described. As an example of this finger operation,
(1) “Focus” operation: Select an object such as an icon,
(2) “Click” operation: Activate the function of the object.
Is described below.

尚、当然に、上記以外の従来の操作、例えばドラッグ操作、フリック操作、ピンチイン操作、ピンチアウト操作等も、タッチパネル100を介して実行し得るように設定することもできる。ピンチイン操作およびピンチアウト操作のように、指の接触点が同時に2つ又はそれ以上存在する場合、これらの指の接触位置のそれぞれに対応した複数の位置を、それぞれ指し示す複数のポインタが、投影像201内に映出されることも好ましい。   Needless to say, conventional operations other than those described above, for example, a drag operation, a flick operation, a pinch-in operation, a pinch-out operation, and the like can also be set so as to be executed via the touch panel 100. When there are two or more finger contact points at the same time, such as a pinch-in operation and a pinch-out operation, a plurality of pointers respectively pointing to a plurality of positions corresponding to the respective finger contact positions are projected images. It is also preferable that the image is displayed in 201.

図2は、「フォーカス」操作及びそれに対応した投影像201の様子を説明するための、携帯型情報機器1の前面図及びスクリーン200の正面図、並びに指による操作を示す概略図である。   FIG. 2 is a schematic diagram illustrating a front view of the portable information device 1, a front view of the screen 200, and an operation with a finger for explaining the “focus” operation and the state of the projection image 201 corresponding thereto.

図2(A)及び(B)は、「フォーカス」操作を示している。図2(A)によれば、ユーザの指が、タッチパネル100に接触し、接触を保ちながらタッチパネル100上をなぞるように移動(スライド)している。ここで、アイコン104を含む画像全体は、指の移動にもかかわらず移動せず、固定された状態となっている。   2A and 2B show a “focus” operation. According to FIG. 2A, the user's finger is touching the touch panel 100 and moving (sliding) so as to trace on the touch panel 100 while maintaining the contact. Here, the entire image including the icon 104 does not move despite the movement of the finger and is in a fixed state.

ユーザは、指を接触させたまま移動させ、位置が固定されたアイコン104に順次触れていく。これに応じて、スクリーン200に映出された投影像201内のポインタ205も移動し、同じく位置が固定されたアイコンイメージ204を順次指し示していく。また、後述する接触判定部121(図5(A))が、指の移動中も、指の接触位置105とアイコン104の表示位置範囲とが重畳したか否かを判定している。すなわち、ディスプレイ101の画面に表示された画像全体を固定した状態で、指の接触位置105がモニタされている。   The user moves while keeping the finger in contact, and sequentially touches the icons 104 whose positions are fixed. In response to this, the pointer 205 in the projected image 201 projected on the screen 200 is also moved, and sequentially points to the icon images 204 whose positions are also fixed. Further, a contact determination unit 121 (FIG. 5A), which will be described later, determines whether or not the finger contact position 105 and the display position range of the icon 104 are overlapped even while the finger is moving. That is, the finger contact position 105 is monitored in a state where the entire image displayed on the screen of the display 101 is fixed.

ユーザは、指で画面に表示された画像(タッチパネル100)をなぞりつつ、画像内に所望のアイコン104が存在するか否かを確かめながら、所望のアイコン104の表示位置範囲まで指を進める。ここで、ユーザは、指を移動(スライド)させるためにディスプレイ101を見る必要はなく、接触位置を確認するために投影像201内のポインタ205を見ていればよい。従って、このような指での操作は、携帯型情報機器1においてプロジェクタ機能を発動させた場合に非常に適したものとなっている。   The user advances the finger to the display position range of the desired icon 104 while checking whether or not the desired icon 104 exists in the image while tracing the image (touch panel 100) displayed on the screen with the finger. Here, the user does not need to look at the display 101 in order to move (slide) the finger, and only needs to look at the pointer 205 in the projection image 201 in order to confirm the contact position. Therefore, such an operation with a finger is very suitable when the projector function is activated in the portable information device 1.

ユーザは、その後、所望のアイコン104を探し出し、対応するアイコン104の表示位置範囲内に指を進める。このように、指の接触位置をアイコン104の表示位置範囲に重畳させる操作を、以後、「フォーカス」操作と称する。「フォーカス」操作は、ユーザがアイコン104を選択する操作であり、その後のアイコン104の機能を発動させる操作を確実に行うための準備動作としての役割を果たす。   Thereafter, the user searches for the desired icon 104 and advances his / her finger within the display position range of the corresponding icon 104. The operation of superimposing the finger contact position on the display position range of the icon 104 is hereinafter referred to as “focus” operation. The “focus” operation is an operation in which the user selects the icon 104, and plays a role as a preparatory operation for surely performing an operation that activates the function of the icon 104 thereafter.

この指による「フォーカス」操作に対応して、投影像201内のポインタ205が、所望のアイコン104に対応したアイコンイメージ204を指し示す(ポインタ205の先端205aが、アイコンイメージ204の表示位置範囲と重畳する)。従って、ユーザは、ポインタ205(の先端205a)のアイコンイメージ204に対する位置を見て確認することによって、画面内での指の接触位置105をアイコン104の表示位置範囲に重畳させることができる。すなわち、ディスプレイ101の画面を見なくとも、「フォーカス」操作を適切に実行することが可能となる。   In response to the “focus” operation by the finger, the pointer 205 in the projection image 201 points to the icon image 204 corresponding to the desired icon 104 (the tip 205a of the pointer 205 is superimposed on the display position range of the icon image 204). To do). Therefore, the user can superimpose the finger contact position 105 on the screen on the display position range of the icon 104 by checking the position of the pointer 205 (the tip 205a) with respect to the icon image 204 for confirmation. That is, the “focus” operation can be appropriately executed without looking at the screen of the display 101.

ここで、「フォーカス」操作によって選択されたアイコン104は、表示位置範囲がより強く光る、又は周囲より浮き上がって見える等、強調表示されることも好ましい。この場合、投影像201に表示された対応するアイコンイメージ204も強調表示される。これにより、ユーザは、ディスプレイ101の画面を見なくとも、「フォーカス」操作が適切に実行されたことを確認することができる。   Here, it is also preferable that the icon 104 selected by the “focus” operation is highlighted so that the display position range shines more strongly or appears to float above the surroundings. In this case, the corresponding icon image 204 displayed on the projection image 201 is also highlighted. Accordingly, the user can confirm that the “focus” operation has been appropriately executed without looking at the screen of the display 101.

また、指の接触位置105がアイコン104の表示位置範囲に重畳した際には、後述する触覚応答機構部102(図5(A))が、指に、物理的な押下ボタンの存在を感じさせる振動を与えることができる。これにより、ユーザは、投影像201を見ながらであっても、指による「フォーカス」操作が受け入れられたことを確認でき、安定した確実な操作感を得ることができる。   Further, when the finger contact position 105 is superimposed on the display position range of the icon 104, the tactile response mechanism unit 102 (FIG. 5A) described later makes the finger feel the presence of a physical push button. Can give vibration. Accordingly, the user can confirm that the “focus” operation with the finger has been accepted even while viewing the projection image 201, and can obtain a stable and reliable operational feeling.

図3は、「クリック」操作及びそれらに対応した投影像201の様子を説明するための、携帯型情報機器1の前面図及びスクリーン200の正面図である。   FIG. 3 is a front view of the portable information device 1 and a front view of the screen 200 for explaining the “click” operation and the state of the projection image 201 corresponding thereto.

図3によれば、指が、所望のアイコン104の位置まで進み、その結果、指の接触位置105がアイコン104の表示位置範囲と重畳する。すなわち、「フォーカス」操作が行われる。これに対応して、投影像201内におけるポインタ205の先端205aの位置も、アイコンイメージ204の表示位置範囲に重畳する。この状態から、ユーザが指をタッチパネル100に押し込むと、対応するアイコン104の機能が発動する。このように、アイコン104の機能を発動させるために指でアイコン104(タッチパネル100)を押し込む操作を、以後、「クリック」操作と称する。   According to FIG. 3, the finger advances to the position of the desired icon 104, and as a result, the contact position 105 of the finger is superimposed on the display position range of the icon 104. That is, a “focus” operation is performed. Correspondingly, the position of the tip 205 a of the pointer 205 in the projection image 201 is also superimposed on the display position range of the icon image 204. When the user presses the finger into the touch panel 100 from this state, the function of the corresponding icon 104 is activated. The operation of pushing the icon 104 (touch panel 100) with a finger to activate the function of the icon 104 in this way is hereinafter referred to as a “click” operation.

尚、アイコン104の機能、例えば、電子メール・アプリケーションが起動すると、ディスプレイ101の画面に表示された画像は、例えば、送信メール作成画面のイメージとなる。これに対応して、スクリーン200に映出された投影像201も、アイコンイメージ104が表示された状態から、送信メール作成画面のイメージに変化する。すなわち、投影像201は、アイコン104の機能発動前後を含めて常時、ディスプレイ101の画面に表示された画像を反映したものとなっている。   When the function of the icon 104, for example, an e-mail application is activated, the image displayed on the screen of the display 101 becomes, for example, the image of the outgoing mail creation screen. Correspondingly, the projected image 201 displayed on the screen 200 also changes from the state in which the icon image 104 is displayed to the image on the outgoing mail creation screen. In other words, the projected image 201 reflects the image displayed on the screen of the display 101 at all times including before and after the function of the icon 104 is activated.

ここで、「クリック」操作と判定される条件を説明する。最初に、指の接触位置105が、所望のアイコン104の表示位置範囲と重畳する。すなわち「フォーカス」操作が行われる。次いで、この状態から、ユーザが指を強く押し込み、指による押圧力pが所定の押圧力閾値pTH以上となる場合(p≧pTH)、後述する動作・画像制御部124(図5(A))で、「クリック」操作が行われたと判断され、アイコン104の機能が発動する。このように、押圧力pが所定閾値pTH以上であることが、「クリック」操作と判断される条件となる。尚、押圧力閾値pTHは、例えば、0.5N(ニュートン)乃至2.0Nの範囲内の値に設定可能である。 Here, the condition determined as the “click” operation will be described. First, the finger contact position 105 overlaps the display position range of the desired icon 104. That is, a “focus” operation is performed. Next, from this state, when the user strongly presses the finger and the pressing force p C by the finger is equal to or higher than a predetermined pressing force threshold value p TH (p C ≧ p TH ), the operation / image control unit 124 (FIG. 5) described later In (A)), it is determined that the “click” operation has been performed, and the function of the icon 104 is activated. As described above, the condition that the “push” operation is determined is that the pressing force p C is equal to or greater than the predetermined threshold value p TH . Note that the pressing force threshold value p TH can be set to a value within a range of 0.5 N (Newton) to 2.0 N, for example.

以上に述べた「クリック」操作は、あくまで指による押し込みの強さを変えて行う操作である。従って、ユーザは、ディスプレイ101を見て確認せずに、「クリック」操作を適切に実行することができる。このように、「クリック」操作は、携帯型情報機器1においてプロジェクタ機能を発動させた場合に、非常に実行し易い操作となることが理解される。   The “click” operation described above is an operation performed by changing the strength of pressing with a finger. Therefore, the user can appropriately execute the “click” operation without looking at the display 101 for confirmation. Thus, it is understood that the “click” operation is an operation that is very easy to execute when the projector function is activated in the portable information device 1.

また、後述する触覚応答機構部102(図5(A))が、「クリック」操作を行った指に、物理的な押下ボタンを実際に押下したかのような感覚を付与する振動を与えることもできる。これにより、ユーザは、投影像201を見ながらであっても、指による「クリック」操作が受け入れられたことを確認でき、安定した確実な操作感を得ることができる。   Further, the tactile response mechanism 102 (FIG. 5A), which will be described later, gives a vibration that gives a sensation as if the physical press button was actually pressed to the finger that performed the “click” operation. You can also. Accordingly, the user can confirm that the “click” operation with the finger has been accepted even while viewing the projection image 201, and can obtain a stable and reliable operational feeling.

図4は、本発明による携帯型情報機器における他の実施形態を示す概略図である。   FIG. 4 is a schematic view showing another embodiment of the portable information device according to the present invention.

図4(A)において、携帯型情報機器3は、タブレット型コンピュータである。ユーザは、携帯型情報機器3を一方の手(同図では左手)で保持しながら、他方の手の指(同図では右手の人差し指)をタッチパネル30に接触させて操作することができる。このような携帯型情報機器3においても、指の接触位置35に基づいてポインタ情報が生成される。また、指による操作に対応した動作が発動し、この動作に応じてディスプレイ31の画面に表示される画像が制御される。次いで、このポインタ情報と、制御された画像とをスクリーン40に投影するための投影像信号が生成される。   In FIG. 4A, the portable information device 3 is a tablet computer. The user can operate the portable information device 3 while holding the portable information device 3 with one hand (the left hand in the figure) while bringing the finger of the other hand (the index finger of the right hand in the figure) into contact with the touch panel 30. Also in such a portable information device 3, pointer information is generated based on the finger contact position 35. In addition, an operation corresponding to the operation with the finger is activated, and an image displayed on the screen of the display 31 is controlled according to the operation. Next, a projection image signal for projecting the pointer information and the controlled image onto the screen 40 is generated.

生成された投影像信号は、制御部を介して、携帯型情報機器3に内蔵されたプロジェクタ光学系32に出力され、プロジェクタ光学系32の投射レンズ320から、この投影像信号に対応した投射光が放射される。この投射光がスクリーン40に投射されて、ディスプレイ31の画面に表示される制御された画像に対応した投影像41が形成される。この投影像41は、さらに、ポインタ情報に対応したポインタであって、指の接触位置35に相当する投影像41上の位置を指し示すポインタ45を含む。   The generated projection image signal is output to the projector optical system 32 built in the portable information device 3 via the control unit, and the projection light corresponding to the projection image signal is output from the projection lens 320 of the projector optical system 32. Is emitted. This projection light is projected onto the screen 40, and a projection image 41 corresponding to the controlled image displayed on the screen of the display 31 is formed. The projection image 41 further includes a pointer 45 corresponding to the pointer information and indicating a position on the projection image 41 corresponding to the finger contact position 35.

ユーザは、ディスプレイ31の画面を見なくとも、投影像41内でのポインタ45(の先端)を見ることによって、画面内での指の接触位置35を確認することができる。従って、投影像41内におけるポインタ45(の先端)を見て確認しながら、タッチパネル30に対する指での操作を適切に実行することが可能となる。   The user can confirm the contact position 35 of the finger on the screen by looking at the pointer 45 (the tip thereof) in the projection image 41 without looking at the screen of the display 31. Accordingly, it is possible to appropriately perform the operation with the finger on the touch panel 30 while checking and confirming the pointer 45 (the front end) in the projection image 41.

図4(B)において、携帯型情報機器5は、ディスプレイ51の画面に表示された画像を投影するための投影像信号を生成することができる装置である。但し、この投影像信号を受けてこの画像を投影するプロジェクタ光学系及びその制御部は、設けられていない。携帯型情報機器5は、生成した投影像信号を、外部のプロジェクタ6に出力するための投影像信号出力端子52を備えている。   In FIG. 4B, the portable information device 5 is a device that can generate a projection image signal for projecting an image displayed on the screen of the display 51. However, a projector optical system that receives this projection image signal and projects this image and its control unit are not provided. The portable information device 5 includes a projection image signal output terminal 52 for outputting the generated projection image signal to an external projector 6.

プロジェクタ6は、投影像信号出力端子52と接続される投影像信号入力端子60と、投影像信号入力端子60を介して投影像信号を入力するプロジェクタ制御部61と、プロジェクタ制御部61によって制御され、投影像信号に係る画像を投影するプロジェクタ光学系62とを備えている。   The projector 6 is controlled by the projection image signal input terminal 60 connected to the projection image signal output terminal 52, the projector control unit 61 that inputs the projection image signal via the projection image signal input terminal 60, and the projector control unit 61. A projector optical system 62 that projects an image related to the projection image signal.

ユーザは、保持した片手の指(同図では右手の親指)をタッチパネル50に接触させて、携帯型情報機器5を操作する。このような携帯型情報機器5においても、指の接触位置55に基づいてポインタ情報が生成される。また、指による操作に対応した動作が発動し、この動作に応じてディスプレイ51の画面に表示される画像が制御される。次いで、このポインタ情報と、制御された画像とをスクリーン70に投影するための投影像信号が生成される。   The user operates the portable information device 5 by bringing the finger of one hand held (the thumb of the right hand in the figure) into contact with the touch panel 50. Also in such a portable information device 5, pointer information is generated based on the contact position 55 of the finger. In addition, an operation corresponding to the operation by the finger is activated, and an image displayed on the screen of the display 51 is controlled according to the operation. Next, a projection image signal for projecting the pointer information and the controlled image onto the screen 70 is generated.

生成された投影像信号は、投影像信号出力端子52を介して携帯型情報機器5から出力され、投影像信号入力端子60を介してプロジェクタ6に入力される。プロジェクタ制御部61は、プロジェクタ光学系62を制御し、投射レンズ620から、入力した投影像信号に対応した投射光を放射させる。この投射光がスクリーン70に投射されて、ディスプレイ51の画面に表示される制御された画像に対応した投影像71が形成される。この投影像71は、さらに、ポインタ情報に対応したポインタであって、指の接触位置55に相当する投影像71上の位置を指し示すポインタ75を含む。   The generated projection image signal is output from the portable information device 5 via the projection image signal output terminal 52 and input to the projector 6 via the projection image signal input terminal 60. The projector control unit 61 controls the projector optical system 62 to emit projection light corresponding to the input projection image signal from the projection lens 620. This projection light is projected onto the screen 70, and a projection image 71 corresponding to the controlled image displayed on the screen of the display 51 is formed. The projection image 71 further includes a pointer 75 corresponding to the pointer information and indicating a position on the projection image 71 corresponding to the finger contact position 55.

ユーザは、ディスプレイ51の画面を見なくとも、投影像71内でのポインタ75(の先端)を見ることによって、画面内での指の接触位置55を確認することができる。従って、映出された投影像71内におけるポインタ75(の先端)を見て確認しながら、タッチパネル50に対する指での操作を適切に実行することが可能となる。   The user can confirm the contact position 55 of the finger on the screen by looking at the pointer 75 (the tip thereof) in the projection image 71 without looking at the screen of the display 51. Accordingly, it is possible to appropriately perform the operation with the finger on the touch panel 50 while checking and confirming the pointer 75 (tip) in the projected image 71 projected.

以上述べたように、投影像信号の形成機能(携帯型情報機器5)を、画像投影機能(プロジェクタ6)から分離することによって、携帯型情報機器5が、小型・軽量化される。また、例えば、複数ユーザによるプレゼンテーションの際、各ユーザは、自らのプレゼンテーションデータを自らの携帯型情報機器5に保有したまま、定位置に設置されたプロジェクタ6を用いて、プレゼンテーションを、輪番で且つ同一スクリーン70で行うことができる。   As described above, by separating the projection image signal forming function (portable information device 5) from the image projection function (projector 6), the portable information device 5 is reduced in size and weight. In addition, for example, when a presentation is made by a plurality of users, each user uses his / her projector 6 installed at a fixed position while holding his / her presentation data in his / her portable information device 5, This can be done on the same screen 70.

図5は、本発明による携帯型情報機器1の構成を概略的に示す斜視図及び機能構成図、並びに本発明による携帯型情報機器5(図4(B))の構成の一部を概略的に示す機能構成図である。   FIG. 5 is a perspective view and a functional configuration diagram schematically showing the configuration of the portable information device 1 according to the present invention, and a part of the configuration of the portable information device 5 (FIG. 4B) according to the present invention. It is a functional block diagram shown in FIG.

図5(A)は、携帯型情報機器1の構成を示している。同図によれば、携帯型情報機器1は、タッチパネル100と、ディスプレイ101と、触覚応答機構部102と、押圧力検出部103と、プロセッサ・メモリとを備えている。携帯型情報機器1は、さらに、プロジェクタ光学系13を備えている。ここで、プロセッサ・メモリは、プログラムを実行することによってその機能を実現させる。   FIG. 5A shows the configuration of the portable information device 1. As shown in the figure, the portable information device 1 includes a touch panel 100, a display 101, a tactile response mechanism unit 102, a pressing force detection unit 103, and a processor memory. The portable information device 1 further includes a projector optical system 13. Here, the processor memory realizes its function by executing a program.

ディスプレイ101は、画面に画像を表示する。また、タッチパネル100は、ディスプレイ100の画面上に配置されており、ユーザの指の接触位置を時間経過に応じて逐次出力する。このタッチパネル100として、投影型静電容量方式タッチパネル、表面型静電容量方式タッチパネル、抵抗膜方式タッチパネル、超音波表面弾性波方式タッチパネル、又は赤外線走査方式タッチパネル等を採用することができる。   The display 101 displays an image on the screen. Moreover, the touch panel 100 is arrange | positioned on the screen of the display 100, and outputs the contact position of a user's finger | toe sequentially according to progress of time. As the touch panel 100, a projected capacitive touch panel, a surface capacitive touch panel, a resistive touch panel, an ultrasonic surface acoustic wave touch panel, an infrared scanning touch panel, or the like can be employed.

触覚応答機構部102は、タッチパネル100に接触した指に対して、タッチパネル100を振動させることにより触覚応答を与える。例えば、上述した「フォーカス」操作時、及び/又は「クリック」操作時に、操作内容に応じた種類及び強度の振動を指に与える。触覚応答機構部102は、例えば、PZT(チタン酸ジルコン酸鉛)等の圧電材料を用いて形成された圧電アクチュエータとすることができる。   The tactile response mechanism unit 102 gives a tactile response to the finger touching the touch panel 100 by vibrating the touch panel 100. For example, at the time of the above-mentioned “focus” operation and / or “click” operation, a vibration of a type and intensity corresponding to the operation content is given to the finger. The tactile response mechanism 102 can be a piezoelectric actuator formed using a piezoelectric material such as PZT (lead zirconate titanate).

押圧力検出部103は、指によってタッチパネル100に与えられる押圧力pを検出する。押圧力検出部103は、例えば、タッチパネル100の四隅下に設置されており、指を押し付けられて撓んだタッチパネル100が自身に及ぼす押圧の合計を、押圧力pとして検出する。この押圧力検出部103が出力する押圧力信号は、後述する押圧力判定部122に入力される。押圧力検出部103は、例えば、PZT等の圧電材料を用いて形成された圧電センサとすることができる。また、圧電アクチュエータで構成された触覚応答機構部102を設ける代わりに又は設けると共に、押圧力検出部103を触覚応答機構部として利用することも可能である。 The pressing force detection unit 103 detects a pressing force p C applied to the touch panel 100 by a finger. The pressing force detection unit 103 is installed, for example, under the four corners of the touch panel 100, and detects the total pressure exerted on the touch panel 100 that is bent by pressing a finger as the pressing force p C. The pressing force signal output by the pressing force detection unit 103 is input to a pressing force determination unit 122 described later. The pressing force detection unit 103 can be, for example, a piezoelectric sensor formed using a piezoelectric material such as PZT. Further, instead of providing the tactile response mechanism unit 102 formed of a piezoelectric actuator, or at the same time, the pressing force detection unit 103 can be used as a tactile response mechanism unit.

プロセッサ・メモリは、タッチパネル100から出力される指の接触位置信号と、押圧力検出部103から出力される押圧力信号とを入力し、これらの信号に基づいてユーザの指による操作を認定し、この操作に対応した動作を発動させる。また、この動作に応じてディスクプレイ101の画面に表示された画像を制御する。   The processor memory inputs a finger contact position signal output from the touch panel 100 and a pressing force signal output from the pressing force detection unit 103, and recognizes an operation by a user's finger based on these signals. An action corresponding to this operation is activated. Further, the image displayed on the screen of the disc play 101 is controlled according to this operation.

さらに、プロセッサ・メモリは、スクリーン200にポインタ205を映出するためのポインタ情報106を生成する。さらに、プロセッサ・メモリは、このポインタ情報と、制御された画像とを投影するための操作対応投影像信号を生成し、この信号に基づいて、プロジェクタ光学系13を制御する。以下、同じく図5(A)を用いて、このプロセッサ・メモリの機能構成を説明する。   Further, the processor memory generates pointer information 106 for displaying the pointer 205 on the screen 200. Further, the processor memory generates an operation corresponding projection image signal for projecting the pointer information and the controlled image, and controls the projector optical system 13 based on this signal. Hereinafter, the functional configuration of the processor memory will be described with reference to FIG.

図5(A)によれば、プロセッサ・メモリは、接触判定部121と、押圧力判定部122と、ポインタ情報生成部123と、動作・画像制御部124と、投影像信号生成部125と、触覚応答制御部126と、プロジェクタ制御部130と、画面表示制御部111と、アプリケーション処理部112とを有する。   According to FIG. 5A, the processor memory includes a contact determination unit 121, a pressing force determination unit 122, a pointer information generation unit 123, an operation / image control unit 124, a projection image signal generation unit 125, The tactile response control unit 126, the projector control unit 130, the screen display control unit 111, and the application processing unit 112 are included.

接触判定部121は、タッチパネル100から出力される指の接触位置信号を入力し、指がタッチパネル100に接触したか否かを判定して、この判定結果及び指の接触位置情報を、ポインタ情報生成部123及び動作・画像制御部124に出力する。また、この接触判定部121が、指の接触位置105がアイコン104の表示位置範囲と重畳したか否かを判定し、この判定結果を動作・画像制御部124に出力することも好ましい。   The contact determination unit 121 receives a finger contact position signal output from the touch panel 100, determines whether or not the finger has touched the touch panel 100, and generates pointer information based on the determination result and the finger contact position information. Output to the unit 123 and the operation / image control unit 124. It is also preferable that the contact determination unit 121 determines whether or not the finger contact position 105 overlaps the display position range of the icon 104 and outputs the determination result to the operation / image control unit 124.

押圧力判定部122は、押圧力検出部103からの押圧力信号を入力し、指による押圧力pが所定の押圧力閾値pTH以上であるか否かを判定する。さらに、この判定結果を、動作・画像制御部124へ出力する。 The pressing force determination unit 122 inputs the pressing force signal from the pressing force detection unit 103, and determines whether or not the pressing force p C by the finger is equal to or greater than a predetermined pressing force threshold value pTH. Further, the determination result is output to the operation / image control unit 124.

ポインタ情報生成部123は、接触判定部122から出力される、接触の有無についての判定結果及び指の接触位置情報を入力する。次いで、スクリーン200に映出された投影像201内における、指の接触位置105に相当する位置を指し示すポインタ205を映出するためのポインタ情報(ポインタイメージデータ)106を生成する。ここで、ポインタ情報106は、投影像201内におけるポインタ205の先端205aの位置が、ディスプレイ101の画面内における指の接触位置105に対応するように生成される。ポインタ情報生成部123は、この生成したポインタ情報106を、投影像信号生成部125に出力する。   The pointer information generation unit 123 inputs the determination result about the presence / absence of contact and the finger contact position information output from the contact determination unit 122. Next, pointer information (pointer image data) 106 for projecting a pointer 205 indicating a position corresponding to the contact position 105 of the finger in the projected image 201 projected on the screen 200 is generated. Here, the pointer information 106 is generated so that the position of the tip 205 a of the pointer 205 in the projection image 201 corresponds to the contact position 105 of the finger in the screen of the display 101. The pointer information generation unit 123 outputs the generated pointer information 106 to the projection image signal generation unit 125.

動作・画像制御部124は、接触判定部122から、接触の有無についての判定結果及び指の接触位置情報を入力し、さらに、押圧力判定部122から判定結果を入力する。動作・画像制御部124は、これらの入力情報を基に、接触した指による操作(例えば、「フォーカス」操作又は「クリック」操作)を認定し、認定した操作に対応した動作を発動させる。さらに、この発動させた動作に応じてディスプレイ101の画面に表示された画像を制御するように、画面表示制御部111に動作指示情報を出力する。   The operation / image control unit 124 inputs a determination result about the presence / absence of contact and finger contact position information from the contact determination unit 122, and further inputs a determination result from the pressing force determination unit 122. The operation / image control unit 124 recognizes an operation (for example, a “focus” operation or a “click” operation) with the touched finger based on the input information, and activates an operation corresponding to the recognized operation. Further, operation instruction information is output to the screen display control unit 111 so as to control the image displayed on the screen of the display 101 in accordance with the activated operation.

具体的に、動作・画像制御部124は、指の接触位置105がアイコン104の表示位置範囲と重畳した場合に、「フォーカス」操作が行われたとして対応する動作を発動させることも好ましい。さらに、指の接触位置105がアイコン104の表示位置範囲と重畳し且つ押圧力pが所定の閾値pTH以上である場合、「クリック」操作が行われたとして対応する動作を発動させることも好ましい。 Specifically, when the finger contact position 105 overlaps the display position range of the icon 104, the operation / image control unit 124 preferably activates a corresponding operation as a “focus” operation is performed. Furthermore, when the contact position 105 of the finger overlaps the display position range of the icon 104 and the pressing force p C is equal to or greater than a predetermined threshold value p TH, it is possible to activate the corresponding action as a “click” operation has been performed. preferable.

さらに、動作・画像制御部124は、発動させた動作に応じて制御された(ディスプレイ101の画面に表示される)画像情報を、投影像信号生成部125に出力する。   Further, the operation / image control unit 124 outputs image information (displayed on the screen of the display 101) controlled according to the activated operation to the projection image signal generation unit 125.

投影像信号生成部125は、ポインタ情報生成部123からポインタ情報106を入力し、動作・画像制御部124から制御された画像情報を入力する。投影像信号生成部125は、これらポインタ情報106と制御された画像情報とをスクリーン200に投影するための投影像信号を生成する。また、生成した投影像信号を、プロジェクタ制御部130に出力する。   The projection image signal generation unit 125 receives the pointer information 106 from the pointer information generation unit 123 and the image information controlled by the operation / image control unit 124. The projection image signal generation unit 125 generates a projection image signal for projecting the pointer information 106 and the controlled image information onto the screen 200. Further, the generated projection image signal is output to the projector control unit 130.

触覚応答制御部126は、動作・画像制御部124から出力される動作指示情報を入力する。次いで、この情報に基づいて、タッチパネル100に接触した指に対して触覚応答を与えるべく、触覚応答機構部102を制御する。   The tactile response control unit 126 receives the operation instruction information output from the operation / image control unit 124. Next, based on this information, the tactile response mechanism 102 is controlled so as to give a tactile response to the finger touching the touch panel 100.

画面表示制御部111は、アプリケーション処理部112からのアプリケーション処理情報を入力して、アプリケーションの実行に応じた画像をディスプレイ101に表示させる。また、画面表示制御部111は、動作・画像制御部124から出力される動作指示情報を入力し、指示された動作に応じた画像をディスプレイ101に表示させる。   The screen display control unit 111 inputs the application processing information from the application processing unit 112 and causes the display 101 to display an image corresponding to the execution of the application. Further, the screen display control unit 111 receives the operation instruction information output from the operation / image control unit 124 and causes the display 101 to display an image corresponding to the instructed operation.

プロジェクタ制御部130は、投影像信号生成部125から入力した投影像信号に基づいて、プロジェクタ光学系13を制御する。   The projector control unit 130 controls the projector optical system 13 based on the projection image signal input from the projection image signal generation unit 125.

プロジェクタ光学系13は、光源131と、MEMS(微小電気機械系)ミラー光学系132と、投射レンズ133とを備えている。光源131は、スクリーン200に投射する投射光用の光源である。この光源131には、それぞれR(赤)、G(緑)及びB(青)の光を放射する3種のLED(発光ダイオード)、又はそれぞれR,G及びBの光を放射する3種のダイオードチップが一体化したLEDを用いることができる。   The projector optical system 13 includes a light source 131, a MEMS (micro electro mechanical system) mirror optical system 132, and a projection lens 133. The light source 131 is a light source for projection light projected on the screen 200. The light source 131 includes three types of LEDs (light emitting diodes) that emit R (red), G (green), and B (blue) light, respectively, or three types of light that emit R, G, and B light, respectively. An LED in which a diode chip is integrated can be used.

MEMSミラー光学系132は、例えばDMD(Digital Micro mirror Device、登録商標)素子を備えていて、DLP(Digital Light Processing、登録商標)方式により、投影像信号から投射光を形成する光学系である。DMD素子は、2次元に配列しており鏡面の傾斜角が個別に制御される多数のマイクロミラーを有している。   The MEMS mirror optical system 132 includes, for example, a DMD (Digital Micro mirror Device (registered trademark)) element, and is an optical system that forms projection light from a projection image signal by a DLP (Digital Light Processing (registered trademark) system. The DMD element has a large number of micromirrors that are two-dimensionally arranged and whose mirror surface inclination angles are individually controlled.

DLP方式では、プロジェクタ制御部130が、入力した投影像信号に対してDMD素子に合わせた解像度変換等を施し、これにより、多数のマイクロミラー駆動用の信号を形成する。次いで、この駆動用信号によってDMD素子を制御駆動させる。また、プロジェクタ制御部130は、個々のマイクロミラー駆動のタイミングに合わせて(同期させて)光源131を制御し、光源131からR、G又はBの光を適宜放射させる。   In the DLP method, the projector control unit 130 performs resolution conversion or the like according to the DMD element on the input projection image signal, thereby forming a number of signals for driving the micromirrors. Next, the DMD element is controlled and driven by this driving signal. In addition, the projector control unit 130 controls the light source 131 in synchronization with (in synchronization with) the timing of driving each micromirror, and appropriately emits R, G, or B light from the light source 131.

光源131から放射された光は、所定の光学系を介してDMD素子に照射され、同素子で反射して、多数のマイクロミラーの傾斜角に対応した多数の画素からなる画像に相当する投射光を形成する。この投射光は、所定の光学系を介して投射レンズ133から、スクリーン200に向けて放射される。これにより、(投影像信号生成部125が生成した)ポインタ情報106を含む投影像信号に対応した投影像201が、スクリーン200に映出される。   Light emitted from the light source 131 is irradiated onto the DMD element via a predetermined optical system, reflected by the element, and projected light corresponding to an image composed of a large number of pixels corresponding to the tilt angles of a large number of micromirrors. Form. This projection light is radiated from the projection lens 133 toward the screen 200 via a predetermined optical system. Thereby, the projection image 201 corresponding to the projection image signal including the pointer information 106 (generated by the projection image signal generation unit 125) is displayed on the screen 200.

図5(B)は、図4(B)に示す携帯型情報機器5の構成を示している。携帯型情報機器5も、携帯型情報機器1(図5(A))と同様、タッチパネルと、ディスプレイと、触覚応答機構部と、押圧力検出部と(以上図示せず)、プロセッサ・メモリとを備えている。しかしながら、プロジェクタ光学系及びその制御部は設けられていない。また、携帯型情報機器5は、生成した投影像信号を、外部のプロジェクタ6(図4(B))に出力するための投影像信号出力端子52を備えている。   FIG. 5B illustrates a configuration of the portable information device 5 illustrated in FIG. Similarly to the portable information device 1 (FIG. 5A), the portable information device 5 also includes a touch panel, a display, a tactile response mechanism unit, a pressing force detection unit (not shown above), a processor memory, It has. However, the projector optical system and its control unit are not provided. Further, the portable information device 5 includes a projection image signal output terminal 52 for outputting the generated projection image signal to an external projector 6 (FIG. 4B).

また、携帯型情報機器5のプロセッサ・メモリも、携帯型情報機器1(図5(A))と同様、接触判定部と、押圧力判定部と、ポインタ情報生成部と、動作・画像制御部と、触覚応答制御部と、画面表示制御部と、アプリケーション処理部と(以上図示せず)、投影像信号生成部525とを有する。しかしながら、プロジェクタ制御部は設けられていない。   Similarly to the portable information device 1 (FIG. 5A), the processor / memory of the portable information device 5 also includes a contact determination unit, a pressing force determination unit, a pointer information generation unit, and an operation / image control unit. A tactile response control unit, a screen display control unit, an application processing unit (not shown above), and a projection image signal generation unit 525. However, no projector control unit is provided.

このような携帯型情報機器5においても、外部のプロジェクタ6を利用することによって、(投影像信号生成部525が生成した)ポインタ情報を含む操作対応投影像信号に対応した投影像71が、スクリーン70に映出される。   Also in such a portable information device 5, by using the external projector 6, the projection image 71 corresponding to the operation-corresponding projection image signal including the pointer information (generated by the projection image signal generation unit 525) is displayed on the screen. 70.

図6は、本発明によるユーザインタフェース装置における画像投影方法の一実施形態を示すフローチャートである。   FIG. 6 is a flowchart showing an embodiment of an image projecting method in the user interface device according to the present invention.

図6によれば、最初に、ディスプレイ101の画面に、アイコン104を含む画像が表示される(ステップS600)。次いで、タッチパネル100に対する指の接触の有無が測定される(ステップS601)。次いで、接触判定部121によって、指がタッチパネル100に接触したか否かが判定される(ステップS602)。   According to FIG. 6, first, an image including the icon 104 is displayed on the screen of the display 101 (step S600). Next, presence / absence of finger contact with the touch panel 100 is measured (step S601). Next, the contact determination unit 121 determines whether or not the finger has touched the touch panel 100 (step S602).

ここで、真の判定、すなわち指が接触しているとの判定がなされた場合、指による接触・押し込み操作ループ(ステップS610乃至ステップS622)に入り、動作・画像制御部124が、画像全体を固定した状態で、指の接触位置をモニタ(監視)する(ステップS611)。一方、指が接触していないとの判定がなされた場合、再度、ステップS601に戻り、指の接触の有無をモニタする。   Here, when the true determination, that is, the determination that the finger is in contact is made, the finger touch / push operation loop (steps S610 to S622) is entered, and the operation / image control unit 124 scans the entire image. In a fixed state, the contact position of the finger is monitored (monitored) (step S611). On the other hand, when it is determined that the finger is not in contact, the process returns to step S601 again, and the presence or absence of the finger contact is monitored.

ステップS611の後、接触判定部121は、指の接触位置105がアイコン104の表示位置範囲と重畳したか否かを判定する(ステップS612)。接触判定部121が真の判定、すなわち指の接触位置105がアイコン104の表示位置範囲と重畳したとの判定を行った際、動作・画像制御部124は、「フォーカス」操作が行われたと判断して、アイコン104の選択動作を発動させる(ステップS613)。さらに、この発動した動作に応じてディスプレイ101の画面に表示された画像を制御(更新)する(ステップS614)。一方、接触判定部121が偽の判定を行った際、直ちにステップS619に進み、指の接触位置105に応じてポインタ情報が生成される。   After step S611, the contact determination unit 121 determines whether or not the finger contact position 105 is superimposed on the display position range of the icon 104 (step S612). When the contact determination unit 121 makes a true determination, that is, determines that the finger contact position 105 is superimposed on the display position range of the icon 104, the operation / image control unit 124 determines that the “focus” operation has been performed. Then, the selection operation of the icon 104 is activated (step S613). Further, the image displayed on the screen of the display 101 is controlled (updated) in accordance with the activated operation (step S614). On the other hand, when the contact determination unit 121 makes a false determination, the process immediately proceeds to step S619, and pointer information is generated according to the contact position 105 of the finger.

ステップS614の後、押圧力検出部103が、指によるタッチパネル100に対する押圧力pを測定する(ステップS615)。ここで、押圧力判定部122によって、指による押圧力pが所定の閾値pTH以上であるか否かが判定される(ステップS616)。押圧力判定部122が真の判定、すなわち押圧力pが所定の閾値pTH以上であるとの判定を行った際、動作・画像制御部124は、「クリック」操作が行われたと判断して、アイコン104の機能に対応した動作を発動させる(ステップS617)。さらに、この発動した動作に応じてディスプレイ101の画面に表示された画像を制御(更新)する(ステップS618)。一方、押圧力判定部122が偽の判定を行った際、直ちにステップS619に進み、指の接触位置105に応じてポインタ情報が生成される。 After step S614, the pressing force detection unit 103 measures the pressing force p C applied to the touch panel 100 by the finger (step S615). Here, the pressing force determination unit 122 determines whether or not the pressing force p C by the finger is equal to or greater than a predetermined threshold value p TH (step S616). When the pressing force determination unit 122 makes a true determination, that is, determines that the pressing force p C is equal to or greater than the predetermined threshold value p TH , the operation / image control unit 124 determines that the “click” operation has been performed. Then, an operation corresponding to the function of the icon 104 is activated (step S617). Further, the image displayed on the screen of the display 101 is controlled (updated) in accordance with the activated operation (step S618). On the other hand, when the pressing force determination unit 122 makes a false determination, the process immediately proceeds to step S619, and pointer information is generated according to the finger contact position 105.

ステップS618の後、ポインタ情報生成部123が、指の接触位置105に応じてポインタ情報を生成する(ステップS619)。次いで、投影像信号生成部125が、生成されたポインタ情報と、制御(更新)された画像とをスクリーン200に投影するための投影像信号を生成する(ステップS620)。次いで、プロジェクタ光学系13及びプロジェクタ制御部130によって、ポインタ情報と制御(更新)された画像とをスクリーン200に投影し、投影像201が映出される(ステップS621)。   After step S618, the pointer information generation unit 123 generates pointer information according to the finger contact position 105 (step S619). Next, the projection image signal generation unit 125 generates a projection image signal for projecting the generated pointer information and the controlled (updated) image onto the screen 200 (step S620). Next, the projector optical system 13 and the projector control unit 130 project the pointer information and the controlled (updated) image onto the screen 200, and the projected image 201 is displayed (step S621).

次いで、接触判定部121によって、指がタッチパネル100に接触しているか否かが判定される(ステップS622)。ここで、指が接触していると判定された場合、以上に述べたステップS610乃至ステップS622からなる指による接触・押し込み操作ループが繰り返される。一方、指が接触していないと判定された場合、ユーザの指による操作が終了したものとして、本画像投影方法は終了する。   Next, the contact determination unit 121 determines whether or not the finger is in contact with the touch panel 100 (step S622). Here, when it is determined that the finger is in contact, the finger touch / push operation loop composed of steps S610 to S622 described above is repeated. On the other hand, if it is determined that the finger is not touching, the image projection method is terminated as if the operation by the user's finger has been completed.

以上、詳細に説明したように、本発明のユーザインタフェース装置、画像投影方法及びプログラムによれば、映出された投影像201に、指の接触位置105に相当する位置を指し示すポインタ205が表示される。これにより、映出された投影像201を見て確認しながら、タッチパネル100に対する指での操作を適切に実行することができる。   As described above in detail, according to the user interface device, the image projection method, and the program of the present invention, the pointer 205 indicating the position corresponding to the finger contact position 105 is displayed on the projected image 201. The Thereby, it is possible to appropriately perform an operation with a finger on the touch panel 100 while checking the projected image 201 projected.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1、3、5 携帯型情報機器(ユーザインタフェース装置)
100、30、50 タッチパネル
101、31、51 ディスプレイ
102 触覚応答機構部
103 押圧力検出部
104 アイコン
105、35、55 接触位置
106 ポインタ情報
107 検索結果
111 画面表示制御部
112 アプリケーション処理部
121 接触判定部
122 押圧力判定部
123 ポインタ情報生成部
124 動作・画像制御部
125、525 投影像信号生成部
126 触覚応答制御部
13、32、62 プロジェクタ光学系
130、61 プロジェクタ制御部
131 光源
132 MEMSミラー光学系
133、320、620 投射レンズ
200、40、70 スクリーン
201、41、71 投影像
204 アイコンイメージ
205、45、75 ポインタ
207 検索結果イメージ
52 投影像信号出力端子
6 プロジェクタ
60 投影像信号入力端子
1, 3, 5 Portable information device (user interface device)
DESCRIPTION OF SYMBOLS 100, 30, 50 Touch panel 101, 31, 51 Display 102 Tactile response mechanism part 103 Pressing force detection part 104 Icon 105, 35, 55 Contact position 106 Pointer information 107 Search result 111 Screen display control part 112 Application processing part 121 Contact determination part 122 pressing force determination unit 123 pointer information generation unit 124 operation / image control unit 125, 525 projection image signal generation unit 126 tactile response control unit 13, 32, 62 projector optical system 130, 61 projector control unit 131 light source 132 MEMS mirror optical system 133, 320, 620 Projection lens 200, 40, 70 Screen 201, 41, 71 Projected image 204 Icon image 205, 45, 75 Pointer 207 Search result image 52 Projected image signal output terminal 6 Pro Jector 60 Projected image signal input terminal

Claims (8)

画像を画面に表示するディスプレイと、該ディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルと、該タッチパネルに接触した当該指によって与えられる押圧力を検出する押圧力検出部とを備えており、当該画像に対応する投影像を投影対象に映出するための信号を生成するユーザインタフェース装置であって、
当該指が前記タッチパネルに接触したか否かを判定する接触判定手段と、
前記押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
前記接触判定手段が真の判定を行った際、接触した当該指による操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御し、さらに前記押圧力判定手段が真の判定を行った際、当該指による押し込み操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御する動作・画像制御手段と、
前記接触判定手段が真の判定を行った際、前記投影対象に映出された投影像内の位置であって、当該指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成するポインタ情報生成手段と、
前記ポインタ情報と、前記動作・画像制御手段によって制御された画像とを前記投影対象に投影するための投影像信号を生成する投影像信号生成手段と
を有することを特徴とするユーザインタフェース装置。
A display that displays an image on the screen, a touch panel that is arranged on the screen of the display and that sequentially outputs the contact position of the finger as time elapses, and a pressing force that detects the pressing force applied by the finger that touched the touch panel A user interface device that generates a signal for projecting a projection image corresponding to the image onto a projection target,
Contact determination means for determining whether or not the finger touches the touch panel;
A pressing force determining means for determining whether or not the pressing force is equal to or greater than a predetermined threshold;
When the contact determination means makes a true determination, an action corresponding to the operation by the touched finger is activated, an image displayed on the screen is controlled according to the action, and the pressing force determination means An action / image control means for activating an action corresponding to the pushing operation by the finger when performing a true determination, and controlling an image displayed on the screen according to the action;
Pointer information for projecting a pointer indicating a position corresponding to the contact position of the finger, which is a position in the projected image projected on the projection target when the contact determination unit makes a true determination Pointer information generating means for generating
A user interface device comprising: a projection image signal generation unit configured to generate a projection image signal for projecting the pointer information and an image controlled by the operation / image control unit onto the projection target.
前記接触判定手段は、当該指の接触位置が前記ディスプレイに表示された画像に含まれる操作対象であるオブジェクトの表示位置範囲と重畳したか否かを判定し、
前記動作・画像制御手段は、前記接触判定手段が当該オブジェクトの表示位置範囲に関して真の判定を行い且つ前記押圧力判定手段が真の判定を行った際、当該オブジェクトの機能を発動させる操作が行われたとして対応する動作を発動させ、該動作に応じて前記画面に表示された画像を制御する
ことを特徴とする請求項1に記載のユーザインタフェース装置。
The contact determination unit determines whether or not the contact position of the finger is superimposed on a display position range of an object that is an operation target included in an image displayed on the display;
The movement / image control means performs an operation to activate the function of the object when the contact determination means makes a true determination regarding the display position range of the object and the pressing force determination means makes a true determination. 2. The user interface device according to claim 1, wherein a corresponding operation is activated as a failure, and an image displayed on the screen is controlled in accordance with the operation.
前記接触判定手段が当該オブジェクトの表示位置範囲に関して真の判定を行った際、前記動作・画像制御手段は、当該オブジェクトを選択する操作が行われたとして対応する動作を発動させ、該動作に応じて前記画面に表示された画像を制御することを特徴とする請求項2に記載のユーザインタフェース装置。   When the contact determination means makes a true determination regarding the display position range of the object, the action / image control means activates a corresponding action on the assumption that an operation for selecting the object has been performed. The user interface device according to claim 2, wherein an image displayed on the screen is controlled. 前記投影像信号を、外部のプロジェクタに出力するための投影像信号出力端子をさらに有することを特徴とする請求項1から3のいずれか1項に記載のユーザインタフェース装置。   4. The user interface device according to claim 1, further comprising a projection image signal output terminal for outputting the projection image signal to an external projector. 5. 前記ポインタ情報と、前記動作・画像制御手段によって制御された画像とを前記投影対象に投影するプロジェクタ光学系と、
前記投影像信号を入力し、該投影像信号に応じて前記プロジェクタ光学系を制御するプロジェクタ制御手段と
をさらに有することを特徴とする請求項1から4のいずれか1項に記載のユーザインタフェース装置。
A projector optical system that projects the pointer information and the image controlled by the operation / image control means onto the projection target;
5. The user interface device according to claim 1, further comprising a projector control unit that inputs the projection image signal and controls the projector optical system according to the projection image signal. 6. .
ユーザの操作から見て、前記投影対象に映出された前記ポインタの指し示す位置を見て確認しつつ当該指による操作を実行することができるように、前記投影像信号生成手段は、該ポインタに対応するポインタ情報を含む投影像信号を生成することを特徴とする請求項1から5のいずれか1項に記載のユーザインタフェース装置。   The projection image signal generating means is provided with the pointer so that the operation with the finger can be executed while checking the position indicated by the pointer projected on the projection target as seen from the user's operation. The user interface device according to claim 1, wherein a projection image signal including corresponding pointer information is generated. 画像を画面に表示するディスプレイと、該ディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルと、該タッチパネルに接触した当該指によって与えられる押圧力を検出する押圧力検出部とを備えており、当該画像に対応する投影像を投影対象に映出するための信号を生成するユーザインタフェース装置に搭載されたプログラムであって、
当該指が前記タッチパネルに接触したか否かを判定する接触判定手段と、
前記押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
前記接触判定手段が真の判定を行った際、接触した当該指による操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御し、さらに前記押圧力判定手段が真の判定を行った際、当該指による押し込み操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御する動作・画像制御手段と、
前記接触判定手段が真の判定を行った際、前記投影対象に映出された投影像内の位置であって、当該指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成するポインタ情報生成手段と、
前記ポインタ情報と、前記動作・画像制御手段によって制御された画像とを前記投影対象に投影するための投影像信号を生成する投影像信号生成手段と
してコンピュータを機能させることを特徴とするユーザインタフェース装置用のプログラム。
A display that displays an image on the screen, a touch panel that is arranged on the screen of the display and that sequentially outputs the contact position of the finger as time elapses, and a pressing force that detects the pressing force applied by the finger that touched the touch panel A program installed in a user interface device that generates a signal for projecting a projection image corresponding to the image onto a projection target,
Contact determination means for determining whether or not the finger touches the touch panel;
A pressing force determining means for determining whether or not the pressing force is equal to or greater than a predetermined threshold;
When the contact determination means makes a true determination, an action corresponding to the operation by the touched finger is activated, an image displayed on the screen is controlled according to the action, and the pressing force determination means An action / image control means for activating an action corresponding to the pushing operation by the finger when performing a true determination, and controlling an image displayed on the screen according to the action;
Pointer information for projecting a pointer indicating a position corresponding to the contact position of the finger, which is a position in the projected image projected on the projection target when the contact determination unit makes a true determination Pointer information generating means for generating
A user interface device that causes a computer to function as a projection image signal generation unit that generates a projection image signal for projecting the pointer information and an image controlled by the operation / image control unit onto the projection target. Program.
画像を画面に表示するディスプレイと、該ディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルと、該タッチパネルに接触した当該指によって与えられる押圧力を検出する押圧力検出部とを備えており、当該画像に対応する投影像を投影対象に映出するための信号を生成するユーザインタフェース装置における画像投影方法であって、
当該指が前記タッチパネルに接触したか否かを判定する第1のステップと、
第1のステップで真の判定がなされた際、接触した当該指による操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御する第2のステップと、
前記押圧力が所定閾値以上であるか否かを判定する第3のステップと、
第1のステップで真の判定がなされ且つ第3のステップで真の判定がなされた際、当該指による押し込み操作に対応した動作を発動させ、該動作に応じて前記画面に表示された画像を制御する第4のステップと、
第1のステップで真の判定がなされた際、前記投影対象に映出された投影像内の位置であって、当該指の接触位置に相当する位置を指し示すポインタを映出するためのポインタ情報を生成する第5のステップと、
前記ポインタ情報と、第2のステップ及び第4のステップで制御された画像とを前記投影対象に投影するための投影像信号を生成する第6のステップと
を有することを特徴とする画像投影方法。
A display that displays an image on the screen, a touch panel that is arranged on the screen of the display and that sequentially outputs the contact position of the finger as time elapses, and a pressing force that detects the pressing force applied by the finger that touched the touch panel An image projection method in a user interface device that generates a signal for projecting a projection image corresponding to the image onto a projection target,
A first step of determining whether the finger touches the touch panel;
When a true determination is made in the first step, a second step of activating an action corresponding to an operation by the touched finger and controlling an image displayed on the screen according to the action;
A third step of determining whether or not the pressing force is equal to or greater than a predetermined threshold;
When the true determination is made in the first step and the true determination is made in the third step, an action corresponding to the pressing operation by the finger is activated, and an image displayed on the screen according to the action is displayed. A fourth step to control;
Pointer information for projecting a pointer indicating a position in the projected image projected on the projection target and corresponding to the contact position of the finger when the true determination is made in the first step A fifth step of generating
An image projection method comprising: a sixth step of generating a projection image signal for projecting the pointer information and the image controlled in the second step and the fourth step onto the projection target. .
JP2011211783A 2011-09-28 2011-09-28 User interface device for generating projected image signal for pointer projection, image projection method and program Active JP5713401B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011211783A JP5713401B2 (en) 2011-09-28 2011-09-28 User interface device for generating projected image signal for pointer projection, image projection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011211783A JP5713401B2 (en) 2011-09-28 2011-09-28 User interface device for generating projected image signal for pointer projection, image projection method and program

Publications (3)

Publication Number Publication Date
JP2013073412A true JP2013073412A (en) 2013-04-22
JP2013073412A5 JP2013073412A5 (en) 2014-01-09
JP5713401B2 JP5713401B2 (en) 2015-05-07

Family

ID=48477866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011211783A Active JP5713401B2 (en) 2011-09-28 2011-09-28 User interface device for generating projected image signal for pointer projection, image projection method and program

Country Status (1)

Country Link
JP (1) JP5713401B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015091008A (en) * 2013-11-05 2015-05-11 パナソニックIpマネジメント株式会社 Lighting system
JP2017068797A (en) * 2015-10-02 2017-04-06 富士通株式会社 Input support system and electronic apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267808A (en) * 1999-03-16 2000-09-29 Oki Electric Ind Co Ltd Input method linking touch panel input device with display device
JP2006331119A (en) * 2005-05-26 2006-12-07 Fujitsu Ltd Information processor used for presentation, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267808A (en) * 1999-03-16 2000-09-29 Oki Electric Ind Co Ltd Input method linking touch panel input device with display device
JP2006331119A (en) * 2005-05-26 2006-12-07 Fujitsu Ltd Information processor used for presentation, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015091008A (en) * 2013-11-05 2015-05-11 パナソニックIpマネジメント株式会社 Lighting system
JP2017068797A (en) * 2015-10-02 2017-04-06 富士通株式会社 Input support system and electronic apparatus

Also Published As

Publication number Publication date
JP5713401B2 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP5295328B2 (en) User interface device capable of input by screen pad, input processing method and program
US8432362B2 (en) Keyboards and methods thereof
JP5808712B2 (en) Video display device
US7176904B2 (en) Information input/output apparatus, information input/output control method, and computer product
JP6251957B2 (en) Display device, head-mounted display device, and display device control method
WO2008011361A2 (en) User interfacing
US9454257B2 (en) Electronic system
WO2011114244A1 (en) Pointer device to navigate a projected user interface
JP2014081807A (en) Touch panel input device, control method therefor and program
JPWO2010047339A1 (en) Touch panel device that operates as if the detection area is smaller than the display area of the display.
JP2006092321A (en) Electronic equipment and touchpad device
JP2009098990A (en) Display device
JP5713401B2 (en) User interface device for generating projected image signal for pointer projection, image projection method and program
JP2011070603A (en) Input device
JP2020135096A (en) Display method, display unit, and interactive projector
JP2012014508A (en) Input device
JP2002236550A (en) Method and device for screen position input
WO2021225044A1 (en) Information processing device, information processing method based on user input operation, and computer program for executing said method
JP4266076B2 (en) Electronic blackboard system
JP4615178B2 (en) Information input / output system, program, and storage medium
JP2003186620A (en) Information processor equipped with display unit with pointing function
JP2010250735A (en) Input device
KR20110032224A (en) System and method for providing user interface by gesture, gesture signal generator and terminal thereof
TW201530350A (en) Electronic apparatus and method for virtual input device
US11698575B2 (en) Projective transformation matrix determination method, projector, and determination system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150305

R150 Certificate of patent or registration of utility model

Ref document number: 5713401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150