JP6193180B2 - Presentation terminal and presentation method - Google Patents

Presentation terminal and presentation method Download PDF

Info

Publication number
JP6193180B2
JP6193180B2 JP2014116479A JP2014116479A JP6193180B2 JP 6193180 B2 JP6193180 B2 JP 6193180B2 JP 2014116479 A JP2014116479 A JP 2014116479A JP 2014116479 A JP2014116479 A JP 2014116479A JP 6193180 B2 JP6193180 B2 JP 6193180B2
Authority
JP
Japan
Prior art keywords
image
finger
touch
unit
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014116479A
Other languages
Japanese (ja)
Other versions
JP2015230587A (en
Inventor
池田 誠
誠 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2014116479A priority Critical patent/JP6193180B2/en
Publication of JP2015230587A publication Critical patent/JP2015230587A/en
Application granted granted Critical
Publication of JP6193180B2 publication Critical patent/JP6193180B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、タッチパネルを備えた端末を使用してプレゼンテーションを行う場合に適用されるプレゼンテーション用端末、及びその端末を使用して行われるプレゼンテーション方法に関する。   The present invention relates to a presentation terminal applied when a presentation is performed using a terminal provided with a touch panel, and a presentation method performed using the terminal.

従来、多数の人に対して、端末の操作方法などをプレゼンテーションする場合、プロジェクタ装置を使用して、操作方法の画像をスクリーンなどに拡大投影し、その投影画像で案内するのが一般的である。この場合、プレゼンテーションを実行する操作者は、レーザーポインタなどを使用して、画像中の操作が必要な箇所を指し示すことで、どの箇所を具体的に操作すればよいかの指示を行う。   Conventionally, when presenting terminal operation methods to a large number of people, it is common to use a projector device to enlarge and project an image of the operation method onto a screen or the like and guide the projected image. . In this case, the operator who performs the presentation uses a laser pointer or the like to point to a part that needs to be operated in the image, thereby giving an instruction as to which part should be specifically operated.

例えば、タブレット端末と称されるタッチパネルを備えた情報処理端末は、表示パネルの表面を操作者が直接タッチして、様々な操作を行うことができる。したがって、タブレット端末の操作を説明するときには、実際のタブレット端末をタッチ操作して表示される画像を、プロジェクタ装置で拡大投影すれば、端末の操作方法を効率よくプレゼンテーションすることができる。   For example, an information processing terminal including a touch panel called a tablet terminal can perform various operations by an operator directly touching the surface of the display panel. Therefore, when explaining the operation of the tablet terminal, if the image displayed by touching the actual tablet terminal is enlarged and projected by the projector device, the operation method of the terminal can be presented efficiently.

しかしながら、実際のタブレット端末に表示される画像は、ユーザが操作した結果の画像であるため、実際のタブレット端末に表示される画像をそのまま拡大投影しただけでは、操作者が、端末をどのようにタッチ操作したのか分からないという問題がある。
すなわち、タブレット端末の画像データ出力端子をプロジェクタ装置に接続して、タブレット端末が表示する画像を拡大投影するだけでは、操作者の指の動きなどは表示されない。このため、指を動かす方向や動かす速度などに特徴がある操作を、このような拡大投影で的確に説明することは困難である。
However, since the image displayed on the actual tablet terminal is an image obtained as a result of the user's operation, the operator can view how the terminal is displayed simply by enlarging and projecting the image displayed on the actual tablet terminal. There is a problem of not knowing whether the touch operation has been performed.
That is, the movement of the operator's finger or the like is not displayed only by connecting the image data output terminal of the tablet terminal to the projector device and enlarging and projecting the image displayed on the tablet terminal. For this reason, it is difficult to accurately explain an operation characterized by the direction in which the finger is moved or the speed at which the finger is moved, using such an enlarged projection.

特許文献1には、携帯端末の画像をプロジェクタ装置が投影してプレゼンテーションを行う場合に、携帯端末のタッチパネルのタッチ軌跡を投影画像に合成する点についての記載がある。   Japanese Patent Application Laid-Open No. 2004-228688 describes a point where a touch trajectory of a touch panel of a mobile terminal is combined with a projected image when a projector device projects an image of the mobile terminal to perform a presentation.

特開2013−73595号公報JP 2013-73595 A

特許文献1には、端末のタッチパネルのタッチ軌跡をマーカーとして表示する方法が記載されている。しかしながら、このようなタッチ軌跡をマーカーとして表示した場合、その表示画像を見ている者には、どこをタッチしたのかが分かるだけであり、より詳細な操作状況までは分からない。すなわち、近年、タブレット端末のタッチパネルを使用した操作は、非常に複雑化しており、指を動かす速さや方向などにより、指示を行う内容が様々であり、そのような複雑な操作を、タッチ軌跡だけで指示することは簡単ではない。特に、タブレット端末では、複数本の指を使用したマルチタッチによる操作があるが、マーカーによるタッチ軌跡の表示では、このようなマルチタッチの操作を的確に表示することは困難であった。   Patent Document 1 describes a method of displaying a touch locus on a touch panel of a terminal as a marker. However, when such a touch trajectory is displayed as a marker, a person viewing the display image can only know where the user touched, and does not know the detailed operation status. In other words, in recent years, operations using the touch panel of a tablet terminal have become very complicated, and there are various contents to be instructed depending on the speed and direction of moving a finger. It is not easy to tell with. In particular, in a tablet terminal, there are multi-touch operations using a plurality of fingers, but it is difficult to accurately display such multi-touch operations when displaying a touch trajectory with a marker.

この問題点を解決するためには、例えば端末とは別にビデオカメラを用意して、そのビデオカメラで操作者がタッチパネルを操作する様子を撮影して、撮影画像を投射することが考えられる。しかしながら、端末とは別にビデオカメラを用意すると、プレゼンテーションを行うためのシステム構成が非常に大がかりなものになる。また、ビデオカメラで撮影した画像には、天井の照明の映り込みが入る可能性が高く、非常に見にくい画像になってしまうという問題がある。さらに、ビデオカメラは、端末の表示パネルに表示される画面を撮影する位置に固定する必要があり、ビデオカメラを固定するための複雑な機構が必要になるという問題もある。   In order to solve this problem, for example, it is conceivable that a video camera is prepared separately from the terminal, the operator operates the touch panel with the video camera, and a captured image is projected. However, if a video camera is prepared separately from the terminal, the system configuration for giving a presentation becomes very large. In addition, there is a problem that an image taken with a video camera is likely to be reflected in the ceiling lighting, resulting in an image that is very difficult to see. Furthermore, the video camera needs to be fixed at a position where the screen displayed on the display panel of the terminal is photographed, and there is a problem that a complicated mechanism for fixing the video camera is required.

本発明のプレゼンテーション用端末及びプレゼンテーション方法は、タッチパネル付きの端末の操作のプレゼンテーションが、プロジェクタ装置などを使って良好にできるようにすることを目的とする。   It is an object of the present invention to provide a presentation terminal and a presentation method that can favorably present an operation of a terminal with a touch panel using a projector device or the like.

本発明のプレゼンテーション用端末は、表示部と、表示部のパネル表面のタッチを検出するタッチ入力検出部と、画像合成部と、画像出力部と、カメラとを備える。
カメラは、表示部のパネルが配置された側の周囲を撮影する。
画像合成部は、タッチ入力検出部で検出したタッチ状態に応じて、表示部が表示する画像に手指の画像を合成する。このとき、カメラが撮影した画像に基づいて、表示部のパネル表面に近接した手指の画像を合成すると共に、合成する合成する手指の画像は、タッチ入力検出部が検出したタッチの数に応じて決まる形状の手指の画像で、且つ、表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像である。
画像出力部は、画像合成部が合成した画像データを出力する。
The presentation terminal of the present invention includes a display unit, a touch input detection unit that detects a touch on the panel surface of the display unit, an image composition unit, an image output unit, and a camera .
The camera takes a picture of the periphery of the display panel side.
The image composition unit synthesizes the image of the finger with the image displayed on the display unit according to the touch state detected by the touch input detection unit. At this time, based on the image captured by the camera, the image of the finger adjacent to the panel surface of the display unit is synthesized, and the synthesized finger image is synthesized according to the number of touches detected by the touch input detection unit. It is an image of a finger with a shape determined, and a finger selected according to the size of the panel included in the display unit is an image of a finger touching the panel.
The image output unit outputs the image data synthesized by the image synthesis unit.

また、本発明のプレゼンテーション用端末は、表示部とタッチ入力検出部を備える代わりに、入力部を備えるようにしてもよい。
この場合、入力部からは、他の端末の表示部で表示された画像データと、他の端末の表示部のパネル表面のタッチ位置のデータとが入力される。そして、画像合成部は、入力部から入力された画像データによる画像に、タッチ状態に応じた手指の画像を合成する。この場合、画像合成部は、他の端末に配置されたセンサ及びカメラから得られた、表示部のパネルの底面の方向及び指の向きの情報に基づいて、入力部に入力した画像データによる画像に手指の画像を合成する方向を設定するようにした。
The presentation terminal of the present invention may include an input unit instead of the display unit and the touch input detection unit.
In this case, the image data displayed on the display unit of the other terminal and the touch position data on the panel surface of the display unit of the other terminal are input from the input unit. Then, the image composition unit synthesizes an image of a finger corresponding to the touch state with the image based on the image data input from the input unit. In this case, the image composition unit obtains an image based on the image data input to the input unit based on the information on the direction of the bottom surface of the panel of the display unit and the direction of the finger obtained from the sensors and cameras arranged in other terminals. The direction to synthesize finger images is set to.

また、本発明のプレゼンテーション方法は、画像取得処理と、タッチ入力検出処理と、画像合成処理と、画像出力処理とを行う。
画像取得処理は、タッチパネル付きの表示部が表示した画像を取得する。
タッチ入力検出処理は、タッチパネルでのタッチ状態を検出する。
画像合成処理は、タッチ位置検出処理で検出したタッチ状態に応じて、画像取得処理で取得した画像に手指の画像を合成する。この画像を合成する際には、表示部のパネルが配置された側の周囲を撮影するカメラの撮影画像に基づいて、表示部のパネル表面に近接した手指の画像を合成すると共に、合成する合成する手指の画像は、タッチ入力検出処理で検出したタッチの数に応じて決まる形状の手指の画像で、且つ、表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像とした。
画像出力処理は、画像合成処理で合成された画像データを出力する。
The presentation method of the present invention performs an image acquisition process, a touch input detection process, an image composition process, and an image output process.
The image acquisition process acquires an image displayed by a display unit with a touch panel.
The touch input detection process detects a touch state on the touch panel.
The image composition process synthesizes an image of a finger with the image acquired by the image acquisition process according to the touch state detected by the touch position detection process. When synthesizing this image, the image of the finger adjacent to the panel surface of the display unit is synthesized based on the photographed image of the camera that captures the periphery of the side where the panel of the display unit is arranged, and the synthesis is performed. The finger image is a finger image having a shape determined according to the number of touches detected in the touch input detection process, and a finger selected according to the size of the panel included in the display unit touches the panel. It was an image.
The image output process outputs the image data synthesized by the image synthesis process.

本発明によると、例えば端末が出力する画像データをプロジェクタ装置に送ってスクリーンに投射することで、投射画像には、端末のパネルをプレゼンターがタッチする手と同様の手指が表示されるようになる。したがって、端末のタッチ操作の詳細と、そのタッチ操作で生じる画面遷移を、多数の人に良好にプレゼンテーションすることが可能になる。
また、端末が出力する画像データを、遠隔地の受講者に伝送することで、遠隔地の人にも良好にプレゼンテーションすることが可能になる。
According to the present invention, for example, image data output from a terminal is sent to a projector device and projected onto a screen, so that a finger similar to a hand touching a panel of the terminal by a presenter is displayed in the projected image. . Therefore, the details of the touch operation of the terminal and the screen transition caused by the touch operation can be presented well to many people.
In addition, by transmitting image data output from the terminal to a remote student, it is possible to make a good presentation to a remote person.

本発明の第1の実施の形態例によるシステム構成を示す説明図である。It is explanatory drawing which shows the system configuration | structure by the 1st Example of this invention. 本発明の第1の実施の形態例による端末の構成を示すブロック図である。It is a block diagram which shows the structure of the terminal by the 1st Example of this invention. 本発明の第1の実施の形態例による表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the display process by the 1st Example of this invention. 本発明の第1の実施の形態例による表示例(一点タッチの例)を示す説明図である。It is explanatory drawing which shows the example of a display (example of one point touch) by the 1st Example of this invention. 本発明の第1の実施の形態例による表示例(一点タッチ後のリリース操作の例)を示す説明図である。It is explanatory drawing which shows the example of a display by the 1st Example of this invention (example of release operation after one point touch). 本発明の第1の実施の形態例による表示例(二点タッチの例)を示す説明図である。It is explanatory drawing which shows the example of a display (example of two-point touch) by the 1st Example of this invention. 本発明の第1の実施の形態例による表示例(二点タッチ後のピンチイン操作の例)を示す説明図である。It is explanatory drawing which shows the example of a display by the 1st Example of this invention (example of pinch in operation after two-point touch). 本発明の第1の実施の形態例による表示例(二点タッチ後のピンチアウト操作の例)を示す説明図である。It is explanatory drawing which shows the example of a display by the 1st Example of this invention (example of pinch out operation after two-point touch). 本発明の第1の実施の形態例による表示例(二点タッチ後のドラッグ操作の例)を示す説明図である。It is explanatory drawing which shows the example of a display by the 1st Example of this invention (example of drag operation after two-point touch). 本発明の第1の実施の形態例による表示例(二点タッチ後のリリース操作の例)を示す説明図である。It is explanatory drawing which shows the example of a display by the 1st Example of this invention (example of release operation after two-point touch). 本発明の第1の実施の形態例による表示例(三点タッチの例)を示す説明図である。It is explanatory drawing which shows the example of a display (example of a three-point touch) by the 1st Example of this invention. 端末の種類とサイズによって操作を行う指の相違を示す説明図である。It is explanatory drawing which shows the difference of the finger which operates by the kind and size of a terminal. 本発明の第1の実施の形態例による端末の種類と指の割り当てを示す説明図である。It is explanatory drawing which shows the kind of terminal and allocation of a finger | toe by the 1st Example of this invention. 本発明の第2の実施の形態例によるシステム構成を示す説明図である。It is explanatory drawing which shows the system configuration | structure by the 2nd Example of this invention. 本発明の第2の実施の形態例による端末の構成を示すブロック図である。It is a block diagram which shows the structure of the terminal by the 2nd Example of this invention. 本発明の第2の実施の形態例による表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the display process by the 2nd Example of this invention. 本発明の実施の形態例の変形例を示す説明図である。It is explanatory drawing which shows the modification of the example of embodiment of this invention.

<1.第1の実施の形態の例>
以下、本発明の第1の実施の形態例を、図1〜図13を参照して説明する。
[1−1.システム全体の構成例]
図1は、本発明の第1の実施の形態例のシステム全体の概要を示す図である。
図1に示すように、このシステムでは、端末100とプロジェクタ装置200が用意される。端末100は、プレゼンターが操作方法をプレゼンテーションする機器である。端末100は、表示部110の表示パネルがタッチパネルを備え、利用者が指でタッチパネルをタッチすることで様々な操作を行うことができる。ここでは、端末100として、表示パネルの対角線のサイズが10インチ程度のタブレット端末を使用する。但し、タブレット端末を使用するのは1つの例であり、その他の形態のタッチパネル付きの端末を使用してもよい。
<1. Example of First Embodiment>
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
[1-1. Example of overall system configuration]
FIG. 1 is a diagram showing an overview of the entire system according to the first embodiment of the present invention.
As shown in FIG. 1, in this system, a terminal 100 and a projector device 200 are prepared. The terminal 100 is a device in which a presenter presents an operation method. In the terminal 100, the display panel of the display unit 110 includes a touch panel, and the user can perform various operations by touching the touch panel with a finger. Here, as the terminal 100, a tablet terminal having a display panel diagonal line size of about 10 inches is used. However, the use of a tablet terminal is one example, and a terminal with a touch panel in another form may be used.

端末100は、出力ポート101から画像データが出力される。この出力される画像データは、伝送ケーブル102を介してプロジェクタ装置200に供給される。プロジェクタ装置200は、端末100から伝送された画像をスクリーン210に拡大投射する。このスクリーン210上での投射画像220により、端末100の操作方法がプレゼンテーションされる。   The terminal 100 outputs image data from the output port 101. The output image data is supplied to the projector device 200 via the transmission cable 102. The projector device 200 enlarges and projects the image transmitted from the terminal 100 onto the screen 210. The operation method of the terminal 100 is presented by the projected image 220 on the screen 210.

プレゼンターがプレゼンテーションする操作は、端末100の表示部110の表示パネル上を指fでタッチして行う操作である。端末100をタッチ操作する指fは、プレゼンターの指である。したがって、端末100の表示部110に表示される画像を、そのままプロジェクタ装置200に伝送して、スクリーン210に投射したとしても、投射画像220には、指fは表示されない。   The operation of giving a presentation by the presenter is an operation performed by touching the display panel of the display unit 110 of the terminal 100 with the finger f. The finger f touch-operating the terminal 100 is a presenter's finger. Therefore, even if the image displayed on the display unit 110 of the terminal 100 is directly transmitted to the projector device 200 and projected onto the screen 210, the finger f is not displayed on the projected image 220.

ここで本実施の形態例においては、図1に示すように、スクリーン210上に、端末表示画像222に操作手指223を合成した投射画像220を表示するようにした。また、端末100の外形形状とほぼ等しい筐体画像221をスクリーン220上に表示し、その筐体画像221の表示パネルの箇所に、端末表示画像222を表示するようにした。これらの投射画像220の元になる画像データを作成する処理は、端末100の内部で行われ、プロジェクタ装置200は、端末100から伝送された画像をそのままスクリーン210に投射する。したがって、プロジェクタ装置200は、本実施の形態例の処理を行う上で特別な処理を必要としない。   Here, in the present embodiment, as shown in FIG. 1, a projection image 220 in which the operating finger 223 is combined with the terminal display image 222 is displayed on the screen 210. In addition, a case image 221 that is substantially the same as the outer shape of the terminal 100 is displayed on the screen 220, and the terminal display image 222 is displayed at the position of the display panel of the case image 221. The process of creating image data that is the basis of these projection images 220 is performed inside the terminal 100, and the projector device 200 projects the image transmitted from the terminal 100 onto the screen 210 as it is. Therefore, the projector device 200 does not require any special processing when performing the processing of the present embodiment.

[1−2.端末の構成例]
図2は、端末100の内部構成を示す図である。
端末100は、表示部110と制御部120とを備える。表示部110の表示パネルには、タッチパネルが一体化され、制御部120内のタッチ入力検出部121がタッチ操作を検出する。
[1-2. Example of terminal configuration]
FIG. 2 is a diagram illustrating an internal configuration of the terminal 100.
The terminal 100 includes a display unit 110 and a control unit 120. A touch panel is integrated with the display panel of the display unit 110, and a touch input detection unit 121 in the control unit 120 detects a touch operation.

制御部120は、表示部110に表示される画像を記憶する第1フレームメモリ122を備える。この第1フレームメモリ122には、端末100に実装されたアプリケーションプログラムを実行することにより得られた画像が記憶される。なお、アプリケーションプログラムは、記憶部133に記憶されている。
端末100が実行中のアプリケーションプログラムは、タッチパネルのタッチ操作で様々な操作の指示を行うものである。例えば、端末100は、タッチ操作により表示画像を切り替える操作や、表示中の画像に関連した別の情報を表示する操作や、表示中の画像の拡大又は縮小を指示する操作などを行うことができる。
The control unit 120 includes a first frame memory 122 that stores an image displayed on the display unit 110. The first frame memory 122 stores an image obtained by executing an application program installed in the terminal 100. The application program is stored in the storage unit 133.
The application program being executed by the terminal 100 instructs various operations by touch operations on the touch panel. For example, the terminal 100 can perform an operation of switching a display image by a touch operation, an operation of displaying other information related to the displayed image, an operation of instructing enlargement or reduction of the displayed image, and the like. .

また、制御部120は、第1フレームメモリ122に記憶された表示中の画像データを、画像合成部123に供給する。画像合成部123では、図1で説明した筐体画像や手指の画像を合成する処理が行われる。画像合成部123で合成処理が行われた画像データは第2フレームメモリ124に供給され、第2フレームメモリ124に記憶される。
画像合成部123で合成される筐体画像や手指の画像のデータは、例えば記憶部133に予め記憶されている。この画像合成部123で合成される手指の画像については、例えば、手指が綺麗な人物(モデル、タレントなど)の手指を撮影して得た画像とするのが好ましい。また、記憶部133には、制御部120が実行する制御処理に必要なデータも記憶されている。
第2フレームメモリ124に記憶された画像合成後の画像データは、出力ポート101から外部に出力される。出力ポート101は、所定の伝送フォーマットで画像データを出力する画像出力部として機能するものである。この出力ポート101には、図1に示す伝送ケーブル102が接続される。
In addition, the control unit 120 supplies the image data being displayed stored in the first frame memory 122 to the image composition unit 123. The image composition unit 123 performs a process of compositing the housing image and the finger image described with reference to FIG. The image data subjected to the composition processing by the image composition unit 123 is supplied to the second frame memory 124 and stored in the second frame memory 124.
Data of the case image and finger image synthesized by the image synthesis unit 123 is stored in advance in the storage unit 133, for example. The finger image synthesized by the image synthesizing unit 123 is preferably an image obtained by photographing a finger of a person (model, talent, etc.) with a beautiful finger, for example. The storage unit 133 also stores data necessary for control processing executed by the control unit 120.
The image data after image synthesis stored in the second frame memory 124 is output from the output port 101 to the outside. The output port 101 functions as an image output unit that outputs image data in a predetermined transmission format. A transmission cable 102 shown in FIG. 1 is connected to the output port 101.

また、端末100は、重力が働く方向を検出する重力センサ131を備え、端末100を構成する筐体の向きを検出する。すなわち、制御部120は、重力センサ131の検出データに基づいて、筐体の向きが、表示パネルが縦長になる向きと、表示パネルが横長になる向きの、いずれであるかを判断する。この制御部120での向きの判断に基づいて、制御部120は、表示部110に表示される画像の縦と横の方向や、下側や上側となる方向を決める。   In addition, the terminal 100 includes a gravity sensor 131 that detects the direction in which gravity works, and detects the orientation of the casing that constitutes the terminal 100. That is, the control unit 120 determines, based on the detection data of the gravity sensor 131, whether the orientation of the housing is a direction in which the display panel is vertically long or a direction in which the display panel is horizontally long. Based on the orientation determination by the control unit 120, the control unit 120 determines the vertical and horizontal directions of the image displayed on the display unit 110 and the lower and upper directions.

さらに、端末100は、フェイスカメラ132と操作スイッチ134を備える。フェイスカメラ132は、図1に示すように、端末100の表示パネルの上部に配置され、表示パネルの近傍を撮影するものである。フェイスカメラ132は、通常、端末100に近接した操作者の顔などを撮影するものであるが、本実施の形態の例では、表示パネルに近接した手指を撮影する。制御部120は、フェイスカメラ132が撮影した画像から、表示パネルに近接した手指を検出する。なお、フェイスカメラ132は、手指の検出を行うために撮影を行う際には、制御部120の制御で、フォーカスが合う範囲を、表示パネル面から数センチから10センチ程度の非常に近い範囲にオートフォーカス機能で設定する。なお、通常時には、フォーカスが合う範囲は、より遠い範囲に設定されている。
操作スイッチ134は、例えば端末100の筐体の側面などに配置されるスイッチである。端末100が実行中のアプリケーションプログラムによっては、この操作スイッチ134の操作が必要となる場合もある。
Further, the terminal 100 includes a face camera 132 and an operation switch 134. As shown in FIG. 1, the face camera 132 is arranged on the upper part of the display panel of the terminal 100 and photographs the vicinity of the display panel. The face camera 132 normally captures an operator's face or the like close to the terminal 100. In the example of the present embodiment, the face camera 132 captures a finger close to the display panel. The control unit 120 detects a finger close to the display panel from the image captured by the face camera 132. Note that when the face camera 132 performs shooting to detect a finger, the control unit 120 controls the focus range to be very close to several centimeters to 10 centimeters from the display panel surface. Set the auto focus function. In normal times, the range in focus is set to a farther range.
The operation switch 134 is a switch arranged on the side surface of the casing of the terminal 100, for example. Depending on the application program being executed by the terminal 100, the operation switch 134 may need to be operated.

[1−3.表示処理の流れの例]
次に、端末100が行う表示処理の流れを、図3のフローチャートを参照して説明する。図3のフローチャートでは、端末100の制御部120が行う表示のための制御の流れをステップS11〜S13で示すと共に、制御部120内の画像合成部123で行われる画像処理の流れをステップS21〜S23で示す。さらに図3のフローチャートでは、制御部120とその周辺部とのデータのやり取りについても、破線で示す。
[1-3. Example of display processing flow]
Next, the flow of display processing performed by the terminal 100 will be described with reference to the flowchart of FIG. In the flowchart of FIG. 3, the flow of control for display performed by the control unit 120 of the terminal 100 is shown in steps S <b> 11 to S <b> 13, and the flow of image processing performed in the image composition unit 123 in the control unit 120 is steps S <b> 21 to S <b> 13. Shown in S23. Further, in the flowchart of FIG. 3, data exchange between the control unit 120 and its peripheral part is also indicated by a broken line.

制御部120が行う制御としては、まず制御部120で、表示部110のタッチパネルでタッチされた位置などを判断するタッチ入力検出処理が行われる(ステップS11)。この制御部120によるタッチ位置の判断は、表示部110に配置されたタッチパネルのタッチ入力検出部121におけるタッチ位置の検出に基づいて行われる。
次に、制御部120は、手指の検出処理を行う(ステップS12)。ここでは、制御部120は、ステップS11で判断したタッチ位置と、重力センサ131の検出データと、フェイスカメラ132が撮影した画像データとを使用する。すなわち、重力センサ131での検出データに基づいて、表示部110の表示パネルの底面(下側)がどの方向かを判断する。また、フェイスカメラ132が撮影した画像から、手指が表示パネルに接近しているか否かを判断する。これらの判断に基づいて、タッチパネルへのタッチを検出した際には、そのタッチした指の向きなどを判断する。また、タッチパネルでタッチを検出しない状態で、フェイスカメラ132の撮影画像から手指を検出したときには、制御部120は、タッチパネルに手指が接近した状態であると判断する。
As the control performed by the control unit 120, first, the control unit 120 performs a touch input detection process for determining a position touched on the touch panel of the display unit 110 (step S11). The determination of the touch position by the control unit 120 is performed based on the detection of the touch position in the touch input detection unit 121 of the touch panel arranged on the display unit 110.
Next, the control unit 120 performs finger detection processing (step S12). Here, the control unit 120 uses the touch position determined in step S11, the detection data of the gravity sensor 131, and the image data captured by the face camera 132. That is, based on the detection data from the gravity sensor 131, it is determined which direction the bottom surface (lower side) of the display panel of the display unit 110 is. Further, it is determined from the image captured by the face camera 132 whether or not the finger is approaching the display panel. Based on these determinations, when the touch on the touch panel is detected, the direction of the touched finger is determined. Further, when a finger is detected from a captured image of the face camera 132 in a state where no touch is detected on the touch panel, the control unit 120 determines that the finger is close to the touch panel.

そして、制御部120は、ステップS11,S12でのタッチ位置などの判断に基づいて、表示部110に表示する画像を確定し、その表示画像を第1フレームメモリ122に描画する(ステップS13)。ここでは、制御部120は、例えば表示画像中の特定箇所がタッチ操作で選択されたとき、その選択箇所の画像に変形を加える等の効果を施し、アプリケーションプログラムの実行状況に応じた画像処理を行う。表示部110は、第1フレームメモリ122に描画された画像の表示を行う。
制御部120では、表示部110が画像を表示する間、このステップS11,S12,S13の処理が繰り返し実行される。
Then, the control unit 120 determines an image to be displayed on the display unit 110 based on the determination of the touch position in Steps S11 and S12, and draws the display image in the first frame memory 122 (Step S13). Here, for example, when a specific location in the display image is selected by a touch operation, the control unit 120 performs an effect such as modifying the image at the selected location, and performs image processing according to the execution status of the application program. Do. The display unit 110 displays an image drawn in the first frame memory 122.
In the control unit 120, while the display unit 110 displays an image, the processes in steps S11, S12, and S13 are repeatedly executed.

また、上述した表示部110での表示処理と並行して、画像合成部123において、出力ポート101から出力される画像データの生成処理が行われる。すなわち、画像合成部123は、ステップS13で第1フレームメモリ122に描画された画像データを取り込み、表示用の画像データを取得する画像取得処理を行う(ステップS21)。   In parallel with the display processing on the display unit 110 described above, the image composition unit 123 performs processing for generating image data output from the output port 101. That is, the image composition unit 123 performs image acquisition processing for acquiring the image data for display by capturing the image data drawn in the first frame memory 122 in step S13 (step S21).

次に、画像合成部123は、画像に手指画像を合成する処理を行う(ステップS22)。このとき、画像合成部123は、制御部120がステップS12で検出した手指の位置に手指画像を合成する。また、画像合成部123は、第1フレームメモリ122から得た画像の周囲に、端末の筐体画像を合成する。これらの手指画像や筐体画像は、記憶部133から読み出した画像である。
なお、後述する例のように、手指の状態によっては、手指画像を合成する際の、その手指の影の画像を付加する場合がある。この影の画像も、記憶部133に予め記憶されている画像である。
Next, the image synthesis unit 123 performs a process of synthesizing a finger image with the image (step S22). At this time, the image synthesis unit 123 synthesizes a finger image at the position of the finger detected by the control unit 120 in step S12. Further, the image composition unit 123 synthesizes the case image of the terminal around the image obtained from the first frame memory 122. These finger images and case images are images read from the storage unit 133.
Note that, as in the example described later, depending on the state of the finger, a shadow image of the finger when the finger image is synthesized may be added. This shadow image is also an image stored in the storage unit 133 in advance.

そして、画像合成部123は、合成された画像を第2フレームメモリ124に供給し、第2フレームメモリ124上で端末の筐体や手指が合成された画像を描画する(ステップS23)。この第2フレームメモリ124で描画された画像が、出力ポート101から外部に出力され、プロジェクタ装置200でスクリーン210に投射される。
画像合成部123では、表示部110が画像を表示する間、このステップS21,S22,S23の処理が繰り返し実行される。
Then, the image synthesis unit 123 supplies the synthesized image to the second frame memory 124, and draws an image in which the terminal housing and fingers are synthesized on the second frame memory 124 (step S23). The image drawn in the second frame memory 124 is output to the outside from the output port 101 and projected onto the screen 210 by the projector device 200.
In the image composition unit 123, the processes in steps S21, S22, and S23 are repeatedly executed while the display unit 110 displays an image.

[1−4.一点タッチの表示例]
次に、プレゼンターが端末100を操作したときに、スクリーン210上が表示する画像の例を説明する。
まず、図4を参照して、プレゼンターが端末100の表示パネル上の一点をタッチしたときに、スクリーン210上に表示される画像の例を説明する。
[1-4. Display example of single point touch]
Next, an example of an image displayed on the screen 210 when the presenter operates the terminal 100 will be described.
First, an example of an image displayed on the screen 210 when the presenter touches one point on the display panel of the terminal 100 will be described with reference to FIG.

図4Aは、制御部120による指のタッチ認識と近接認識が行われる期間を示す。図4Bは、プレゼンターの手指による端末100(実機)の表示パネルの表面のタッチ操作状態を示す。図4Cは、スクリーン210に投射される画像を示す。これら図4A,B,Cは、それぞれ左から右に操作状態が進んで行く様子を示す。後述する図5〜図11についても、同様に各図のAが、タッチ認識と近接認識が行われる期間を示し、各図のBがプレゼンターの手指によるタッチ操作状態を示し、各図のCが端末100の第2フレームメモリ124に描画されて、スクリーン210に投射される画像を示す。また、プレゼンターが実際に操作を説明する際には、何らかの画像が端末100や投射画像内の端末に表示されているが、図4〜図11では、端末内の表示画像は省略する。   FIG. 4A shows a period during which finger touch recognition and proximity recognition are performed by the control unit 120. FIG. 4B shows a touch operation state on the surface of the display panel of the terminal 100 (actual machine) by the finger of the presenter. FIG. 4C shows an image projected on the screen 210. 4A, 4B, and 4C show how the operation state proceeds from left to right. 5 to 11 described later, similarly, A in each figure indicates a period during which touch recognition and proximity recognition are performed, B in each figure indicates a touch operation state by a presenter's finger, and C in each figure indicates An image drawn on the second frame memory 124 of the terminal 100 and projected onto the screen 210 is shown. Further, when the presenter actually explains the operation, some image is displayed on the terminal 100 or the terminal in the projection image, but the display image in the terminal is omitted in FIGS.

プレゼンターによる操作状態としては、最初の状態は、図4Bに左から順に示すように、表示パネル110−1は、何もタッチされていない状態である。次の表示パネル110−2は、手指f1がパネル表面に近づいた状態である。但し、この表示パネル110−2の状態では、手指f1の位置はパネル表面から遠く、制御部120は、手指の接近を検出しない。したがって、図4Cに示すように、それぞれのタイミングでスクリーン210に投射される画像による筐体画像221−1,222−2には、手指画像が表示されない。   As an operation state by the presenter, the first state is a state where nothing is touched on the display panel 110-1 as shown in order from the left in FIG. 4B. The next display panel 110-2 is in a state where the finger f1 approaches the panel surface. However, in the state of the display panel 110-2, the position of the finger f1 is far from the panel surface, and the control unit 120 does not detect the approach of the finger. Therefore, as shown in FIG. 4C, finger images are not displayed on the case images 221-1 and 222-2 by the images projected on the screen 210 at the respective timings.

図4Aに示すように、フェイスカメラ132が手指の近接を検出したタイミングt1になると、図4Bに示す表示パネル110−3のほぼ中央に手指f1が近接した状態に変化する。このとき、図4Cに示すように、スクリーン210に投射される筐体画像221−3には、手指画像223−3が合成された状態になる。そして、矢印UPで示すように、筐体画像221−3の下側から手指画像223−3が徐々に上がって行き、図4Cに示す位置になる。この場合、手指画像223−3は、例えば1秒程度の時間をかけて移動する。
また、このように手指f1の近接を検出した際に表示される手指画像223−3には、その手指の影画像224−3が付加されている。この影画像224−3が付加されることで、合成された手指画像223−3による指が、表示パネルの表面から離れた状態であることが分かる表示となる。
As shown in FIG. 4A, at the timing t1 when the face camera 132 detects the proximity of a finger, the finger f1 changes to a state in which the finger f1 is close to the center of the display panel 110-3 shown in FIG. 4B. At this time, as shown in FIG. 4C, the finger image 223-3 is combined with the housing image 221-3 projected onto the screen 210. Then, as indicated by the arrow UP, the finger image 223-3 gradually rises from the lower side of the housing image 221-3, and reaches the position shown in FIG. 4C. In this case, the finger image 223-3 moves over, for example, about 1 second.
In addition, a shadow image 224-3 of the finger is added to the finger image 223-3 displayed when the proximity of the finger f1 is detected in this way. By adding the shadow image 224-3, it is displayed that the finger of the synthesized hand image 223-3 is in a state of being separated from the surface of the display panel.

その後、タッチ入力検出部121でタッチを検出するタイミングt2(図4A参照)で、プレゼンンターは、図4Bに示す表示パネル110−4の特定箇所Aを手指f1でタッチする。この特定箇所Aの位置は、図4Bに示すように、表示パネル上の水平方向xと垂直方向yで決まる。このとき、図4Cに示すように、スクリーン210に投射される筐体画像221−4には、特定箇所Aを人差し指の先端がタッチした手指画像223−4が合成された状態になる。この場合の手指画像223−4にも、その手指の影画像224−4が付加されている。但し、手指画像223−4は、特定箇所Aをタッチした状態を示しているため、タッチ箇所の指の部分では、ほとんど影がない状態であり、タッチ箇所から離れた箇所で、わずかな影を表示した状態である。
なお、図4に示すように一点タッチの際に人差し指がタッチした画像となるのは1つの例であり、手指の画像を合成する際に、タッチを行う指を割り当てる方法については後述する。
Thereafter, at a timing t2 (see FIG. 4A) when the touch input detection unit 121 detects a touch, the presenter touches the specific location A of the display panel 110-4 shown in FIG. 4B with the finger f1. As shown in FIG. 4B, the position of the specific portion A is determined by the horizontal direction x and the vertical direction y on the display panel. At this time, as shown in FIG. 4C, the housing image 221-4 projected on the screen 210 is combined with the finger image 223-4 in which the tip of the index finger touches the specific location A. A finger shadow image 224-4 is also added to the finger image 223-4 in this case. However, since the finger image 223-4 shows a state where the specific location A is touched, there is almost no shadow at the finger portion of the touch location, and a slight shadow is generated at a location away from the touch location. It is in the displayed state.
Note that, as shown in FIG. 4, an image touched by the index finger during one-point touch is one example, and a method for assigning a finger to be touched when a finger image is synthesized will be described later.

[1−5.一点タッチ後のリリース操作時の表示例]
次に、先に図4で説明した一点タッチが行われた後に、手指が表示パネルの表面から離されるリリース操作時の表示例を、図5を参照して説明する。
図5Bの左端に示す表示パネル110−4の手指f1によるタッチ操作状態は、図4Bの右端に示す表示パネル110−4の手指fによるタッチ操作状態と同じ状態である。図5Cの左端に示す手指画像223−4についても、図5Cの左端に示す手指画像223−4と同じである。
[1-5. Display example during release operation after one point touch]
Next, a display example during a release operation in which the finger is released from the surface of the display panel after the one-point touch described above with reference to FIG. 4 is performed will be described with reference to FIG.
The touch operation state with the finger f1 of the display panel 110-4 shown at the left end of FIG. 5B is the same state as the touch operation state with the finger f of the display panel 110-4 shown at the right end of FIG. 4B. The finger image 223-4 shown at the left end in FIG. 5C is the same as the finger image 223-4 shown at the left end in FIG. 5C.

この状態で、図5Aに示すようにタイミングt3で、タッチ入力検出部121により指の特定箇所Aからのリリースが検出され、タイミングt3の直後のタイミングt4で、フェイスカメラ132により手指が近接していない状態が検出されたとする。
このとき、図5Cに示すように、手指画像223−5が筐体画像221−5の表面から離れた状態に合成される。この手指が離れた状態は、手指の影画像224−5の付加で示される。そして、この図5Cに示す手指画像223−5は、矢印DOWNで示すように、時間の経過と共に下側に移動する。このときの手指223−5の下側への移動は、例えば1秒程度の時間で行われる。
そして、図5Bの右端に示すように手指f1が端末100から完全に離れた状態では、図5Cの右端に示すように、投射画像中の筐体画像221−6には手指画像が合成されない。
In this state, as shown in FIG. 5A, at time t3, the touch input detection unit 121 detects the release of the finger from the specific portion A, and at time t4 immediately after time t3, the face camera 132 approaches the finger. Suppose that no state is detected.
At this time, as shown in FIG. 5C, the finger image 223-5 is synthesized in a state separated from the surface of the housing image 221-5. This state in which the fingers are separated is indicated by the addition of a shadow image 224-5 of the fingers. And the finger image 223-5 shown to this FIG. 5C moves below with progress of time, as shown by arrow DOWN. The downward movement of the finger 223-5 at this time is performed in about 1 second, for example.
Then, in the state where the finger f1 is completely separated from the terminal 100 as shown at the right end of FIG. 5B, the finger image is not synthesized with the housing image 221-6 in the projected image as shown at the right end of FIG. 5C.

[1−6.二点タッチの表示例]
図6は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした場合の例である。
最初の状態では、図6Bの左端に示すように、表示パネル110−11は、何もタッチされていない状態であり。次の表示パネル110−12は、手指f2がパネル表面に近づいた状態である。但し、この表示パネル110−12の状態では、手指f2の位置はパネル表面から遠く、制御部120は、まだ手指の接近を検出しない。したがって、図6Cに示すように、それぞれのタイミングでスクリーン210に投射される画像による筐体画像221−11,222−12には、手指画像が表示されない。
[1-6. Display example of two-point touch]
FIG. 6 shows an example in which the presenter touches two points on the display panel of the terminal 100 at the same time.
In the initial state, as shown at the left end of FIG. 6B, the display panel 110-11 is in a state where nothing is touched. In the next display panel 110-12, the finger f2 is close to the panel surface. However, in the state of the display panel 110-12, the position of the finger f2 is far from the panel surface, and the control unit 120 has not yet detected the approach of the finger. Therefore, as shown in FIG. 6C, finger images are not displayed on the case images 221-11 and 222-12 based on the images projected on the screen 210 at the respective timings.

そして、図6Aに示すように、フェイスカメラ132が手指の近接を検出したタイミングt11になると、図6Bに示す表示パネル110−13のほぼ中央に手指f2が近接した状態に変化する。このとき、図6Cに示すように、スクリーン210に投射される筐体画像221−13は、手指画像223−13が合成された状態になる。また、このように手指f2の近接を検出した際に表示される手指画像223−13には、その手指の影画像224−13が付加される。
ここまでは図4に示した一点タッチの場合と同じであり、手指画像223−13は指1本が伸びた画像である。
Then, as shown in FIG. 6A, at the timing t11 when the face camera 132 detects the proximity of the finger, the finger f2 changes to a state in which the finger f2 is close to the approximate center of the display panel 110-13 shown in FIG. 6B. At this time, as shown in FIG. 6C, the case image 221-13 projected on the screen 210 is in a state where the finger image 223-13 is synthesized. In addition, a shadow image 224-13 of the finger is added to the finger image 223-13 displayed when the proximity of the finger f2 is detected in this way.
Up to this point, the finger image 223-13 is the same as the one-point touch shown in FIG.

その後、図6Aに示すように、タッチ入力検出部121でタッチを検出したタイミングt12では、プレゼンターが、図6Bに示す表示パネル110−4の2つの特定箇所A,Bを手指f2a,f2bがタッチした状態とする。2つの特定箇所A,Bは、図6Bに示すように、表示パネル上の水平方向の座標x1,x2と垂直方向の座標y1,y2でタッチ位置が決まる。このとき、図6Cに示すように、スクリーン210に投射される筐体画像221−14には、特定箇所A、Bをそれぞれ別の指でタッチした手指画像223−14が合成された状態になる。手指画像223−14では、左下の特定箇所Aを親指がタッチした状態とし、右上の特定箇所Bを人差し指がタッチした状態とする。このタッチする指の割り当て状態の例は後述する。
また、この場合の手指画像223−14にも、その手指の影画像224−14が付加されている。但し、手指画像223−14は、特定箇所Aをタッチした状態を示しているため、タッチ箇所A、Bの指の部分では、ほとんど影がない状態であり、タッチ箇所A、Bから離れた箇所で、わずかな影を表示した状態である。
Thereafter, as shown in FIG. 6A, at the timing t12 when the touch is detected by the touch input detection unit 121, the presenter touches the two specific locations A and B of the display panel 110-4 shown in FIG. 6B with the fingers f2a and f2b. It will be in the state. As shown in FIG. 6B, the touch positions of the two specific places A and B are determined by the horizontal coordinates x1 and x2 and the vertical coordinates y1 and y2 on the display panel. At this time, as shown in FIG. 6C, the case image 221-14 projected on the screen 210 is combined with the finger image 223-14 that touches the specific locations A and B with different fingers. . In the finger image 223-14, the lower left specific portion A is in a state where the thumb is touched, and the upper right specific portion B is in a state where the index finger is touched. An example of the allocation state of the finger to be touched will be described later.
In addition, the shadow image 224-14 of the finger is also added to the finger image 223-14 in this case. However, since the finger image 223-14 shows a state where the specific location A is touched, there is almost no shadow at the finger portions of the touch locations A and B, and a location away from the touch locations A and B. In this state, a slight shadow is displayed.

[1−7.二点タッチ後のピンチイン操作の表示例]
図7は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、そのタッチした二点の距離を縮めるピンチイン操作を行った場合の例である。このピンチイン操作は、例えば表示画像の縮小を指示する際に行われる。ここでは、図7Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図7Bの左側に示す表示パネル110−15の操作状態は、図6Bの右端に示す操作状態と同じであり、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図7Bの右側に示すように、表示パネル110−16の上で、タッチした特定位置A,Bの距離を狭くするピンチイン操作を行ったとする。
[1-7. Display example of pinch-in operation after two-point touch]
FIG. 7 shows an example in which a presenter performs a pinch-in operation to shorten the distance between two touched points while the presenter touches two points on the display panel of the terminal 100 at the same time. This pinch-in operation is performed, for example, when an instruction to reduce the display image is given. Here, as shown in FIG. 7A, the presenter continues to touch two points on the display panel of the terminal 100 at the same time.
The operation state of the display panel 110-15 shown on the left side of FIG. 7B is the same as the operation state shown on the right end of FIG. 6B, and is a state where the specific positions A and B are touched with two fingers 2fa and 2fb. Here, it is assumed that the presenter performs a pinch-in operation to narrow the distance between the touched specific positions A and B on the display panel 110-16 as shown on the right side of FIG. 7B.

このとき、ピンチイン操作前には、図7Cの左側に示すように、筐体画像221−15として、タッチした特定位置A,Bの距離が長い手指画像223−15が合成された状態である。これに対して、ピンチイン操作後には、図7Cの右側に示すように、筐体画像221−15として、タッチした特定位置A,Bの距離が短い手指画像223−15に変化する。図7ではピンチイン操作前とピンチイン操作後の2つの状態を示すが、実際には連続して手指画像の指が指し示す位置が変化する。手指画像223−15で示されるタッチ位置A,Bは、実際にプレゼンターが2本の指2fa,2fbでタッチした特定位置A,Bと一致している。   At this time, before the pinch-in operation, as shown on the left side of FIG. 7C, a finger image 223-15 having a long distance between the touched specific positions A and B is synthesized as the case image 221-15. On the other hand, after the pinch-in operation, as shown on the right side of FIG. 7C, the case image 221-15 changes to a finger image 223-15 having a short distance between the touched specific positions A and B. FIG. 7 shows two states before and after the pinch-in operation. Actually, the position indicated by the finger of the finger image changes continuously. The touch positions A and B indicated by the finger images 223-15 coincide with the specific positions A and B where the presenter actually touches with the two fingers 2fa and 2fb.

[1−8.二点タッチ後のピンチアウト操作の表示例]
図8は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、そのタッチした二点の距離を広げるピンチアウト操作を行った場合の例である。このピンチアウト操作は、例えば表示画像の拡大を指示する際に行われる。ここでは、図8Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図8Bの左側に示す表示パネル110−17の操作状態は、図7Bの右端に示す表示パネル110−17の操作状態と同じであり、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図8Bの右側に示すように、表示パネル110−18の上で、タッチした特定位置A,Bの距離を広げるピンチアウト操作を行ったとする。
[1-8. Display example of pinch-out operation after two-point touch]
FIG. 8 shows an example of a pinch-out operation in which the presenter touches two points on the display panel of the terminal 100 at the same time and widens the distance between the two touched points. This pinch-out operation is performed, for example, when an instruction to enlarge the display image is given. Here, as shown in FIG. 8A, the presenter continues to touch two points on the display panel of the terminal 100 at the same time.
The operation state of the display panel 110-17 shown on the left side of FIG. 8B is the same as the operation state of the display panel 110-17 shown on the right side of FIG. 7B, and the specific positions A and B are touched with two fingers 2fa and 2fb. It is in the state. Here, it is assumed that the presenter performs a pinch-out operation on the display panel 110-18 to increase the distance between the touched specific positions A and B as shown on the right side of FIG. 8B.

このとき、ピンチアウト操作前には、図8Cの左側に示すように、筐体画像221−17として、タッチした特定位置A,Bの距離が短い手指画像223−17が合成された状態である。これに対して、ピンチアウト操作後には、図8Cの右側に示すように、筐体画像221−18として、タッチした特定位置A,Bの距離が長い手指画像223−18に変化する。図8ではピンチアウト操作前とピンチアウト操作後の2つの状態を示すが、実際には連続して手指画像の指が指し示す位置が変化する。手指画像223−18で示されるタッチ位置A,Bは、実際にプレゼンターが2本の指2fa,2fbでタッチした特定位置A,Bと一致している。   At this time, before the pinch-out operation, as shown on the left side of FIG. 8C, a finger image 223-17 having a short distance between the touched specific positions A and B is synthesized as the housing image 221-17. . On the other hand, after the pinch-out operation, as shown on the right side of FIG. 8C, the case image 221-18 changes to a finger image 223-18 having a long distance between the touched specific positions A and B. FIG. 8 shows two states before and after the pinch-out operation. Actually, the position indicated by the finger of the finger image changes continuously. The touch positions A and B indicated by the finger images 223-18 coincide with the specific positions A and B actually touched by the presenter with the two fingers 2fa and 2fb.

[1−9.二点タッチ後のドラッグ操作の表示例]
図9は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、その二点のタッチ位置をほぼ平行に移動させるドラッグ操作を行った場合の例である。ドラッグ操作は、例えば表示画像を移動させる指示を行う際に行われる。ここでは、図9Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図9Bの左側に示す表示パネル110−21の操作状態は、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図9Bの右側に示すように、表示パネル110−22の上で、タッチした特定位置A,Bをほぼ平行に上側に移動した特定位置A′,B′に変化させるドラッグ操作を行ったとする。特定位置A′,B′は、図9Bに示すように、表示パネル上の水平方向の座標x1′,x2′と垂直方向の座標y1′,y2′で位置が決まる。
[1-9. Display example of drag operation after two-point touch]
FIG. 9 shows an example in which the presenter performs a drag operation to move the touch positions of the two points substantially in parallel while touching two points on the display panel of the terminal 100 at the same time. The drag operation is performed, for example, when an instruction to move the display image is given. Here, as shown in FIG. 9A, the presenter continues to touch two points on the display panel of the terminal 100 at the same time.
The operation state of the display panel 110-21 shown on the left side of FIG. 9B is a state in which the specific positions A and B are touched with two fingers 2fa and 2fb. Here, as shown on the right side of FIG. 9B, the presenter drags the touched specific positions A and B on the display panel 110-22 to specific positions A ′ and B ′ moved upward in parallel. Suppose that an operation is performed. As shown in FIG. 9B, the specific positions A ′ and B ′ are determined by horizontal coordinates x1 ′ and x2 ′ and vertical coordinates y1 ′ and y2 ′ on the display panel.

このとき、ドラッグ操作前には、図9Cの左側に示すように、筐体画像221−21として、特定位置A,Bをタッチした状態の手指画像223−21が合成された状態である。これに対して、ドラッグ操作後には、図9Cの右側に示すように、筐体画像221−22として、特定位置A′,B′をタッチした状態の手指画像223−22に変化する。図9はドラッグ操作前とドラッグ操作後の2つの状態を示すが、実際には連続して手指画像の位置が変化する。図9Cの右側に示される手指画像223−22で示されるタッチ位置A′,B′は、プレゼンターが2本の指2fa,2fbで実際にタッチした特定位置A′,B′(図9Bの右側の図)と一致している。   At this time, before the drag operation, as shown on the left side of FIG. 9C, a finger image 223-21 in a state where the specific positions A and B are touched is synthesized as the case image 221-21. On the other hand, after the drag operation, as shown on the right side of FIG. 9C, the case image 221-22 changes to a finger image 223-22 in a state where the specific positions A ′ and B ′ are touched. FIG. 9 shows two states before and after the drag operation. Actually, the position of the finger image changes continuously. The touch positions A ′ and B ′ shown by the finger images 223-22 shown on the right side of FIG. 9C are the specific positions A ′ and B ′ actually touched by the two fingers 2fa and 2fb (right side of FIG. 9B). This is consistent with

[1−10.二点タッチ後のリリース操作の表示例]
次に、図6〜図9で説明した二点タッチが行われた後に、2つの手指が表示パネルの表面から離される、二点タッチ後のリリース操作時の表示例を、図10を参照して説明する。
ここでは、図10Aに示すようにタイミングt21で、タッチ入力検出部121により指の特定箇所Aからのリリースが検出されるとほぼ同時に、フェイスカメラ132により手指が近接していない状態が検出されたとする。
このときの実際のタッチ状態としては、図10Bの左側に示すように、表示パネル110−31の特定位置A,Bを、2本の指2fa,2fbでタッチした状態から、図10Bの右側に示すように、2本の指2fa,2fbが右側に離れて行く状態である。
[1-10. Display example of release operation after two-point touch]
Next, a display example at the time of a release operation after a two-point touch in which two fingers are separated from the surface of the display panel after the two-point touch described with reference to FIGS. I will explain.
Here, as shown in FIG. 10A, at time t21, when the touch input detector 121 detects the release of the finger from the specific location A, the face camera 132 detects that the finger is not in proximity. To do.
As an actual touch state at this time, as shown on the left side of FIG. 10B, the specific positions A and B of the display panel 110-31 are touched with two fingers 2fa and 2fb, and then on the right side of FIG. 10B. As shown, the two fingers 2fa and 2fb are separated to the right.

このとき、図10Cに示すように、手指画像223−31が筐体画像221−31の上に合成された状態から、手指画像223−32が下側に下がって行く筐体画像221−32に変化する。このように手指画像223−32が矢印DOWNで示すように下側に下がって行くことで、筐体画像221−32の上には、手指画像が表示されなくなる。   At this time, as shown in FIG. 10C, from the state in which the finger image 223-31 is synthesized on the housing image 221-31, the finger image 223-32 is lowered to the housing image 221-32. Change. In this way, the finger image 223-32 goes down as indicated by the arrow DOWN, so that the finger image is not displayed on the housing image 221-32.

[1−11.三点タッチの表示例]
図11は、プレゼンターが端末100の表示パネル上の三点を同時にタッチした場合の例である。
最初の状態では、図11Bの左端に示すように、表示パネル110−41には、手指f3が近接した状態である。この手指f3の近接が、図11Aに示すように、タイミングt31でフェイスカメラ132の撮影画像から検出される。
このとき、図11Cの左端に示すように、スクリーン210に投射される画像による筐体画像221−41には、パネル上に近接した手指画像223−41が合成される。このとき、例えば指に影を付加することにより、手指がパネル表面から浮いた状態とするのが好ましい(図11では影は不図示)。
[1-11. Display example of three-point touch]
FIG. 11 shows an example in which the presenter touches three points on the display panel of the terminal 100 at the same time.
In the initial state, as shown at the left end of FIG. 11B, the finger f3 is close to the display panel 110-41. As shown in FIG. 11A, the proximity of the finger f3 is detected from the captured image of the face camera 132 at timing t31.
At this time, as shown at the left end of FIG. 11C, a finger image 223-41 close to the panel is combined with the case image 221-41 by the image projected on the screen 210. At this time, it is preferable to add a shadow to the finger, for example, so that the finger is lifted from the panel surface (the shadow is not shown in FIG. 11).

そして、タイミングt32でタッチ入力検出部121により三点の同時タッチが検出されたとする。このとき、図11Bの中央に示すように、表示パネル110−42の3つの特定箇所A,B,Cを、手指f3a,f3b,f3cがタッチした状態となる。3つの特定箇所A,B,Cは、図11Bの中央に示すように、表示パネル上の水平方向の座標x1,x2,x3と垂直方向の座標y1,y2,y3でタッチ位置が決まる。
このとき、図11Cの中央に示すように、スクリーン210に投射される筐体画像221−42には、手指画像223−43が合成された状態になる。この手指画像223−42は、3本の指で特定箇所A,B,Cをタッチした状態である。
Then, it is assumed that the touch input detection unit 121 detects three simultaneous touches at timing t32. At this time, as shown in the center of FIG. 11B, the fingers f3a, f3b, and f3c touch the three specific locations A, B, and C of the display panel 110-42. As shown in the center of FIG. 11B, the three specific locations A, B, and C have touch positions determined by horizontal coordinates x1, x2, and x3 and vertical coordinates y1, y2, and y3 on the display panel.
At this time, as shown in the center of FIG. 11C, the finger image 223-43 is combined with the housing image 221-42 projected on the screen 210. This finger image 223-42 is in a state in which specific locations A, B, and C are touched with three fingers.

その後、さらにタイミングt33でタッチ入力検出部121により指の特定箇所A,B,Cからのリリースが検出され、さらにタイミングt34でフェイスカメラ132により手指が近接していない状態が検出されたとする。すなわち、図11Bの右側に示すように、表示パネル110−44から手指f3a,f3b,f3cが離れたとする。
このとき、図11Cに示すように、手指画像223−42が筐体画像221−42の上に合成された状態から、手指画像223−43が矢印DOWNで示すように下側に下がって行く筐体画像221−43に変化する。
Thereafter, it is further assumed that the touch input detection unit 121 detects the release of the finger from the specific portions A, B, and C at timing t33, and further detects the state where the finger is not in proximity by the face camera 132 at timing t34. That is, as shown on the right side of FIG. 11B, it is assumed that the fingers f3a, f3b, and f3c are separated from the display panel 110-44.
At this time, as shown in FIG. 11C, from the state in which the finger image 223-42 is synthesized on the housing image 221-42, the finger image 223-43 moves downward as indicated by the arrow DOWN. It changes to a body image 221-43.

[1−12.端末の種類とサイズによって表示する指を設定する例]
ここで、本発明が適用される端末の筐体が備える表示パネルのサイズと、その端末を操作するプレゼンターの手指との関係の例を、図12及び図13を参照して説明する。
図12は、端末と表示パネルのサイズによって想定される一般的な操作状態の例を示す。
図12Aは、タブレット端末などの比較的大型の表示パネルを備えた端末10の例である。この場合には、左手で端末10を持ちながら、右手の人差し指f11で、タッチ操作を行う状態が想定される。
図12Bは、スマートフォンなどの比較的小型の表示パネルを備えた端末20で、一点タッチが行われる例である。この場合には、右手の掌で端末20を持ちながら、その右手の親指f12で、タッチ操作を行う状態が想定される。
図12Cは、図12Bと同じ端末20で、二点タッチが行われる例である。この場合には、左手で端末20を持ちながら、右手の人差し指f13と親指f14で、タッチ操作を行う状態が想定される。
[1-12. Example of setting the finger to display according to the terminal type and size]
Here, an example of the relationship between the size of the display panel provided in the casing of the terminal to which the present invention is applied and the fingers of the presenter who operates the terminal will be described with reference to FIGS.
FIG. 12 shows an example of a general operation state assumed depending on the size of the terminal and the display panel.
FIG. 12A is an example of the terminal 10 including a relatively large display panel such as a tablet terminal. In this case, a state is assumed in which a touch operation is performed with the index finger f11 of the right hand while holding the terminal 10 with the left hand.
FIG. 12B is an example in which a one-point touch is performed on the terminal 20 including a relatively small display panel such as a smartphone. In this case, it is assumed that a touch operation is performed with the thumb f12 of the right hand while holding the terminal 20 with the palm of the right hand.
FIG. 12C is an example in which a two-point touch is performed on the same terminal 20 as FIG. 12B. In this case, a state is assumed in which a touch operation is performed with the index finger f13 and thumb f14 of the right hand while holding the terminal 20 with the left hand.

このように、手指で端末をタッチする状態は、端末のサイズによって異なる。
図13は、端末の機種(表示パネルのサイズ)と、操作される指の代表的な例を示す図である。図13の例は、右下に示したように、親指をp、人差し指をi、中指をm、薬指をa、小指をcとして示す。
例えば、表示パネルの対角線が10インチ程度のタブレット型の端末の場合には、一点タッチのとき、人差し指iでのタッチが想定され、二点タッチのとき、人差し指iと親指pでのタッチが想定される。また、三点タッチのとき、人差し指iと親指pと中指mでのタッチが想定され、四点タッチのとき、人差し指iと親指pと中指mと薬指mでのタッチが想定される。五点タッチのときは、全ての指でのタッチになる。
また、表示パネルの対角線が7インチ程度のタブレット型の端末の場合にも、10インチのタブレット型と同じ指でのタッチが想定される。
As described above, the state of touching the terminal with fingers differs depending on the size of the terminal.
FIG. 13 is a diagram illustrating a representative example of the terminal model (display panel size) and the operated finger. In the example of FIG. 13, as shown in the lower right, the thumb is p, the index finger is i, the middle finger is m, the ring finger is a, and the little finger is c.
For example, in the case of a tablet-type terminal whose display panel has a diagonal of about 10 inches, a touch with the index finger i is assumed for a one-point touch, and a touch with the index finger i and the thumb p is assumed for a two-point touch. Is done. Further, in the case of a three-point touch, a touch with the index finger i, the thumb p, and the middle finger m is assumed, and in the case of a four-point touch, a touch with the index finger i, the thumb p, the middle finger m, and the ring finger m is assumed. When touching five points, it will be touched with all fingers.
In the case of a tablet-type terminal having a diagonal of about 7 inches on the display panel, the same finger touch as that of a 10-inch tablet is assumed.

また、表示パネルの対角線が4インチ程度のスマートフォン型の端末の場合には、一点タッチのとき、親指pでのタッチが想定され、二点タッチのとき、親指pと人差し指iでのタッチが想定される。また、三点タッチのとき、親指pと人差し指iと中指mでのタッチが想定され、四点タッチのとき、親指pと人差し指iと中指mと薬指mでのタッチが想定される。五点タッチのときは、全ての指でのタッチになる。   In the case of a smartphone-type terminal having a diagonal line of about 4 inches on the display panel, a touch with the thumb p is assumed for a one-point touch, and a touch with the thumb p and the index finger i is assumed for a two-point touch. Is done. Further, in the case of a three-point touch, a touch with the thumb p, the index finger i, and the middle finger m is assumed. In a four-point touch, a touch with the thumb p, the index finger i, the middle finger m, and the ring finger m is assumed. When touching five points, it will be touched with all fingers.

また、表示パネルの対角線が3インチ程度のスマートフォン型の端末の場合には、一点タッチのとき、親指pでのタッチが想定され、二点タッチのとき、親指pと人差し指iでのタッチが想定される。この3インチの端末の場合には、三点タッチ以上の同時タッチは困難である。   In addition, in the case of a smartphone-type terminal whose display panel has a diagonal line of about 3 inches, a touch with the thumb p is assumed for a one-point touch, and a touch with the thumb p and the index finger i is assumed for a two-point touch. Is done. In the case of this 3-inch terminal, it is difficult to simultaneously touch more than three points.

この図13の情報を端末100の制御部120が持つ。また、端末100の制御部120は、この端末100が備える表示部110のサイズについての情報を持つ。そして、制御部120が表示パネルのタッチを検出した際には、そのときの同時タッチ数と、端末のサイズとから決まる指がタッチした状態の手指画像を画像合成部123で合成する。   The control unit 120 of the terminal 100 has the information of FIG. Further, the control unit 120 of the terminal 100 has information on the size of the display unit 110 included in the terminal 100. When the control unit 120 detects a touch on the display panel, the image composition unit 123 synthesizes a finger image in a state where a finger determined by the number of simultaneous touches and the size of the terminal is touched.

[1−13.第1の実施の形態例による効果]
以上説明したように、プロジェクタ装置200からスクリーン210に投射される画像中に表示される手指画像は、プレゼンターが端末100の表示パネル上で操作した状態とほぼ同様の状態の指使いの画像になる。したがって、スクリーン210に投射される画像による端末100の操作方法のプレゼンテーションが、実際の操作に近い状態で良好に行える。この場合、端末100に外部のカメラを取り付けるようなことが必要なく、端末100とプロジェクタ装置200とをケーブルで接続するだけでよく、非常に簡単な構成で実現できる。
また、スクリーン210に投射される画像は、実際に端末100の表示部110に表示される画像データを加工したものであるため、外部カメラで撮影した場合のような照明光の映り込みなどによる画像の劣化がなく、鮮明な画像によるプレゼンテーションができる。さらに、画像中に合成される手指として、手指が綺麗なモデルなどの手指画像とすることで、非常に綺麗な画像を使って操作説明を行うことができるという効果を奏する。
[1-13. Effects of First Embodiment]
As described above, the finger image displayed in the image projected from the projector device 200 onto the screen 210 is a finger usage image in a state almost the same as the state in which the presenter operates on the display panel of the terminal 100. . Therefore, the presentation of the operation method of the terminal 100 by the image projected on the screen 210 can be satisfactorily performed in a state close to the actual operation. In this case, it is not necessary to attach an external camera to the terminal 100, and it is only necessary to connect the terminal 100 and the projector device 200 with a cable, which can be realized with a very simple configuration.
Further, since the image projected on the screen 210 is actually processed image data displayed on the display unit 110 of the terminal 100, the image is reflected by the illumination light as taken with an external camera. This makes it possible to make presentations with clear images. Furthermore, by using a finger image of a model or the like with a beautiful finger as a finger to be synthesized in the image, there is an effect that the operation can be explained using a very beautiful image.

また、手指画像を筐体画像に合成する際には、図4や図5などで説明したように、下側から手指がタッチ位置まで移動すると共に、タッチ位置から離れた手指が下側に移動して離れるようにしたことで、自然な状態で手指が合成された状態になる。なお、例えば図10の例のように、プレゼンターの手指が離れる方向と、表示画像中の手指が離れる方向とが相違する場合があるが、タッチ操作のやり方を説明する上で、この点の相違は問題にはならない。   In addition, when combining the finger image with the housing image, the finger moves from the lower side to the touch position and the finger away from the touch position moves downward as described in FIGS. As a result, the fingers are synthesized in a natural state. Note that, for example, as shown in the example of FIG. 10, the direction in which the presenter's fingers are separated may be different from the direction in which the fingers in the display image are separated. Is not a problem.

さらに、図12及び図13で説明したように、プレゼンターが操作する端末100のサイズに応じて、合成する手指の指を適切に選ぶようにしたことで、手指の合成画像は、実際の操作時の指使いと一致する可能性が高く、この点からも良好な操作説明ができる。   Furthermore, as described with reference to FIGS. 12 and 13, by appropriately selecting the finger of the finger to be synthesized according to the size of the terminal 100 operated by the presenter, the synthesized image of the finger is displayed at the time of actual operation. There is a high possibility that it coincides with the finger usage, and a good operation explanation can be made from this point.

<2.第2の実施の形態の例>
以下、本発明の第2の実施の形態の例を、図14〜図16を参照して説明する。この図14〜図16において、第1の実施の形態の例で説明した図1〜図13と同一箇所には同じ符号を付し、その詳細説明は省略する。
<2. Example of Second Embodiment>
Hereinafter, an example of the second embodiment of the present invention will be described with reference to FIGS. 14 to 16, the same parts as those shown in FIGS. 1 to 13 described in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

[2−1.システム全体の構成例]
図14は、本発明の第2の実施の形態例のシステム全体の概要を示す図である。
この例では、図1に示すように、第1端末100aと第2端末100bとを用意する。第1端末100aは、プレゼンターが手指fでタッチ操作を行うものである。第2端末100bは、その第1端末100aから伝送された画像データに手指画像を合成する処理を行い、合成された画像をプロジェクタ装置200に供給するものである。
ここでは、第1端末100aと第2端末100bは、いずれもタブレット端末を使用する。
[2-1. Example of overall system configuration]
FIG. 14 is a diagram showing an overview of the entire system according to the second embodiment of the present invention.
In this example, as shown in FIG. 1, a first terminal 100a and a second terminal 100b are prepared. In the first terminal 100a, a presenter performs a touch operation with a finger f. The second terminal 100b performs processing for combining a finger image with the image data transmitted from the first terminal 100a, and supplies the combined image to the projector device 200.
Here, both the first terminal 100a and the second terminal 100b use tablet terminals.

図14に示すように、第1端末100aは、表示部110aに表示される画像データとタッチ位置のデータを第2端末100bに伝送する。第2端末100bは、第1端末100aから伝送された画像192の周囲に筐体画像191を加えると共に、タッチ位置のデータに基づいて操作手指193を合成する。この合成処理が行われた画像が、第2端末100bの表示部110bで表示されると共に、出力ポート101bからプロジェクタ装置200に伝送される。
プロジェクタ装置200は、第2端末100bの出力ポート101bから出力される画像データを処理して、スクリーン210に投影させる。
As shown in FIG. 14, the first terminal 100a transmits image data and touch position data displayed on the display unit 110a to the second terminal 100b. The second terminal 100b adds the case image 191 to the periphery of the image 192 transmitted from the first terminal 100a, and synthesizes the operation finger 193 based on the touch position data. The combined image is displayed on the display unit 110b of the second terminal 100b and transmitted from the output port 101b to the projector device 200.
The projector device 200 processes the image data output from the output port 101b of the second terminal 100b and projects it on the screen 210.

[2−2.端末の構成例]
図15は、第1端末100aと第2端末100bの内部構成を示す図である。第1端末100aと第2端末100bは、基本的に同一の構成であり、第1端末100aの各構成要素には符号aを付し、第2端末100bの各構成要素には符号bを付して示す。この例では、図2に示した端末100内の第1フレームメモリ122での処理を、第1端末100a内のフレームメモリ122aが行い、第2フレームメモリ14での処理を、第2端末100b内のフレームメモリ122bが行っている。
[2-2. Example of terminal configuration]
FIG. 15 is a diagram illustrating an internal configuration of the first terminal 100a and the second terminal 100b. The first terminal 100a and the second terminal 100b have basically the same configuration, and each constituent element of the first terminal 100a is assigned a symbol a, and each constituent element of the second terminal 100b is assigned a symbol b. And show. In this example, the processing in the first frame memory 122 in the terminal 100 shown in FIG. 2 is performed by the frame memory 122a in the first terminal 100a, and the processing in the second frame memory 14 is performed in the second terminal 100b. Frame memory 122b.

第1端末100aは、制御部120a内の画像描画部125aによる描画処理でフレームメモリ122aに作成された画像が、表示部110aされる。また、フレームメモリ122aに作成された画像データが、通信処理部126aから第2端末100bに無線伝送される。このとき、画像データと共にタッチ入力検出部121aで検出したタッチ位置のデータについても、第2端末100bに無線伝送される。
また、第1端末100aは、重力センサ131aとフェイスカメラ132aと記憶部133aと操作スイッチ134aを備える。
In the first terminal 100a, the image created in the frame memory 122a by the drawing process by the image drawing unit 125a in the control unit 120a is displayed on the display unit 110a. Also, the image data created in the frame memory 122a is wirelessly transmitted from the communication processing unit 126a to the second terminal 100b. At this time, the touch position data detected by the touch input detection unit 121a together with the image data is also wirelessly transmitted to the second terminal 100b.
The first terminal 100a includes a gravity sensor 131a, a face camera 132a, a storage unit 133a, and an operation switch 134a.

第2端末100bは、通信処理部126bが受信した画像データとタッチ位置データに基づいて、画像描画部125bがフレームメモリ122bに画像の描画を行う。ここで画像描画部125bがフレームメモリ122bに描画させる画像は、第1端末100aが表示した画像に、第1端末100aの筐体枠を加えると共に、タッチ位置に応じた手指を合成した画像である。
第2端末100bのフレームメモリ122bで得られた画像データは、表示部110bに供給されて表示されると共に、出力ポート101bからプロジェクタ装置200に伝送される。
なお、図15の構成では、第2端末100bの通信処理部126bが、画像データとタッチ位置データの入力部として機能するようにしたが、ケーブルが接続される入力ポートを、これらの入力部としてもよい。
In the second terminal 100b, the image drawing unit 125b draws an image in the frame memory 122b based on the image data and touch position data received by the communication processing unit 126b. Here, the image drawn by the image drawing unit 125b in the frame memory 122b is an image obtained by adding the casing frame of the first terminal 100a to the image displayed by the first terminal 100a and combining the finger corresponding to the touch position. .
The image data obtained in the frame memory 122b of the second terminal 100b is supplied to the display unit 110b and displayed, and is transmitted from the output port 101b to the projector device 200.
In the configuration of FIG. 15, the communication processing unit 126b of the second terminal 100b functions as an input unit for image data and touch position data. However, input ports to which cables are connected are used as these input units. Also good.

[2−3.表示処理の流れの例]
次に、2台の端末100a,100bが行う表示処理の流れを、図16のフローチャートを参照して説明する。図16のフローチャートでは、第1端末100aの制御部120aが行う表示のための制御の流れをステップS31〜S33で示す。また、第2端末100bの制御部120b内の画像描画部125bで行われる画像処理の流れをステップS41〜S43で示す。さらに図16のフローチャートでは、制御部120a,120bとその周辺部とのデータのやり取りについても、破線で示す。
[2-3. Example of display processing flow]
Next, the flow of display processing performed by the two terminals 100a and 100b will be described with reference to the flowchart of FIG. In the flowchart of FIG. 16, the flow of control for display performed by the control unit 120a of the first terminal 100a is shown in steps S31 to S33. In addition, steps S41 to S43 show the flow of image processing performed by the image drawing unit 125b in the control unit 120b of the second terminal 100b. Further, in the flowchart of FIG. 16, the exchange of data between the control units 120a and 120b and their peripheral parts is also indicated by broken lines.

第1端末100a側の制御部120aが行う制御としては、まず制御部120で、表示部110のタッチパネルでタッチされた位置などを判断するタッチ入力検出処理が行われる(ステップS31)。この制御部120aによるタッチ位置の判断は、表示部110aに配置されたタッチパネルの状態のタッチ入力検出部121aでの検出に基づいて行われる。
そして、制御部120aは、手指の検出処理を行う(ステップS32)。ここでは、制御部120aは、ステップS31で判断したタッチ位置と、重力センサ131aの検出データと、フェイスカメラ132aが撮影した画像データとを使用する。すなわち、重力センサ131aでの検出データに基づいて、表示部110aの表示パネルの底面がどの方向かを判断する。また、フェイスカメラ132aが撮影した画像から、手指が表示パネルに接近しているか否かを判断する。これらの判断に基づいて、タッチパネルへのタッチを検出した際には、そのタッチした指の向きなどを判断する。また、タッチパネルでタッチを検出しない状態で、フェイスカメラ132aの撮影画像から手指を検出したときには、制御部120aは、タッチパネルに手指が接近した状態であると判断する。
As the control performed by the control unit 120a on the first terminal 100a side, first, the control unit 120 performs a touch input detection process for determining a position touched on the touch panel of the display unit 110 (step S31). The determination of the touch position by the control unit 120a is performed based on the detection by the touch input detection unit 121a of the state of the touch panel arranged on the display unit 110a.
Then, the control unit 120a performs finger detection processing (step S32). Here, the control unit 120a uses the touch position determined in step S31, the detection data of the gravity sensor 131a, and the image data captured by the face camera 132a. That is, it is determined which direction the bottom surface of the display panel of the display unit 110a is based on the detection data from the gravity sensor 131a. Further, it is determined from the image taken by the face camera 132a whether or not the finger is approaching the display panel. Based on these determinations, when the touch on the touch panel is detected, the direction of the touched finger is determined. Further, when a finger is detected from a captured image of the face camera 132a without detecting a touch on the touch panel, the control unit 120a determines that the finger is in the state of approaching the touch panel.

そして、制御部120aは、ステップS31,S32でのタッチ位置などの判断に基づいて、表示部110aで表示させる画像を確定し、画像描画部125aは、その表示画像をフレームメモリ122aに描画する(ステップS33)。表示部110aは、フレームメモリ122aに描画された画像の表示を行う。
制御部120aでは、表示部110aが画像を表示する間、このステップS31,S32,S33の処理が繰り返し実行される。
Then, the control unit 120a determines an image to be displayed on the display unit 110a based on the determination of the touch position in Steps S31 and S32, and the image drawing unit 125a draws the display image in the frame memory 122a ( Step S33). The display unit 110a displays an image drawn in the frame memory 122a.
In the control part 120a, while the display part 110a displays an image, the process of step S31, S32, S33 is repeatedly performed.

そして、第2端末100bでは、第1端末100aから伝送された画像に筐体画像や手指画像を合成する処理が行われる。すなわち、画像描画部125bは、ステップS33でフレームメモリ122aに描画された画像データを取り込み、表示用の画像データを取得する画像取得処理を行う(ステップS41)。   Then, in the second terminal 100b, a process for synthesizing the housing image and the finger image with the image transmitted from the first terminal 100a is performed. That is, the image drawing unit 125b performs the image acquisition process for acquiring the image data for display by taking in the image data drawn in the frame memory 122a in step S33 (step S41).

次に、画像描画部125bは、画像に手指画像を合成する処理を行う(ステップS42)。このときには、第1端末100aの制御部120aがステップS32で検出した手指の位置に、手指画像を合成する。また、画像描画部125bは、第1端末100aのフレームメモリ122aから得た画像の周囲に、端末の筐体画像を合成する。これらの手指画像や筐体画像は、記憶部133bから読み出した画像である。   Next, the image drawing unit 125b performs a process of synthesizing a finger image with the image (step S42). At this time, the control unit 120a of the first terminal 100a combines the finger image with the finger position detected in step S32. In addition, the image drawing unit 125b synthesizes the case image of the terminal around the image obtained from the frame memory 122a of the first terminal 100a. These finger images and case images are images read from the storage unit 133b.

そして、制御部120bは、画像描画部125bにより描画された画像をフレームメモリ122bに書込む(ステップS43)。このフレームメモリ122bに書き込まれた画像が、出力ポート101bから外部に出力され、プロジェクタ装置200でスクリーン210に投射される。
画像描画部125bでは、表示部110aが画像を表示する間、このステップS41,S42,S43の処理が繰り返し実行される。
Then, the control unit 120b writes the image drawn by the image drawing unit 125b into the frame memory 122b (step S43). The image written in the frame memory 122b is output to the outside from the output port 101b and projected onto the screen 210 by the projector device 200.
In the image drawing unit 125b, the processes in steps S41, S42, and S43 are repeatedly executed while the display unit 110a displays an image.

このような処理で第2端末100bからプロジェクタ装置200に画像データが伝送されることで、プロジェクタ装置200でスクリーン210に投射される画像は、第1の実施の形態の例で説明したものと同様のものになる。すなわち、プレゼンターが手指fで第1端末100aをタッチ操作したとき、第2端末100b内で、手指画像などが合成されて、プロジェクタ装置200に供給されて、投射されるようになる。手指画像や筐体画像が合成される状態は、第1の実施の形態の例の各図で説明した状態が適用される。   By transmitting image data from the second terminal 100b to the projector device 200 through such processing, the image projected on the screen 210 by the projector device 200 is the same as that described in the example of the first embodiment. It becomes a thing. That is, when the presenter performs a touch operation on the first terminal 100a with the finger f, a finger image or the like is synthesized in the second terminal 100b, supplied to the projector device 200, and projected. The state described in each figure of the example of the first embodiment is applied to the state in which the finger image and the case image are combined.

[2−4.第2の実施の形態例による効果]
この第2の実施の形態の例によると、プレゼンターが手指fで第1端末100aをタッチ操作した状態が、画像合成されてスクリーン210上に表示されるようになる。したがって、この第2の実施の形態の例によると、第1の実施の形態の例で説明した場合と同様に、タッチパネルを使った操作の良好なプレゼンテーションが可能になる。第2の実施の形態例では、具体的な手指画像の合成例は説明しないが、第1の実施の形態例で説明した合成例がそのまま適用できる。
また、第2の実施の形態例の場合、第1端末100aと第2端末100bは、それぞれ画像処理を行うためのメモリであるフレームメモリ122a,122bが1個ずつでもよい。このため、第1端末100aと第2端末100bとして、一般的な構成のタブレット端末やスマートフォン端末が適用可能である。なお、第2端末100bについては、表示部での表示を行う必要がなく、タッチパネルを備える必要もない。このため、例えばパーソナルコンピュータ装置などの各種情報処理装置が、第2端末100bとして機能するようにしてもよい。
[2-4. Effect of Second Embodiment]
According to the example of the second embodiment, the state in which the presenter touches the first terminal 100a with the finger f is synthesized and displayed on the screen 210. Therefore, according to the example of the second embodiment, as in the case described in the example of the first embodiment, it is possible to perform a good presentation of operations using the touch panel. In the second embodiment, a specific example of finger image synthesis will not be described, but the synthesis example described in the first embodiment can be applied as it is.
In the case of the second embodiment, the first terminal 100a and the second terminal 100b may each have one frame memory 122a and 122b, which are memories for performing image processing. For this reason, the tablet terminal and smart phone terminal of a general structure are applicable as the 1st terminal 100a and the 2nd terminal 100b. In addition, about the 2nd terminal 100b, it is not necessary to display on a display part and it is not necessary to provide a touch panel. For this reason, for example, various information processing apparatuses such as a personal computer apparatus may function as the second terminal 100b.

<3.変形例>
[3−1.筐体の側面を表示する例]
図1や図14に示した例では、スクリーン210に表示される画像として、端末の正面の筐体画像を表示するようにした。これに対して、筐体の側面などに配置された操作ボタンの操作を説明するために、操作ボタンなどが配置された筐体の側面の画像を、スクリーン210上に同時に表示させるようにしてもよい。
例えば図17に示すように、端末100(又は端末100b)内での画像合成処理では、スクリーン210上に端末の正面の筐体画像221Fを表示すると共に、その筐体画像221Fの脇に、側面の筐体画像221Sを表示している。また、端末100の実際の構成に対応して、正面の筐体画像221Fには操作スイッチ225−1が配置され、側面の筐体画像221Sには操作スイッチ225−2が配置される。
<3. Modification>
[3-1. Example of displaying the side of the housing]
In the example shown in FIGS. 1 and 14, the case image in front of the terminal is displayed as the image displayed on the screen 210. On the other hand, in order to explain the operation of the operation buttons arranged on the side surface of the housing, an image of the side surface of the housing on which the operation buttons are arranged may be displayed on the screen 210 at the same time. Good.
For example, as shown in FIG. 17, in the image composition processing in the terminal 100 (or the terminal 100b), a case image 221F in front of the terminal is displayed on the screen 210, and a side surface is provided beside the case image 221F. The case image 221S is displayed. Corresponding to the actual configuration of the terminal 100, the operation switch 225-1 is arranged in the front case image 221F, and the operation switch 225-2 is arranged in the side case image 221S.

そして、図17に示すように、端末100の側面に配置された操作スイッチ134−2の手指f′による操作があったとき、制御部120は、側面の筐体画像221Sに表示された操作スイッチ225−2を操作する手指226を画像中に合成し、スクリーン210上に表示する。   Then, as shown in FIG. 17, when there is an operation with the finger f ′ of the operation switch 134-2 disposed on the side surface of the terminal 100, the control unit 120 displays the operation switch displayed on the side case image 221S. A finger 226 for operating 225-2 is synthesized in the image and displayed on the screen 210.

このような側面の操作スイッチの操作状況についても表示することで、より良好なプレゼンテーションを行うことができる。なお、端末100の正面に配置された操作スイッチ134−1が操作された場合にも、同様に手指の画像を合成して操作状態を説明するようにしてもよい。
また、図17では、端末の右側面の画像だけを表示する例を示したが、制御部120は、左側面などの他の側面や背面の画像をスクリーン上に並べて表示させるようにしてもよい。
By displaying the operation status of the operation switches on such side surfaces, it is possible to perform a better presentation. Note that even when the operation switch 134-1 disposed on the front surface of the terminal 100 is operated, the operation state may be described by synthesizing the images of fingers.
17 shows an example in which only the image on the right side of the terminal is displayed, the control unit 120 may display other side images such as the left side and images on the back side by side on the screen. .

[3−2.その他の変形例]
上述した各実施の形態例では、端末100又は100aに配置されたフェイスカメラ132又は132aが撮影した画像から、表示パネルへの手指の接近を検出するようにした。これに対して、フェイスカメラが配置されていない端末、あるいはフェイスカメラでパネルに接近した手指の撮影が不可能な端末の場合には、合成画像で接近した手指を表示しないようにしてもよい。すなわち、タッチ入力検出部121又は121aがタッチ入力を検出した時点で、スクリーン210に投射される画像にタッチした手指を合成するようにしてもよい。この場合には、画面上に突然手指が現れることになるが、端末の操作方法を説明するという目的は達成することができる。タッチを検出しなくなった場合にも、合成された手指が下などに移動して消えるのではなく、突然画面から消えるようにしてもよい。
[3-2. Other variations]
In each of the above-described embodiments, the approach of a finger to the display panel is detected from an image captured by the face camera 132 or 132a disposed on the terminal 100 or 100a. On the other hand, in the case of a terminal in which no face camera is arranged or a terminal that cannot capture a finger approaching the panel with the face camera, the approaching finger may not be displayed in the composite image. That is, when the touch input detection unit 121 or 121a detects a touch input, a finger touching the image projected on the screen 210 may be synthesized. In this case, a finger suddenly appears on the screen, but the purpose of explaining the operation method of the terminal can be achieved. Even when the touch is no longer detected, the synthesized finger may not be moved downward and disappear, but suddenly disappear from the screen.

また、ここまで説明した各実施の形態例では、端末100又は100bとプロジェクタ装置200とを接続して、プロジェクタ装置200がスクリーン210に投射する画像で、プレゼンテーションを行う例とした。これに対して、例えば端末100又は100bが備える画像出力部として、無線又は有線の所定のネットワークに画像データを出力する機能を備えるようにしてもよい。このようにすることで、ネットワークに接続された遠隔地の表示装置が、端末100又は100bが出力する画像を表示するようになる。したがって、端末100又は100bを操作しているプレゼンターが、遠隔地にいる者に対してプレゼンテーションを行うことができるようになる。
また、図1や図14に示す構成において、端末100又は100bからプロジェクタ装置200に、無線で画像データを伝送するようにしてもよい。また、プロジェクタ装置200以外の表示装置が、画像を表示するようにしてもよい。
Further, in each of the exemplary embodiments described so far, the terminal 100 or 100b and the projector device 200 are connected to each other, and a presentation is performed using an image projected on the screen 210 by the projector device 200. On the other hand, for example, the image output unit included in the terminal 100 or 100b may have a function of outputting image data to a predetermined wireless or wired network. By doing so, a remote display device connected to the network displays an image output from the terminal 100 or 100b. Therefore, the presenter operating the terminal 100 or 100b can make a presentation to a person at a remote place.
In the configuration shown in FIG. 1 or FIG. 14, image data may be transmitted wirelessly from the terminal 100 or 100b to the projector device 200. Further, a display device other than the projector device 200 may display an image.

また、図3又は図16のフローチャートに示す画像処理を行うプログラムを作成して、そのプログラムを既存の端末に実装することで、上述した第1又は第2の実施の形態の例で説明した処理を行うようにしてもよい。   In addition, by creating a program for performing the image processing shown in the flowchart of FIG. 3 or FIG. 16 and mounting the program on an existing terminal, the processing described in the above-described example of the first or second embodiment May be performed.

100…端末、100a…第1端末、100b…第2端末、101,101b…出力ポート、102…伝送ケーブル、110,110a,110b…表示部、120,120a,120b…制御部、121,121a…タッチ入力検出部、122…第1フレームメモリ、122a,122b…フレームメモリ、123…画像合成部、124…第2フレームメモリ、125a,125b…画像描画部、126a,126b…通信処理部、131,131a…重力センサ、132,132a…フェイスカメラ、133,133a,133b…記憶部、200…プロジェクタ装置、210…スクリーン、220…投射画像、221…筐体画像、222…端末表示画像、223…合成された手指   DESCRIPTION OF SYMBOLS 100 ... Terminal, 100a ... 1st terminal, 100b ... 2nd terminal, 101, 101b ... Output port, 102 ... Transmission cable, 110, 110a, 110b ... Display part, 120, 120a, 120b ... Control part, 121, 121a ... Touch input detector 122, first frame memory 122a, 122b, frame memory 123, image composition unit 124, second frame memory 125a, 125b, image drawing unit 126a, 126b, communication processing unit 131 131a ... gravity sensor, 132, 132a ... face camera, 133, 133a, 133b ... storage unit, 200 ... projector device, 210 ... screen, 220 ... projection image, 221 ... housing image, 222 ... terminal display image, 223 ... composition Finger

Claims (6)

表示部と、
前記表示部のパネル表面のタッチを検出するタッチ入力検出部と、
前記タッチ入力検出部で検出したタッチ状態に応じて、前記表示部が表示する画像に手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、
前記表示部のパネルが配置された側の周囲を撮影するカメラと、を備え、
前記画像合成部は、前記カメラが撮影した画像に基づいて、前記表示部のパネル表面に近接した手指の画像を合成すると共に、合成する合成する手指の画像は、前記タッチ入力検出部が検出したタッチの数に応じて決まる形状の手指の画像で、且つ、前記表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像である
プレゼンテーション用端末。
A display unit;
A touch input detection unit for detecting a touch on the panel surface of the display unit;
An image synthesis unit that synthesizes an image of a finger with an image displayed by the display unit according to a touch state detected by the touch input detection unit;
An image output unit for outputting the image data synthesized by the image synthesis unit;
A camera for photographing the periphery of the side where the panel of the display unit is disposed,
The image composition unit synthesizes an image of a finger adjacent to the panel surface of the display unit based on an image taken by the camera, and the touch input detection unit detects the image of the finger to be synthesized. A presentation terminal, which is an image of a finger having a shape determined according to the number of touches, and a finger selected according to the size of the panel included in the display unit touches the panel .
表示部と、
前記表示部のパネル表面のタッチを検出するタッチ入力検出部と、
前記タッチ入力検出部で検出したタッチ状態に応じて、前記表示部が表示する画像に手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、を備え、
前記画像合成部は、プレゼンテーション用端末の筐体に配置されたボタン又はスイッチが描画された筐体の画像を用意し、その筐体の表示パネルの箇所に、前記表示部が表示する画像を配置した上で、手指の画像を合成する
プレゼンテーション用端末。
A display unit;
A touch input detection unit for detecting a touch on the panel surface of the display unit;
An image synthesis unit that synthesizes an image of a finger with an image displayed by the display unit according to a touch state detected by the touch input detection unit;
An image output unit that outputs the image data synthesized by the image synthesis unit ;
The image composition unit prepares an image of a case on which buttons or switches arranged on the case of the presentation terminal are drawn, and arranges an image to be displayed on the display panel in the case A presentation terminal that combines images of fingers .
さらに前記画像合成部は、プレゼンテーション用端末の筐体の側面の画像を合成する
請求項に記載のプレゼンテーション用端末。
The presentation terminal according to claim 2 , wherein the image synthesizing unit synthesizes an image of a side surface of the casing of the presentation terminal.
表示部と、
前記表示部のパネル表面のタッチを検出するタッチ入力検出部と、
前記タッチ入力検出部で検出したタッチ状態に応じて、前記表示部が表示する画像に手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、
前記表示部のパネルの底面の方向及び指の向きを検出するセンサ及びカメラと、を備え、
前記画像合成部は、前記センサ及びカメラから取得した、前記表示部のパネルの底面の方向及び指の向きの情報に基づいて、手指の画像を合成する方向を設定する
プレゼンテーション用端末。
A display unit;
A touch input detection unit for detecting a touch on the panel surface of the display unit;
An image synthesis unit that synthesizes an image of a finger with an image displayed by the display unit according to a touch state detected by the touch input detection unit;
An image output unit for outputting the image data synthesized by the image synthesis unit;
A sensor and a camera for detecting the direction of the bottom surface of the panel of the display unit and the direction of the finger,
The image synthesizing unit is a presentation terminal that sets a direction for synthesizing a finger image based on information on a direction of a bottom surface of the panel of the display unit and a finger direction obtained from the sensor and the camera .
他の端末の表示部で表示された画像データと、前記表示部のパネル表面のタッチ位置のデータとが入力される入力部と、
前記入力部に入力した画像データによる画像に、前記タッチ位置のデータで示されたタッチ検出状態に応じた手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、を備え、
前記画像合成部は、前記他の端末に配置されたセンサ及びカメラから得られた、前記表示部のパネルの底面の方向及び指の向きの情報に基づいて、前記入力部に入力した画像データによる画像に手指の画像を合成する方向を設定する
プレゼンテーション用端末。
An input unit for inputting image data displayed on a display unit of another terminal and touch position data on the panel surface of the display unit;
An image synthesis unit that synthesizes an image of a finger corresponding to a touch detection state indicated by the data of the touch position on an image based on the image data input to the input unit;
An image output unit that outputs the image data synthesized by the image synthesis unit ;
The image composition unit is based on the image data input to the input unit based on information on the direction of the bottom surface of the panel of the display unit and the orientation of the finger obtained from the sensors and cameras arranged in the other terminals. A presentation terminal that sets the direction in which the image of a finger is combined with the image .
タッチパネル付きの表示部が表示した画像を取得する画像取得処理ステップと、
前記タッチパネルでのタッチ状態を検出するタッチ入力検出処理ステップと、
前記タッチ入力検出処理ステップで検出したタッチ状態に応じて、前記画像取得処理ステップで取得した画像に手指の画像を合成する画像合成処理ステップと、
前記画像合成処理ステップで合成された画像データを出力する画像出力処理ステップと、を含み、
前記画像合成処理ステップで合成する際には、前記表示部のパネルが配置された側の周囲を撮影するカメラの撮影画像に基づいて、前記表示部のパネル表面に近接した手指の画像を合成すると共に、合成する合成する手指の画像は、前記タッチ入力検出処理ステップで検出したタッチの数に応じて決まる形状の手指の画像で、且つ、前記表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像とした
プレゼンテーション方法。
An image acquisition processing step for acquiring an image displayed by a display unit with a touch panel;
A touch input detection processing step for detecting a touch state on the touch panel;
In accordance with the touch state detected in the touch input detection processing step, an image synthesis processing step of synthesizing a finger image with the image acquired in the image acquisition processing step;
An image output processing step for outputting the image data combined in the image combining processing step ,
When synthesizing in the image synthesizing process step, an image of a finger that is close to the panel surface of the display unit is synthesized based on a photographed image of a camera that captures the periphery of the display unit panel. The finger image to be synthesized is selected according to the finger image having a shape determined according to the number of touches detected in the touch input detection processing step and the size of the panel included in the display unit. Presentation method with finger image touching panel .
JP2014116479A 2014-06-05 2014-06-05 Presentation terminal and presentation method Active JP6193180B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014116479A JP6193180B2 (en) 2014-06-05 2014-06-05 Presentation terminal and presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014116479A JP6193180B2 (en) 2014-06-05 2014-06-05 Presentation terminal and presentation method

Publications (2)

Publication Number Publication Date
JP2015230587A JP2015230587A (en) 2015-12-21
JP6193180B2 true JP6193180B2 (en) 2017-09-06

Family

ID=54887327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014116479A Active JP6193180B2 (en) 2014-06-05 2014-06-05 Presentation terminal and presentation method

Country Status (1)

Country Link
JP (1) JP6193180B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6701925B2 (en) 2016-04-27 2020-05-27 セイコーエプソン株式会社 Image supply device, control method of image supply device, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4329475B2 (en) * 2003-10-02 2009-09-09 セイコーエプソン株式会社 Decorative image selection
JP5247200B2 (en) * 2008-03-27 2013-07-24 株式会社デンソーアイティーラボラトリ Map display system, map display method and program
JP4626860B2 (en) * 2009-01-30 2011-02-09 株式会社デンソー Operating device
JP5532300B2 (en) * 2009-12-24 2014-06-25 ソニー株式会社 Touch panel device, touch panel control method, program, and recording medium
CN102511029A (en) * 2010-06-18 2012-06-20 松下电器产业株式会社 Operation support device and operation support method
JP2012022458A (en) * 2010-07-13 2012-02-02 Canon Inc Information processing apparatus and control method thereof
JP2012155434A (en) * 2011-01-25 2012-08-16 Kyocera Corp Electronic device
JP2012249978A (en) * 2011-06-06 2012-12-20 Namco Bandai Games Inc Program, information storage medium, game device and server system
KR101178396B1 (en) * 2012-02-22 2012-08-30 알서포트 주식회사 Method for displaying mobile terminal in remote device and apparatus for performing the same
JP5906984B2 (en) * 2012-07-30 2016-04-20 カシオ計算機株式会社 Display terminal device and program
JP2015102952A (en) * 2013-11-22 2015-06-04 株式会社デンソー Display processing device

Also Published As

Publication number Publication date
JP2015230587A (en) 2015-12-21

Similar Documents

Publication Publication Date Title
JP6288084B2 (en) Display control device, display control method, and recording medium
JP6573755B2 (en) Display control method, information processing program, and information processing apparatus
EP3769509B1 (en) Multi-endpoint mixed-reality meetings
WO2014188798A1 (en) Display control device, display control method, and recording medium
KR101446902B1 (en) Method and apparatus for user interraction
CN108038726B (en) Article display method and device
JP2014186361A (en) Information processing device, operation control method, and program
EP4246287A1 (en) Method and system for displaying virtual prop in real environment image, and storage medium
CN112585564A (en) Method and apparatus for providing input for head-mounted image display device
JP2016134851A (en) Communication system for use in remote communication
JP2018010496A (en) Image processing apparatus, control method thereof, and program
JP2017182110A (en) Display system, display device, information processor, and information processing method
JP2012217101A (en) Information processor, control method of the same, program, and storage medium
JP2016038728A (en) Image display device, control method of image display device and program thereof
US11922904B2 (en) Information processing apparatus and information processing method to control display of a content image
US10591986B2 (en) Remote work supporting system, remote work supporting method, and program
JP6193180B2 (en) Presentation terminal and presentation method
EP3974949A1 (en) Head-mounted display
JP6308842B2 (en) Display system and program
US10545716B2 (en) Information processing device, information processing method, and program
KR101709529B1 (en) Apparatus and method for controlling image screen using portable terminal
JP2014170367A (en) Object detection device, object detection method, object detection system and program
CN114895862A (en) Screen projection method, device and equipment of intelligent terminal
US20200379642A1 (en) Information processing apparatus, information processing method, and storage medium
JP7210884B2 (en) Information processing device, display system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170809

R150 Certificate of patent or registration of utility model

Ref document number: 6193180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150