JP6193180B2 - Presentation terminal and presentation method - Google Patents
Presentation terminal and presentation method Download PDFInfo
- Publication number
- JP6193180B2 JP6193180B2 JP2014116479A JP2014116479A JP6193180B2 JP 6193180 B2 JP6193180 B2 JP 6193180B2 JP 2014116479 A JP2014116479 A JP 2014116479A JP 2014116479 A JP2014116479 A JP 2014116479A JP 6193180 B2 JP6193180 B2 JP 6193180B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- finger
- touch
- unit
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、タッチパネルを備えた端末を使用してプレゼンテーションを行う場合に適用されるプレゼンテーション用端末、及びその端末を使用して行われるプレゼンテーション方法に関する。 The present invention relates to a presentation terminal applied when a presentation is performed using a terminal provided with a touch panel, and a presentation method performed using the terminal.
従来、多数の人に対して、端末の操作方法などをプレゼンテーションする場合、プロジェクタ装置を使用して、操作方法の画像をスクリーンなどに拡大投影し、その投影画像で案内するのが一般的である。この場合、プレゼンテーションを実行する操作者は、レーザーポインタなどを使用して、画像中の操作が必要な箇所を指し示すことで、どの箇所を具体的に操作すればよいかの指示を行う。 Conventionally, when presenting terminal operation methods to a large number of people, it is common to use a projector device to enlarge and project an image of the operation method onto a screen or the like and guide the projected image. . In this case, the operator who performs the presentation uses a laser pointer or the like to point to a part that needs to be operated in the image, thereby giving an instruction as to which part should be specifically operated.
例えば、タブレット端末と称されるタッチパネルを備えた情報処理端末は、表示パネルの表面を操作者が直接タッチして、様々な操作を行うことができる。したがって、タブレット端末の操作を説明するときには、実際のタブレット端末をタッチ操作して表示される画像を、プロジェクタ装置で拡大投影すれば、端末の操作方法を効率よくプレゼンテーションすることができる。 For example, an information processing terminal including a touch panel called a tablet terminal can perform various operations by an operator directly touching the surface of the display panel. Therefore, when explaining the operation of the tablet terminal, if the image displayed by touching the actual tablet terminal is enlarged and projected by the projector device, the operation method of the terminal can be presented efficiently.
しかしながら、実際のタブレット端末に表示される画像は、ユーザが操作した結果の画像であるため、実際のタブレット端末に表示される画像をそのまま拡大投影しただけでは、操作者が、端末をどのようにタッチ操作したのか分からないという問題がある。
すなわち、タブレット端末の画像データ出力端子をプロジェクタ装置に接続して、タブレット端末が表示する画像を拡大投影するだけでは、操作者の指の動きなどは表示されない。このため、指を動かす方向や動かす速度などに特徴がある操作を、このような拡大投影で的確に説明することは困難である。
However, since the image displayed on the actual tablet terminal is an image obtained as a result of the user's operation, the operator can view how the terminal is displayed simply by enlarging and projecting the image displayed on the actual tablet terminal. There is a problem of not knowing whether the touch operation has been performed.
That is, the movement of the operator's finger or the like is not displayed only by connecting the image data output terminal of the tablet terminal to the projector device and enlarging and projecting the image displayed on the tablet terminal. For this reason, it is difficult to accurately explain an operation characterized by the direction in which the finger is moved or the speed at which the finger is moved, using such an enlarged projection.
特許文献1には、携帯端末の画像をプロジェクタ装置が投影してプレゼンテーションを行う場合に、携帯端末のタッチパネルのタッチ軌跡を投影画像に合成する点についての記載がある。 Japanese Patent Application Laid-Open No. 2004-228688 describes a point where a touch trajectory of a touch panel of a mobile terminal is combined with a projected image when a projector device projects an image of the mobile terminal to perform a presentation.
特許文献1には、端末のタッチパネルのタッチ軌跡をマーカーとして表示する方法が記載されている。しかしながら、このようなタッチ軌跡をマーカーとして表示した場合、その表示画像を見ている者には、どこをタッチしたのかが分かるだけであり、より詳細な操作状況までは分からない。すなわち、近年、タブレット端末のタッチパネルを使用した操作は、非常に複雑化しており、指を動かす速さや方向などにより、指示を行う内容が様々であり、そのような複雑な操作を、タッチ軌跡だけで指示することは簡単ではない。特に、タブレット端末では、複数本の指を使用したマルチタッチによる操作があるが、マーカーによるタッチ軌跡の表示では、このようなマルチタッチの操作を的確に表示することは困難であった。
この問題点を解決するためには、例えば端末とは別にビデオカメラを用意して、そのビデオカメラで操作者がタッチパネルを操作する様子を撮影して、撮影画像を投射することが考えられる。しかしながら、端末とは別にビデオカメラを用意すると、プレゼンテーションを行うためのシステム構成が非常に大がかりなものになる。また、ビデオカメラで撮影した画像には、天井の照明の映り込みが入る可能性が高く、非常に見にくい画像になってしまうという問題がある。さらに、ビデオカメラは、端末の表示パネルに表示される画面を撮影する位置に固定する必要があり、ビデオカメラを固定するための複雑な機構が必要になるという問題もある。 In order to solve this problem, for example, it is conceivable that a video camera is prepared separately from the terminal, the operator operates the touch panel with the video camera, and a captured image is projected. However, if a video camera is prepared separately from the terminal, the system configuration for giving a presentation becomes very large. In addition, there is a problem that an image taken with a video camera is likely to be reflected in the ceiling lighting, resulting in an image that is very difficult to see. Furthermore, the video camera needs to be fixed at a position where the screen displayed on the display panel of the terminal is photographed, and there is a problem that a complicated mechanism for fixing the video camera is required.
本発明のプレゼンテーション用端末及びプレゼンテーション方法は、タッチパネル付きの端末の操作のプレゼンテーションが、プロジェクタ装置などを使って良好にできるようにすることを目的とする。 It is an object of the present invention to provide a presentation terminal and a presentation method that can favorably present an operation of a terminal with a touch panel using a projector device or the like.
本発明のプレゼンテーション用端末は、表示部と、表示部のパネル表面のタッチを検出するタッチ入力検出部と、画像合成部と、画像出力部と、カメラとを備える。
カメラは、表示部のパネルが配置された側の周囲を撮影する。
画像合成部は、タッチ入力検出部で検出したタッチ状態に応じて、表示部が表示する画像に手指の画像を合成する。このとき、カメラが撮影した画像に基づいて、表示部のパネル表面に近接した手指の画像を合成すると共に、合成する合成する手指の画像は、タッチ入力検出部が検出したタッチの数に応じて決まる形状の手指の画像で、且つ、表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像である。
画像出力部は、画像合成部が合成した画像データを出力する。
The presentation terminal of the present invention includes a display unit, a touch input detection unit that detects a touch on the panel surface of the display unit, an image composition unit, an image output unit, and a camera .
The camera takes a picture of the periphery of the display panel side.
The image composition unit synthesizes the image of the finger with the image displayed on the display unit according to the touch state detected by the touch input detection unit. At this time, based on the image captured by the camera, the image of the finger adjacent to the panel surface of the display unit is synthesized, and the synthesized finger image is synthesized according to the number of touches detected by the touch input detection unit. It is an image of a finger with a shape determined, and a finger selected according to the size of the panel included in the display unit is an image of a finger touching the panel.
The image output unit outputs the image data synthesized by the image synthesis unit.
また、本発明のプレゼンテーション用端末は、表示部とタッチ入力検出部を備える代わりに、入力部を備えるようにしてもよい。
この場合、入力部からは、他の端末の表示部で表示された画像データと、他の端末の表示部のパネル表面のタッチ位置のデータとが入力される。そして、画像合成部は、入力部から入力された画像データによる画像に、タッチ状態に応じた手指の画像を合成する。この場合、画像合成部は、他の端末に配置されたセンサ及びカメラから得られた、表示部のパネルの底面の方向及び指の向きの情報に基づいて、入力部に入力した画像データによる画像に手指の画像を合成する方向を設定するようにした。
The presentation terminal of the present invention may include an input unit instead of the display unit and the touch input detection unit.
In this case, the image data displayed on the display unit of the other terminal and the touch position data on the panel surface of the display unit of the other terminal are input from the input unit. Then, the image composition unit synthesizes an image of a finger corresponding to the touch state with the image based on the image data input from the input unit. In this case, the image composition unit obtains an image based on the image data input to the input unit based on the information on the direction of the bottom surface of the panel of the display unit and the direction of the finger obtained from the sensors and cameras arranged in other terminals. The direction to synthesize finger images is set to.
また、本発明のプレゼンテーション方法は、画像取得処理と、タッチ入力検出処理と、画像合成処理と、画像出力処理とを行う。
画像取得処理は、タッチパネル付きの表示部が表示した画像を取得する。
タッチ入力検出処理は、タッチパネルでのタッチ状態を検出する。
画像合成処理は、タッチ位置検出処理で検出したタッチ状態に応じて、画像取得処理で取得した画像に手指の画像を合成する。この画像を合成する際には、表示部のパネルが配置された側の周囲を撮影するカメラの撮影画像に基づいて、表示部のパネル表面に近接した手指の画像を合成すると共に、合成する合成する手指の画像は、タッチ入力検出処理で検出したタッチの数に応じて決まる形状の手指の画像で、且つ、表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像とした。
画像出力処理は、画像合成処理で合成された画像データを出力する。
The presentation method of the present invention performs an image acquisition process, a touch input detection process, an image composition process, and an image output process.
The image acquisition process acquires an image displayed by a display unit with a touch panel.
The touch input detection process detects a touch state on the touch panel.
The image composition process synthesizes an image of a finger with the image acquired by the image acquisition process according to the touch state detected by the touch position detection process. When synthesizing this image, the image of the finger adjacent to the panel surface of the display unit is synthesized based on the photographed image of the camera that captures the periphery of the side where the panel of the display unit is arranged, and the synthesis is performed. The finger image is a finger image having a shape determined according to the number of touches detected in the touch input detection process, and a finger selected according to the size of the panel included in the display unit touches the panel. It was an image.
The image output process outputs the image data synthesized by the image synthesis process.
本発明によると、例えば端末が出力する画像データをプロジェクタ装置に送ってスクリーンに投射することで、投射画像には、端末のパネルをプレゼンターがタッチする手と同様の手指が表示されるようになる。したがって、端末のタッチ操作の詳細と、そのタッチ操作で生じる画面遷移を、多数の人に良好にプレゼンテーションすることが可能になる。
また、端末が出力する画像データを、遠隔地の受講者に伝送することで、遠隔地の人にも良好にプレゼンテーションすることが可能になる。
According to the present invention, for example, image data output from a terminal is sent to a projector device and projected onto a screen, so that a finger similar to a hand touching a panel of the terminal by a presenter is displayed in the projected image. . Therefore, the details of the touch operation of the terminal and the screen transition caused by the touch operation can be presented well to many people.
In addition, by transmitting image data output from the terminal to a remote student, it is possible to make a good presentation to a remote person.
<1.第1の実施の形態の例>
以下、本発明の第1の実施の形態例を、図1〜図13を参照して説明する。
[1−1.システム全体の構成例]
図1は、本発明の第1の実施の形態例のシステム全体の概要を示す図である。
図1に示すように、このシステムでは、端末100とプロジェクタ装置200が用意される。端末100は、プレゼンターが操作方法をプレゼンテーションする機器である。端末100は、表示部110の表示パネルがタッチパネルを備え、利用者が指でタッチパネルをタッチすることで様々な操作を行うことができる。ここでは、端末100として、表示パネルの対角線のサイズが10インチ程度のタブレット端末を使用する。但し、タブレット端末を使用するのは1つの例であり、その他の形態のタッチパネル付きの端末を使用してもよい。
<1. Example of First Embodiment>
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
[1-1. Example of overall system configuration]
FIG. 1 is a diagram showing an overview of the entire system according to the first embodiment of the present invention.
As shown in FIG. 1, in this system, a terminal 100 and a
端末100は、出力ポート101から画像データが出力される。この出力される画像データは、伝送ケーブル102を介してプロジェクタ装置200に供給される。プロジェクタ装置200は、端末100から伝送された画像をスクリーン210に拡大投射する。このスクリーン210上での投射画像220により、端末100の操作方法がプレゼンテーションされる。
The terminal 100 outputs image data from the
プレゼンターがプレゼンテーションする操作は、端末100の表示部110の表示パネル上を指fでタッチして行う操作である。端末100をタッチ操作する指fは、プレゼンターの指である。したがって、端末100の表示部110に表示される画像を、そのままプロジェクタ装置200に伝送して、スクリーン210に投射したとしても、投射画像220には、指fは表示されない。
The operation of giving a presentation by the presenter is an operation performed by touching the display panel of the
ここで本実施の形態例においては、図1に示すように、スクリーン210上に、端末表示画像222に操作手指223を合成した投射画像220を表示するようにした。また、端末100の外形形状とほぼ等しい筐体画像221をスクリーン220上に表示し、その筐体画像221の表示パネルの箇所に、端末表示画像222を表示するようにした。これらの投射画像220の元になる画像データを作成する処理は、端末100の内部で行われ、プロジェクタ装置200は、端末100から伝送された画像をそのままスクリーン210に投射する。したがって、プロジェクタ装置200は、本実施の形態例の処理を行う上で特別な処理を必要としない。
Here, in the present embodiment, as shown in FIG. 1, a projection image 220 in which the
[1−2.端末の構成例]
図2は、端末100の内部構成を示す図である。
端末100は、表示部110と制御部120とを備える。表示部110の表示パネルには、タッチパネルが一体化され、制御部120内のタッチ入力検出部121がタッチ操作を検出する。
[1-2. Example of terminal configuration]
FIG. 2 is a diagram illustrating an internal configuration of the terminal 100.
The terminal 100 includes a
制御部120は、表示部110に表示される画像を記憶する第1フレームメモリ122を備える。この第1フレームメモリ122には、端末100に実装されたアプリケーションプログラムを実行することにより得られた画像が記憶される。なお、アプリケーションプログラムは、記憶部133に記憶されている。
端末100が実行中のアプリケーションプログラムは、タッチパネルのタッチ操作で様々な操作の指示を行うものである。例えば、端末100は、タッチ操作により表示画像を切り替える操作や、表示中の画像に関連した別の情報を表示する操作や、表示中の画像の拡大又は縮小を指示する操作などを行うことができる。
The
The application program being executed by the terminal 100 instructs various operations by touch operations on the touch panel. For example, the terminal 100 can perform an operation of switching a display image by a touch operation, an operation of displaying other information related to the displayed image, an operation of instructing enlargement or reduction of the displayed image, and the like. .
また、制御部120は、第1フレームメモリ122に記憶された表示中の画像データを、画像合成部123に供給する。画像合成部123では、図1で説明した筐体画像や手指の画像を合成する処理が行われる。画像合成部123で合成処理が行われた画像データは第2フレームメモリ124に供給され、第2フレームメモリ124に記憶される。
画像合成部123で合成される筐体画像や手指の画像のデータは、例えば記憶部133に予め記憶されている。この画像合成部123で合成される手指の画像については、例えば、手指が綺麗な人物(モデル、タレントなど)の手指を撮影して得た画像とするのが好ましい。また、記憶部133には、制御部120が実行する制御処理に必要なデータも記憶されている。
第2フレームメモリ124に記憶された画像合成後の画像データは、出力ポート101から外部に出力される。出力ポート101は、所定の伝送フォーマットで画像データを出力する画像出力部として機能するものである。この出力ポート101には、図1に示す伝送ケーブル102が接続される。
In addition, the
Data of the case image and finger image synthesized by the
The image data after image synthesis stored in the
また、端末100は、重力が働く方向を検出する重力センサ131を備え、端末100を構成する筐体の向きを検出する。すなわち、制御部120は、重力センサ131の検出データに基づいて、筐体の向きが、表示パネルが縦長になる向きと、表示パネルが横長になる向きの、いずれであるかを判断する。この制御部120での向きの判断に基づいて、制御部120は、表示部110に表示される画像の縦と横の方向や、下側や上側となる方向を決める。
In addition, the terminal 100 includes a
さらに、端末100は、フェイスカメラ132と操作スイッチ134を備える。フェイスカメラ132は、図1に示すように、端末100の表示パネルの上部に配置され、表示パネルの近傍を撮影するものである。フェイスカメラ132は、通常、端末100に近接した操作者の顔などを撮影するものであるが、本実施の形態の例では、表示パネルに近接した手指を撮影する。制御部120は、フェイスカメラ132が撮影した画像から、表示パネルに近接した手指を検出する。なお、フェイスカメラ132は、手指の検出を行うために撮影を行う際には、制御部120の制御で、フォーカスが合う範囲を、表示パネル面から数センチから10センチ程度の非常に近い範囲にオートフォーカス機能で設定する。なお、通常時には、フォーカスが合う範囲は、より遠い範囲に設定されている。
操作スイッチ134は、例えば端末100の筐体の側面などに配置されるスイッチである。端末100が実行中のアプリケーションプログラムによっては、この操作スイッチ134の操作が必要となる場合もある。
Further, the terminal 100 includes a
The
[1−3.表示処理の流れの例]
次に、端末100が行う表示処理の流れを、図3のフローチャートを参照して説明する。図3のフローチャートでは、端末100の制御部120が行う表示のための制御の流れをステップS11〜S13で示すと共に、制御部120内の画像合成部123で行われる画像処理の流れをステップS21〜S23で示す。さらに図3のフローチャートでは、制御部120とその周辺部とのデータのやり取りについても、破線で示す。
[1-3. Example of display processing flow]
Next, the flow of display processing performed by the terminal 100 will be described with reference to the flowchart of FIG. In the flowchart of FIG. 3, the flow of control for display performed by the
制御部120が行う制御としては、まず制御部120で、表示部110のタッチパネルでタッチされた位置などを判断するタッチ入力検出処理が行われる(ステップS11)。この制御部120によるタッチ位置の判断は、表示部110に配置されたタッチパネルのタッチ入力検出部121におけるタッチ位置の検出に基づいて行われる。
次に、制御部120は、手指の検出処理を行う(ステップS12)。ここでは、制御部120は、ステップS11で判断したタッチ位置と、重力センサ131の検出データと、フェイスカメラ132が撮影した画像データとを使用する。すなわち、重力センサ131での検出データに基づいて、表示部110の表示パネルの底面(下側)がどの方向かを判断する。また、フェイスカメラ132が撮影した画像から、手指が表示パネルに接近しているか否かを判断する。これらの判断に基づいて、タッチパネルへのタッチを検出した際には、そのタッチした指の向きなどを判断する。また、タッチパネルでタッチを検出しない状態で、フェイスカメラ132の撮影画像から手指を検出したときには、制御部120は、タッチパネルに手指が接近した状態であると判断する。
As the control performed by the
Next, the
そして、制御部120は、ステップS11,S12でのタッチ位置などの判断に基づいて、表示部110に表示する画像を確定し、その表示画像を第1フレームメモリ122に描画する(ステップS13)。ここでは、制御部120は、例えば表示画像中の特定箇所がタッチ操作で選択されたとき、その選択箇所の画像に変形を加える等の効果を施し、アプリケーションプログラムの実行状況に応じた画像処理を行う。表示部110は、第1フレームメモリ122に描画された画像の表示を行う。
制御部120では、表示部110が画像を表示する間、このステップS11,S12,S13の処理が繰り返し実行される。
Then, the
In the
また、上述した表示部110での表示処理と並行して、画像合成部123において、出力ポート101から出力される画像データの生成処理が行われる。すなわち、画像合成部123は、ステップS13で第1フレームメモリ122に描画された画像データを取り込み、表示用の画像データを取得する画像取得処理を行う(ステップS21)。
In parallel with the display processing on the
次に、画像合成部123は、画像に手指画像を合成する処理を行う(ステップS22)。このとき、画像合成部123は、制御部120がステップS12で検出した手指の位置に手指画像を合成する。また、画像合成部123は、第1フレームメモリ122から得た画像の周囲に、端末の筐体画像を合成する。これらの手指画像や筐体画像は、記憶部133から読み出した画像である。
なお、後述する例のように、手指の状態によっては、手指画像を合成する際の、その手指の影の画像を付加する場合がある。この影の画像も、記憶部133に予め記憶されている画像である。
Next, the
Note that, as in the example described later, depending on the state of the finger, a shadow image of the finger when the finger image is synthesized may be added. This shadow image is also an image stored in the
そして、画像合成部123は、合成された画像を第2フレームメモリ124に供給し、第2フレームメモリ124上で端末の筐体や手指が合成された画像を描画する(ステップS23)。この第2フレームメモリ124で描画された画像が、出力ポート101から外部に出力され、プロジェクタ装置200でスクリーン210に投射される。
画像合成部123では、表示部110が画像を表示する間、このステップS21,S22,S23の処理が繰り返し実行される。
Then, the
In the
[1−4.一点タッチの表示例]
次に、プレゼンターが端末100を操作したときに、スクリーン210上が表示する画像の例を説明する。
まず、図4を参照して、プレゼンターが端末100の表示パネル上の一点をタッチしたときに、スクリーン210上に表示される画像の例を説明する。
[1-4. Display example of single point touch]
Next, an example of an image displayed on the screen 210 when the presenter operates the terminal 100 will be described.
First, an example of an image displayed on the screen 210 when the presenter touches one point on the display panel of the terminal 100 will be described with reference to FIG.
図4Aは、制御部120による指のタッチ認識と近接認識が行われる期間を示す。図4Bは、プレゼンターの手指による端末100(実機)の表示パネルの表面のタッチ操作状態を示す。図4Cは、スクリーン210に投射される画像を示す。これら図4A,B,Cは、それぞれ左から右に操作状態が進んで行く様子を示す。後述する図5〜図11についても、同様に各図のAが、タッチ認識と近接認識が行われる期間を示し、各図のBがプレゼンターの手指によるタッチ操作状態を示し、各図のCが端末100の第2フレームメモリ124に描画されて、スクリーン210に投射される画像を示す。また、プレゼンターが実際に操作を説明する際には、何らかの画像が端末100や投射画像内の端末に表示されているが、図4〜図11では、端末内の表示画像は省略する。
FIG. 4A shows a period during which finger touch recognition and proximity recognition are performed by the
プレゼンターによる操作状態としては、最初の状態は、図4Bに左から順に示すように、表示パネル110−1は、何もタッチされていない状態である。次の表示パネル110−2は、手指f1がパネル表面に近づいた状態である。但し、この表示パネル110−2の状態では、手指f1の位置はパネル表面から遠く、制御部120は、手指の接近を検出しない。したがって、図4Cに示すように、それぞれのタイミングでスクリーン210に投射される画像による筐体画像221−1,222−2には、手指画像が表示されない。
As an operation state by the presenter, the first state is a state where nothing is touched on the display panel 110-1 as shown in order from the left in FIG. 4B. The next display panel 110-2 is in a state where the finger f1 approaches the panel surface. However, in the state of the display panel 110-2, the position of the finger f1 is far from the panel surface, and the
図4Aに示すように、フェイスカメラ132が手指の近接を検出したタイミングt1になると、図4Bに示す表示パネル110−3のほぼ中央に手指f1が近接した状態に変化する。このとき、図4Cに示すように、スクリーン210に投射される筐体画像221−3には、手指画像223−3が合成された状態になる。そして、矢印UPで示すように、筐体画像221−3の下側から手指画像223−3が徐々に上がって行き、図4Cに示す位置になる。この場合、手指画像223−3は、例えば1秒程度の時間をかけて移動する。
また、このように手指f1の近接を検出した際に表示される手指画像223−3には、その手指の影画像224−3が付加されている。この影画像224−3が付加されることで、合成された手指画像223−3による指が、表示パネルの表面から離れた状態であることが分かる表示となる。
As shown in FIG. 4A, at the timing t1 when the
In addition, a shadow image 224-3 of the finger is added to the finger image 223-3 displayed when the proximity of the finger f1 is detected in this way. By adding the shadow image 224-3, it is displayed that the finger of the synthesized hand image 223-3 is in a state of being separated from the surface of the display panel.
その後、タッチ入力検出部121でタッチを検出するタイミングt2(図4A参照)で、プレゼンンターは、図4Bに示す表示パネル110−4の特定箇所Aを手指f1でタッチする。この特定箇所Aの位置は、図4Bに示すように、表示パネル上の水平方向xと垂直方向yで決まる。このとき、図4Cに示すように、スクリーン210に投射される筐体画像221−4には、特定箇所Aを人差し指の先端がタッチした手指画像223−4が合成された状態になる。この場合の手指画像223−4にも、その手指の影画像224−4が付加されている。但し、手指画像223−4は、特定箇所Aをタッチした状態を示しているため、タッチ箇所の指の部分では、ほとんど影がない状態であり、タッチ箇所から離れた箇所で、わずかな影を表示した状態である。
なお、図4に示すように一点タッチの際に人差し指がタッチした画像となるのは1つの例であり、手指の画像を合成する際に、タッチを行う指を割り当てる方法については後述する。
Thereafter, at a timing t2 (see FIG. 4A) when the touch
Note that, as shown in FIG. 4, an image touched by the index finger during one-point touch is one example, and a method for assigning a finger to be touched when a finger image is synthesized will be described later.
[1−5.一点タッチ後のリリース操作時の表示例]
次に、先に図4で説明した一点タッチが行われた後に、手指が表示パネルの表面から離されるリリース操作時の表示例を、図5を参照して説明する。
図5Bの左端に示す表示パネル110−4の手指f1によるタッチ操作状態は、図4Bの右端に示す表示パネル110−4の手指fによるタッチ操作状態と同じ状態である。図5Cの左端に示す手指画像223−4についても、図5Cの左端に示す手指画像223−4と同じである。
[1-5. Display example during release operation after one point touch]
Next, a display example during a release operation in which the finger is released from the surface of the display panel after the one-point touch described above with reference to FIG. 4 is performed will be described with reference to FIG.
The touch operation state with the finger f1 of the display panel 110-4 shown at the left end of FIG. 5B is the same state as the touch operation state with the finger f of the display panel 110-4 shown at the right end of FIG. 4B. The finger image 223-4 shown at the left end in FIG. 5C is the same as the finger image 223-4 shown at the left end in FIG. 5C.
この状態で、図5Aに示すようにタイミングt3で、タッチ入力検出部121により指の特定箇所Aからのリリースが検出され、タイミングt3の直後のタイミングt4で、フェイスカメラ132により手指が近接していない状態が検出されたとする。
このとき、図5Cに示すように、手指画像223−5が筐体画像221−5の表面から離れた状態に合成される。この手指が離れた状態は、手指の影画像224−5の付加で示される。そして、この図5Cに示す手指画像223−5は、矢印DOWNで示すように、時間の経過と共に下側に移動する。このときの手指223−5の下側への移動は、例えば1秒程度の時間で行われる。
そして、図5Bの右端に示すように手指f1が端末100から完全に離れた状態では、図5Cの右端に示すように、投射画像中の筐体画像221−6には手指画像が合成されない。
In this state, as shown in FIG. 5A, at time t3, the touch
At this time, as shown in FIG. 5C, the finger image 223-5 is synthesized in a state separated from the surface of the housing image 221-5. This state in which the fingers are separated is indicated by the addition of a shadow image 224-5 of the fingers. And the finger image 223-5 shown to this FIG. 5C moves below with progress of time, as shown by arrow DOWN. The downward movement of the finger 223-5 at this time is performed in about 1 second, for example.
Then, in the state where the finger f1 is completely separated from the terminal 100 as shown at the right end of FIG. 5B, the finger image is not synthesized with the housing image 221-6 in the projected image as shown at the right end of FIG. 5C.
[1−6.二点タッチの表示例]
図6は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした場合の例である。
最初の状態では、図6Bの左端に示すように、表示パネル110−11は、何もタッチされていない状態であり。次の表示パネル110−12は、手指f2がパネル表面に近づいた状態である。但し、この表示パネル110−12の状態では、手指f2の位置はパネル表面から遠く、制御部120は、まだ手指の接近を検出しない。したがって、図6Cに示すように、それぞれのタイミングでスクリーン210に投射される画像による筐体画像221−11,222−12には、手指画像が表示されない。
[1-6. Display example of two-point touch]
FIG. 6 shows an example in which the presenter touches two points on the display panel of the terminal 100 at the same time.
In the initial state, as shown at the left end of FIG. 6B, the display panel 110-11 is in a state where nothing is touched. In the next display panel 110-12, the finger f2 is close to the panel surface. However, in the state of the display panel 110-12, the position of the finger f2 is far from the panel surface, and the
そして、図6Aに示すように、フェイスカメラ132が手指の近接を検出したタイミングt11になると、図6Bに示す表示パネル110−13のほぼ中央に手指f2が近接した状態に変化する。このとき、図6Cに示すように、スクリーン210に投射される筐体画像221−13は、手指画像223−13が合成された状態になる。また、このように手指f2の近接を検出した際に表示される手指画像223−13には、その手指の影画像224−13が付加される。
ここまでは図4に示した一点タッチの場合と同じであり、手指画像223−13は指1本が伸びた画像である。
Then, as shown in FIG. 6A, at the timing t11 when the
Up to this point, the finger image 223-13 is the same as the one-point touch shown in FIG.
その後、図6Aに示すように、タッチ入力検出部121でタッチを検出したタイミングt12では、プレゼンターが、図6Bに示す表示パネル110−4の2つの特定箇所A,Bを手指f2a,f2bがタッチした状態とする。2つの特定箇所A,Bは、図6Bに示すように、表示パネル上の水平方向の座標x1,x2と垂直方向の座標y1,y2でタッチ位置が決まる。このとき、図6Cに示すように、スクリーン210に投射される筐体画像221−14には、特定箇所A、Bをそれぞれ別の指でタッチした手指画像223−14が合成された状態になる。手指画像223−14では、左下の特定箇所Aを親指がタッチした状態とし、右上の特定箇所Bを人差し指がタッチした状態とする。このタッチする指の割り当て状態の例は後述する。
また、この場合の手指画像223−14にも、その手指の影画像224−14が付加されている。但し、手指画像223−14は、特定箇所Aをタッチした状態を示しているため、タッチ箇所A、Bの指の部分では、ほとんど影がない状態であり、タッチ箇所A、Bから離れた箇所で、わずかな影を表示した状態である。
Thereafter, as shown in FIG. 6A, at the timing t12 when the touch is detected by the touch
In addition, the shadow image 224-14 of the finger is also added to the finger image 223-14 in this case. However, since the finger image 223-14 shows a state where the specific location A is touched, there is almost no shadow at the finger portions of the touch locations A and B, and a location away from the touch locations A and B. In this state, a slight shadow is displayed.
[1−7.二点タッチ後のピンチイン操作の表示例]
図7は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、そのタッチした二点の距離を縮めるピンチイン操作を行った場合の例である。このピンチイン操作は、例えば表示画像の縮小を指示する際に行われる。ここでは、図7Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図7Bの左側に示す表示パネル110−15の操作状態は、図6Bの右端に示す操作状態と同じであり、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図7Bの右側に示すように、表示パネル110−16の上で、タッチした特定位置A,Bの距離を狭くするピンチイン操作を行ったとする。
[1-7. Display example of pinch-in operation after two-point touch]
FIG. 7 shows an example in which a presenter performs a pinch-in operation to shorten the distance between two touched points while the presenter touches two points on the display panel of the terminal 100 at the same time. This pinch-in operation is performed, for example, when an instruction to reduce the display image is given. Here, as shown in FIG. 7A, the presenter continues to touch two points on the display panel of the terminal 100 at the same time.
The operation state of the display panel 110-15 shown on the left side of FIG. 7B is the same as the operation state shown on the right end of FIG. 6B, and is a state where the specific positions A and B are touched with two fingers 2fa and 2fb. Here, it is assumed that the presenter performs a pinch-in operation to narrow the distance between the touched specific positions A and B on the display panel 110-16 as shown on the right side of FIG. 7B.
このとき、ピンチイン操作前には、図7Cの左側に示すように、筐体画像221−15として、タッチした特定位置A,Bの距離が長い手指画像223−15が合成された状態である。これに対して、ピンチイン操作後には、図7Cの右側に示すように、筐体画像221−15として、タッチした特定位置A,Bの距離が短い手指画像223−15に変化する。図7ではピンチイン操作前とピンチイン操作後の2つの状態を示すが、実際には連続して手指画像の指が指し示す位置が変化する。手指画像223−15で示されるタッチ位置A,Bは、実際にプレゼンターが2本の指2fa,2fbでタッチした特定位置A,Bと一致している。 At this time, before the pinch-in operation, as shown on the left side of FIG. 7C, a finger image 223-15 having a long distance between the touched specific positions A and B is synthesized as the case image 221-15. On the other hand, after the pinch-in operation, as shown on the right side of FIG. 7C, the case image 221-15 changes to a finger image 223-15 having a short distance between the touched specific positions A and B. FIG. 7 shows two states before and after the pinch-in operation. Actually, the position indicated by the finger of the finger image changes continuously. The touch positions A and B indicated by the finger images 223-15 coincide with the specific positions A and B where the presenter actually touches with the two fingers 2fa and 2fb.
[1−8.二点タッチ後のピンチアウト操作の表示例]
図8は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、そのタッチした二点の距離を広げるピンチアウト操作を行った場合の例である。このピンチアウト操作は、例えば表示画像の拡大を指示する際に行われる。ここでは、図8Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図8Bの左側に示す表示パネル110−17の操作状態は、図7Bの右端に示す表示パネル110−17の操作状態と同じであり、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図8Bの右側に示すように、表示パネル110−18の上で、タッチした特定位置A,Bの距離を広げるピンチアウト操作を行ったとする。
[1-8. Display example of pinch-out operation after two-point touch]
FIG. 8 shows an example of a pinch-out operation in which the presenter touches two points on the display panel of the terminal 100 at the same time and widens the distance between the two touched points. This pinch-out operation is performed, for example, when an instruction to enlarge the display image is given. Here, as shown in FIG. 8A, the presenter continues to touch two points on the display panel of the terminal 100 at the same time.
The operation state of the display panel 110-17 shown on the left side of FIG. 8B is the same as the operation state of the display panel 110-17 shown on the right side of FIG. 7B, and the specific positions A and B are touched with two fingers 2fa and 2fb. It is in the state. Here, it is assumed that the presenter performs a pinch-out operation on the display panel 110-18 to increase the distance between the touched specific positions A and B as shown on the right side of FIG. 8B.
このとき、ピンチアウト操作前には、図8Cの左側に示すように、筐体画像221−17として、タッチした特定位置A,Bの距離が短い手指画像223−17が合成された状態である。これに対して、ピンチアウト操作後には、図8Cの右側に示すように、筐体画像221−18として、タッチした特定位置A,Bの距離が長い手指画像223−18に変化する。図8ではピンチアウト操作前とピンチアウト操作後の2つの状態を示すが、実際には連続して手指画像の指が指し示す位置が変化する。手指画像223−18で示されるタッチ位置A,Bは、実際にプレゼンターが2本の指2fa,2fbでタッチした特定位置A,Bと一致している。 At this time, before the pinch-out operation, as shown on the left side of FIG. 8C, a finger image 223-17 having a short distance between the touched specific positions A and B is synthesized as the housing image 221-17. . On the other hand, after the pinch-out operation, as shown on the right side of FIG. 8C, the case image 221-18 changes to a finger image 223-18 having a long distance between the touched specific positions A and B. FIG. 8 shows two states before and after the pinch-out operation. Actually, the position indicated by the finger of the finger image changes continuously. The touch positions A and B indicated by the finger images 223-18 coincide with the specific positions A and B actually touched by the presenter with the two fingers 2fa and 2fb.
[1−9.二点タッチ後のドラッグ操作の表示例]
図9は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、その二点のタッチ位置をほぼ平行に移動させるドラッグ操作を行った場合の例である。ドラッグ操作は、例えば表示画像を移動させる指示を行う際に行われる。ここでは、図9Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図9Bの左側に示す表示パネル110−21の操作状態は、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図9Bの右側に示すように、表示パネル110−22の上で、タッチした特定位置A,Bをほぼ平行に上側に移動した特定位置A′,B′に変化させるドラッグ操作を行ったとする。特定位置A′,B′は、図9Bに示すように、表示パネル上の水平方向の座標x1′,x2′と垂直方向の座標y1′,y2′で位置が決まる。
[1-9. Display example of drag operation after two-point touch]
FIG. 9 shows an example in which the presenter performs a drag operation to move the touch positions of the two points substantially in parallel while touching two points on the display panel of the terminal 100 at the same time. The drag operation is performed, for example, when an instruction to move the display image is given. Here, as shown in FIG. 9A, the presenter continues to touch two points on the display panel of the terminal 100 at the same time.
The operation state of the display panel 110-21 shown on the left side of FIG. 9B is a state in which the specific positions A and B are touched with two fingers 2fa and 2fb. Here, as shown on the right side of FIG. 9B, the presenter drags the touched specific positions A and B on the display panel 110-22 to specific positions A ′ and B ′ moved upward in parallel. Suppose that an operation is performed. As shown in FIG. 9B, the specific positions A ′ and B ′ are determined by horizontal coordinates x1 ′ and x2 ′ and vertical coordinates y1 ′ and y2 ′ on the display panel.
このとき、ドラッグ操作前には、図9Cの左側に示すように、筐体画像221−21として、特定位置A,Bをタッチした状態の手指画像223−21が合成された状態である。これに対して、ドラッグ操作後には、図9Cの右側に示すように、筐体画像221−22として、特定位置A′,B′をタッチした状態の手指画像223−22に変化する。図9はドラッグ操作前とドラッグ操作後の2つの状態を示すが、実際には連続して手指画像の位置が変化する。図9Cの右側に示される手指画像223−22で示されるタッチ位置A′,B′は、プレゼンターが2本の指2fa,2fbで実際にタッチした特定位置A′,B′(図9Bの右側の図)と一致している。 At this time, before the drag operation, as shown on the left side of FIG. 9C, a finger image 223-21 in a state where the specific positions A and B are touched is synthesized as the case image 221-21. On the other hand, after the drag operation, as shown on the right side of FIG. 9C, the case image 221-22 changes to a finger image 223-22 in a state where the specific positions A ′ and B ′ are touched. FIG. 9 shows two states before and after the drag operation. Actually, the position of the finger image changes continuously. The touch positions A ′ and B ′ shown by the finger images 223-22 shown on the right side of FIG. 9C are the specific positions A ′ and B ′ actually touched by the two fingers 2fa and 2fb (right side of FIG. 9B). This is consistent with
[1−10.二点タッチ後のリリース操作の表示例]
次に、図6〜図9で説明した二点タッチが行われた後に、2つの手指が表示パネルの表面から離される、二点タッチ後のリリース操作時の表示例を、図10を参照して説明する。
ここでは、図10Aに示すようにタイミングt21で、タッチ入力検出部121により指の特定箇所Aからのリリースが検出されるとほぼ同時に、フェイスカメラ132により手指が近接していない状態が検出されたとする。
このときの実際のタッチ状態としては、図10Bの左側に示すように、表示パネル110−31の特定位置A,Bを、2本の指2fa,2fbでタッチした状態から、図10Bの右側に示すように、2本の指2fa,2fbが右側に離れて行く状態である。
[1-10. Display example of release operation after two-point touch]
Next, a display example at the time of a release operation after a two-point touch in which two fingers are separated from the surface of the display panel after the two-point touch described with reference to FIGS. I will explain.
Here, as shown in FIG. 10A, at time t21, when the
As an actual touch state at this time, as shown on the left side of FIG. 10B, the specific positions A and B of the display panel 110-31 are touched with two fingers 2fa and 2fb, and then on the right side of FIG. 10B. As shown, the two fingers 2fa and 2fb are separated to the right.
このとき、図10Cに示すように、手指画像223−31が筐体画像221−31の上に合成された状態から、手指画像223−32が下側に下がって行く筐体画像221−32に変化する。このように手指画像223−32が矢印DOWNで示すように下側に下がって行くことで、筐体画像221−32の上には、手指画像が表示されなくなる。 At this time, as shown in FIG. 10C, from the state in which the finger image 223-31 is synthesized on the housing image 221-31, the finger image 223-32 is lowered to the housing image 221-32. Change. In this way, the finger image 223-32 goes down as indicated by the arrow DOWN, so that the finger image is not displayed on the housing image 221-32.
[1−11.三点タッチの表示例]
図11は、プレゼンターが端末100の表示パネル上の三点を同時にタッチした場合の例である。
最初の状態では、図11Bの左端に示すように、表示パネル110−41には、手指f3が近接した状態である。この手指f3の近接が、図11Aに示すように、タイミングt31でフェイスカメラ132の撮影画像から検出される。
このとき、図11Cの左端に示すように、スクリーン210に投射される画像による筐体画像221−41には、パネル上に近接した手指画像223−41が合成される。このとき、例えば指に影を付加することにより、手指がパネル表面から浮いた状態とするのが好ましい(図11では影は不図示)。
[1-11. Display example of three-point touch]
FIG. 11 shows an example in which the presenter touches three points on the display panel of the terminal 100 at the same time.
In the initial state, as shown at the left end of FIG. 11B, the finger f3 is close to the display panel 110-41. As shown in FIG. 11A, the proximity of the finger f3 is detected from the captured image of the
At this time, as shown at the left end of FIG. 11C, a finger image 223-41 close to the panel is combined with the case image 221-41 by the image projected on the screen 210. At this time, it is preferable to add a shadow to the finger, for example, so that the finger is lifted from the panel surface (the shadow is not shown in FIG. 11).
そして、タイミングt32でタッチ入力検出部121により三点の同時タッチが検出されたとする。このとき、図11Bの中央に示すように、表示パネル110−42の3つの特定箇所A,B,Cを、手指f3a,f3b,f3cがタッチした状態となる。3つの特定箇所A,B,Cは、図11Bの中央に示すように、表示パネル上の水平方向の座標x1,x2,x3と垂直方向の座標y1,y2,y3でタッチ位置が決まる。
このとき、図11Cの中央に示すように、スクリーン210に投射される筐体画像221−42には、手指画像223−43が合成された状態になる。この手指画像223−42は、3本の指で特定箇所A,B,Cをタッチした状態である。
Then, it is assumed that the touch
At this time, as shown in the center of FIG. 11C, the finger image 223-43 is combined with the housing image 221-42 projected on the screen 210. This finger image 223-42 is in a state in which specific locations A, B, and C are touched with three fingers.
その後、さらにタイミングt33でタッチ入力検出部121により指の特定箇所A,B,Cからのリリースが検出され、さらにタイミングt34でフェイスカメラ132により手指が近接していない状態が検出されたとする。すなわち、図11Bの右側に示すように、表示パネル110−44から手指f3a,f3b,f3cが離れたとする。
このとき、図11Cに示すように、手指画像223−42が筐体画像221−42の上に合成された状態から、手指画像223−43が矢印DOWNで示すように下側に下がって行く筐体画像221−43に変化する。
Thereafter, it is further assumed that the touch
At this time, as shown in FIG. 11C, from the state in which the finger image 223-42 is synthesized on the housing image 221-42, the finger image 223-43 moves downward as indicated by the arrow DOWN. It changes to a body image 221-43.
[1−12.端末の種類とサイズによって表示する指を設定する例]
ここで、本発明が適用される端末の筐体が備える表示パネルのサイズと、その端末を操作するプレゼンターの手指との関係の例を、図12及び図13を参照して説明する。
図12は、端末と表示パネルのサイズによって想定される一般的な操作状態の例を示す。
図12Aは、タブレット端末などの比較的大型の表示パネルを備えた端末10の例である。この場合には、左手で端末10を持ちながら、右手の人差し指f11で、タッチ操作を行う状態が想定される。
図12Bは、スマートフォンなどの比較的小型の表示パネルを備えた端末20で、一点タッチが行われる例である。この場合には、右手の掌で端末20を持ちながら、その右手の親指f12で、タッチ操作を行う状態が想定される。
図12Cは、図12Bと同じ端末20で、二点タッチが行われる例である。この場合には、左手で端末20を持ちながら、右手の人差し指f13と親指f14で、タッチ操作を行う状態が想定される。
[1-12. Example of setting the finger to display according to the terminal type and size]
Here, an example of the relationship between the size of the display panel provided in the casing of the terminal to which the present invention is applied and the fingers of the presenter who operates the terminal will be described with reference to FIGS.
FIG. 12 shows an example of a general operation state assumed depending on the size of the terminal and the display panel.
FIG. 12A is an example of the terminal 10 including a relatively large display panel such as a tablet terminal. In this case, a state is assumed in which a touch operation is performed with the index finger f11 of the right hand while holding the terminal 10 with the left hand.
FIG. 12B is an example in which a one-point touch is performed on the terminal 20 including a relatively small display panel such as a smartphone. In this case, it is assumed that a touch operation is performed with the thumb f12 of the right hand while holding the terminal 20 with the palm of the right hand.
FIG. 12C is an example in which a two-point touch is performed on the
このように、手指で端末をタッチする状態は、端末のサイズによって異なる。
図13は、端末の機種(表示パネルのサイズ)と、操作される指の代表的な例を示す図である。図13の例は、右下に示したように、親指をp、人差し指をi、中指をm、薬指をa、小指をcとして示す。
例えば、表示パネルの対角線が10インチ程度のタブレット型の端末の場合には、一点タッチのとき、人差し指iでのタッチが想定され、二点タッチのとき、人差し指iと親指pでのタッチが想定される。また、三点タッチのとき、人差し指iと親指pと中指mでのタッチが想定され、四点タッチのとき、人差し指iと親指pと中指mと薬指mでのタッチが想定される。五点タッチのときは、全ての指でのタッチになる。
また、表示パネルの対角線が7インチ程度のタブレット型の端末の場合にも、10インチのタブレット型と同じ指でのタッチが想定される。
As described above, the state of touching the terminal with fingers differs depending on the size of the terminal.
FIG. 13 is a diagram illustrating a representative example of the terminal model (display panel size) and the operated finger. In the example of FIG. 13, as shown in the lower right, the thumb is p, the index finger is i, the middle finger is m, the ring finger is a, and the little finger is c.
For example, in the case of a tablet-type terminal whose display panel has a diagonal of about 10 inches, a touch with the index finger i is assumed for a one-point touch, and a touch with the index finger i and the thumb p is assumed for a two-point touch. Is done. Further, in the case of a three-point touch, a touch with the index finger i, the thumb p, and the middle finger m is assumed, and in the case of a four-point touch, a touch with the index finger i, the thumb p, the middle finger m, and the ring finger m is assumed. When touching five points, it will be touched with all fingers.
In the case of a tablet-type terminal having a diagonal of about 7 inches on the display panel, the same finger touch as that of a 10-inch tablet is assumed.
また、表示パネルの対角線が4インチ程度のスマートフォン型の端末の場合には、一点タッチのとき、親指pでのタッチが想定され、二点タッチのとき、親指pと人差し指iでのタッチが想定される。また、三点タッチのとき、親指pと人差し指iと中指mでのタッチが想定され、四点タッチのとき、親指pと人差し指iと中指mと薬指mでのタッチが想定される。五点タッチのときは、全ての指でのタッチになる。 In the case of a smartphone-type terminal having a diagonal line of about 4 inches on the display panel, a touch with the thumb p is assumed for a one-point touch, and a touch with the thumb p and the index finger i is assumed for a two-point touch. Is done. Further, in the case of a three-point touch, a touch with the thumb p, the index finger i, and the middle finger m is assumed. In a four-point touch, a touch with the thumb p, the index finger i, the middle finger m, and the ring finger m is assumed. When touching five points, it will be touched with all fingers.
また、表示パネルの対角線が3インチ程度のスマートフォン型の端末の場合には、一点タッチのとき、親指pでのタッチが想定され、二点タッチのとき、親指pと人差し指iでのタッチが想定される。この3インチの端末の場合には、三点タッチ以上の同時タッチは困難である。 In addition, in the case of a smartphone-type terminal whose display panel has a diagonal line of about 3 inches, a touch with the thumb p is assumed for a one-point touch, and a touch with the thumb p and the index finger i is assumed for a two-point touch. Is done. In the case of this 3-inch terminal, it is difficult to simultaneously touch more than three points.
この図13の情報を端末100の制御部120が持つ。また、端末100の制御部120は、この端末100が備える表示部110のサイズについての情報を持つ。そして、制御部120が表示パネルのタッチを検出した際には、そのときの同時タッチ数と、端末のサイズとから決まる指がタッチした状態の手指画像を画像合成部123で合成する。
The
[1−13.第1の実施の形態例による効果]
以上説明したように、プロジェクタ装置200からスクリーン210に投射される画像中に表示される手指画像は、プレゼンターが端末100の表示パネル上で操作した状態とほぼ同様の状態の指使いの画像になる。したがって、スクリーン210に投射される画像による端末100の操作方法のプレゼンテーションが、実際の操作に近い状態で良好に行える。この場合、端末100に外部のカメラを取り付けるようなことが必要なく、端末100とプロジェクタ装置200とをケーブルで接続するだけでよく、非常に簡単な構成で実現できる。
また、スクリーン210に投射される画像は、実際に端末100の表示部110に表示される画像データを加工したものであるため、外部カメラで撮影した場合のような照明光の映り込みなどによる画像の劣化がなく、鮮明な画像によるプレゼンテーションができる。さらに、画像中に合成される手指として、手指が綺麗なモデルなどの手指画像とすることで、非常に綺麗な画像を使って操作説明を行うことができるという効果を奏する。
[1-13. Effects of First Embodiment]
As described above, the finger image displayed in the image projected from the
Further, since the image projected on the screen 210 is actually processed image data displayed on the
また、手指画像を筐体画像に合成する際には、図4や図5などで説明したように、下側から手指がタッチ位置まで移動すると共に、タッチ位置から離れた手指が下側に移動して離れるようにしたことで、自然な状態で手指が合成された状態になる。なお、例えば図10の例のように、プレゼンターの手指が離れる方向と、表示画像中の手指が離れる方向とが相違する場合があるが、タッチ操作のやり方を説明する上で、この点の相違は問題にはならない。 In addition, when combining the finger image with the housing image, the finger moves from the lower side to the touch position and the finger away from the touch position moves downward as described in FIGS. As a result, the fingers are synthesized in a natural state. Note that, for example, as shown in the example of FIG. 10, the direction in which the presenter's fingers are separated may be different from the direction in which the fingers in the display image are separated. Is not a problem.
さらに、図12及び図13で説明したように、プレゼンターが操作する端末100のサイズに応じて、合成する手指の指を適切に選ぶようにしたことで、手指の合成画像は、実際の操作時の指使いと一致する可能性が高く、この点からも良好な操作説明ができる。 Furthermore, as described with reference to FIGS. 12 and 13, by appropriately selecting the finger of the finger to be synthesized according to the size of the terminal 100 operated by the presenter, the synthesized image of the finger is displayed at the time of actual operation. There is a high possibility that it coincides with the finger usage, and a good operation explanation can be made from this point.
<2.第2の実施の形態の例>
以下、本発明の第2の実施の形態の例を、図14〜図16を参照して説明する。この図14〜図16において、第1の実施の形態の例で説明した図1〜図13と同一箇所には同じ符号を付し、その詳細説明は省略する。
<2. Example of Second Embodiment>
Hereinafter, an example of the second embodiment of the present invention will be described with reference to FIGS. 14 to 16, the same parts as those shown in FIGS. 1 to 13 described in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
[2−1.システム全体の構成例]
図14は、本発明の第2の実施の形態例のシステム全体の概要を示す図である。
この例では、図1に示すように、第1端末100aと第2端末100bとを用意する。第1端末100aは、プレゼンターが手指fでタッチ操作を行うものである。第2端末100bは、その第1端末100aから伝送された画像データに手指画像を合成する処理を行い、合成された画像をプロジェクタ装置200に供給するものである。
ここでは、第1端末100aと第2端末100bは、いずれもタブレット端末を使用する。
[2-1. Example of overall system configuration]
FIG. 14 is a diagram showing an overview of the entire system according to the second embodiment of the present invention.
In this example, as shown in FIG. 1, a
Here, both the
図14に示すように、第1端末100aは、表示部110aに表示される画像データとタッチ位置のデータを第2端末100bに伝送する。第2端末100bは、第1端末100aから伝送された画像192の周囲に筐体画像191を加えると共に、タッチ位置のデータに基づいて操作手指193を合成する。この合成処理が行われた画像が、第2端末100bの表示部110bで表示されると共に、出力ポート101bからプロジェクタ装置200に伝送される。
プロジェクタ装置200は、第2端末100bの出力ポート101bから出力される画像データを処理して、スクリーン210に投影させる。
As shown in FIG. 14, the first terminal 100a transmits image data and touch position data displayed on the
The
[2−2.端末の構成例]
図15は、第1端末100aと第2端末100bの内部構成を示す図である。第1端末100aと第2端末100bは、基本的に同一の構成であり、第1端末100aの各構成要素には符号aを付し、第2端末100bの各構成要素には符号bを付して示す。この例では、図2に示した端末100内の第1フレームメモリ122での処理を、第1端末100a内のフレームメモリ122aが行い、第2フレームメモリ14での処理を、第2端末100b内のフレームメモリ122bが行っている。
[2-2. Example of terminal configuration]
FIG. 15 is a diagram illustrating an internal configuration of the
第1端末100aは、制御部120a内の画像描画部125aによる描画処理でフレームメモリ122aに作成された画像が、表示部110aされる。また、フレームメモリ122aに作成された画像データが、通信処理部126aから第2端末100bに無線伝送される。このとき、画像データと共にタッチ入力検出部121aで検出したタッチ位置のデータについても、第2端末100bに無線伝送される。
また、第1端末100aは、重力センサ131aとフェイスカメラ132aと記憶部133aと操作スイッチ134aを備える。
In the
The
第2端末100bは、通信処理部126bが受信した画像データとタッチ位置データに基づいて、画像描画部125bがフレームメモリ122bに画像の描画を行う。ここで画像描画部125bがフレームメモリ122bに描画させる画像は、第1端末100aが表示した画像に、第1端末100aの筐体枠を加えると共に、タッチ位置に応じた手指を合成した画像である。
第2端末100bのフレームメモリ122bで得られた画像データは、表示部110bに供給されて表示されると共に、出力ポート101bからプロジェクタ装置200に伝送される。
なお、図15の構成では、第2端末100bの通信処理部126bが、画像データとタッチ位置データの入力部として機能するようにしたが、ケーブルが接続される入力ポートを、これらの入力部としてもよい。
In the
The image data obtained in the
In the configuration of FIG. 15, the
[2−3.表示処理の流れの例]
次に、2台の端末100a,100bが行う表示処理の流れを、図16のフローチャートを参照して説明する。図16のフローチャートでは、第1端末100aの制御部120aが行う表示のための制御の流れをステップS31〜S33で示す。また、第2端末100bの制御部120b内の画像描画部125bで行われる画像処理の流れをステップS41〜S43で示す。さらに図16のフローチャートでは、制御部120a,120bとその周辺部とのデータのやり取りについても、破線で示す。
[2-3. Example of display processing flow]
Next, the flow of display processing performed by the two
第1端末100a側の制御部120aが行う制御としては、まず制御部120で、表示部110のタッチパネルでタッチされた位置などを判断するタッチ入力検出処理が行われる(ステップS31)。この制御部120aによるタッチ位置の判断は、表示部110aに配置されたタッチパネルの状態のタッチ入力検出部121aでの検出に基づいて行われる。
そして、制御部120aは、手指の検出処理を行う(ステップS32)。ここでは、制御部120aは、ステップS31で判断したタッチ位置と、重力センサ131aの検出データと、フェイスカメラ132aが撮影した画像データとを使用する。すなわち、重力センサ131aでの検出データに基づいて、表示部110aの表示パネルの底面がどの方向かを判断する。また、フェイスカメラ132aが撮影した画像から、手指が表示パネルに接近しているか否かを判断する。これらの判断に基づいて、タッチパネルへのタッチを検出した際には、そのタッチした指の向きなどを判断する。また、タッチパネルでタッチを検出しない状態で、フェイスカメラ132aの撮影画像から手指を検出したときには、制御部120aは、タッチパネルに手指が接近した状態であると判断する。
As the control performed by the
Then, the
そして、制御部120aは、ステップS31,S32でのタッチ位置などの判断に基づいて、表示部110aで表示させる画像を確定し、画像描画部125aは、その表示画像をフレームメモリ122aに描画する(ステップS33)。表示部110aは、フレームメモリ122aに描画された画像の表示を行う。
制御部120aでは、表示部110aが画像を表示する間、このステップS31,S32,S33の処理が繰り返し実行される。
Then, the
In the
そして、第2端末100bでは、第1端末100aから伝送された画像に筐体画像や手指画像を合成する処理が行われる。すなわち、画像描画部125bは、ステップS33でフレームメモリ122aに描画された画像データを取り込み、表示用の画像データを取得する画像取得処理を行う(ステップS41)。
Then, in the
次に、画像描画部125bは、画像に手指画像を合成する処理を行う(ステップS42)。このときには、第1端末100aの制御部120aがステップS32で検出した手指の位置に、手指画像を合成する。また、画像描画部125bは、第1端末100aのフレームメモリ122aから得た画像の周囲に、端末の筐体画像を合成する。これらの手指画像や筐体画像は、記憶部133bから読み出した画像である。
Next, the
そして、制御部120bは、画像描画部125bにより描画された画像をフレームメモリ122bに書込む(ステップS43)。このフレームメモリ122bに書き込まれた画像が、出力ポート101bから外部に出力され、プロジェクタ装置200でスクリーン210に投射される。
画像描画部125bでは、表示部110aが画像を表示する間、このステップS41,S42,S43の処理が繰り返し実行される。
Then, the
In the
このような処理で第2端末100bからプロジェクタ装置200に画像データが伝送されることで、プロジェクタ装置200でスクリーン210に投射される画像は、第1の実施の形態の例で説明したものと同様のものになる。すなわち、プレゼンターが手指fで第1端末100aをタッチ操作したとき、第2端末100b内で、手指画像などが合成されて、プロジェクタ装置200に供給されて、投射されるようになる。手指画像や筐体画像が合成される状態は、第1の実施の形態の例の各図で説明した状態が適用される。
By transmitting image data from the second terminal 100b to the
[2−4.第2の実施の形態例による効果]
この第2の実施の形態の例によると、プレゼンターが手指fで第1端末100aをタッチ操作した状態が、画像合成されてスクリーン210上に表示されるようになる。したがって、この第2の実施の形態の例によると、第1の実施の形態の例で説明した場合と同様に、タッチパネルを使った操作の良好なプレゼンテーションが可能になる。第2の実施の形態例では、具体的な手指画像の合成例は説明しないが、第1の実施の形態例で説明した合成例がそのまま適用できる。
また、第2の実施の形態例の場合、第1端末100aと第2端末100bは、それぞれ画像処理を行うためのメモリであるフレームメモリ122a,122bが1個ずつでもよい。このため、第1端末100aと第2端末100bとして、一般的な構成のタブレット端末やスマートフォン端末が適用可能である。なお、第2端末100bについては、表示部での表示を行う必要がなく、タッチパネルを備える必要もない。このため、例えばパーソナルコンピュータ装置などの各種情報処理装置が、第2端末100bとして機能するようにしてもよい。
[2-4. Effect of Second Embodiment]
According to the example of the second embodiment, the state in which the presenter touches the
In the case of the second embodiment, the
<3.変形例>
[3−1.筐体の側面を表示する例]
図1や図14に示した例では、スクリーン210に表示される画像として、端末の正面の筐体画像を表示するようにした。これに対して、筐体の側面などに配置された操作ボタンの操作を説明するために、操作ボタンなどが配置された筐体の側面の画像を、スクリーン210上に同時に表示させるようにしてもよい。
例えば図17に示すように、端末100(又は端末100b)内での画像合成処理では、スクリーン210上に端末の正面の筐体画像221Fを表示すると共に、その筐体画像221Fの脇に、側面の筐体画像221Sを表示している。また、端末100の実際の構成に対応して、正面の筐体画像221Fには操作スイッチ225−1が配置され、側面の筐体画像221Sには操作スイッチ225−2が配置される。
<3. Modification>
[3-1. Example of displaying the side of the housing]
In the example shown in FIGS. 1 and 14, the case image in front of the terminal is displayed as the image displayed on the screen 210. On the other hand, in order to explain the operation of the operation buttons arranged on the side surface of the housing, an image of the side surface of the housing on which the operation buttons are arranged may be displayed on the screen 210 at the same time. Good.
For example, as shown in FIG. 17, in the image composition processing in the terminal 100 (or the terminal 100b), a
そして、図17に示すように、端末100の側面に配置された操作スイッチ134−2の手指f′による操作があったとき、制御部120は、側面の筐体画像221Sに表示された操作スイッチ225−2を操作する手指226を画像中に合成し、スクリーン210上に表示する。
Then, as shown in FIG. 17, when there is an operation with the finger f ′ of the operation switch 134-2 disposed on the side surface of the terminal 100, the
このような側面の操作スイッチの操作状況についても表示することで、より良好なプレゼンテーションを行うことができる。なお、端末100の正面に配置された操作スイッチ134−1が操作された場合にも、同様に手指の画像を合成して操作状態を説明するようにしてもよい。
また、図17では、端末の右側面の画像だけを表示する例を示したが、制御部120は、左側面などの他の側面や背面の画像をスクリーン上に並べて表示させるようにしてもよい。
By displaying the operation status of the operation switches on such side surfaces, it is possible to perform a better presentation. Note that even when the operation switch 134-1 disposed on the front surface of the terminal 100 is operated, the operation state may be described by synthesizing the images of fingers.
17 shows an example in which only the image on the right side of the terminal is displayed, the
[3−2.その他の変形例]
上述した各実施の形態例では、端末100又は100aに配置されたフェイスカメラ132又は132aが撮影した画像から、表示パネルへの手指の接近を検出するようにした。これに対して、フェイスカメラが配置されていない端末、あるいはフェイスカメラでパネルに接近した手指の撮影が不可能な端末の場合には、合成画像で接近した手指を表示しないようにしてもよい。すなわち、タッチ入力検出部121又は121aがタッチ入力を検出した時点で、スクリーン210に投射される画像にタッチした手指を合成するようにしてもよい。この場合には、画面上に突然手指が現れることになるが、端末の操作方法を説明するという目的は達成することができる。タッチを検出しなくなった場合にも、合成された手指が下などに移動して消えるのではなく、突然画面から消えるようにしてもよい。
[3-2. Other variations]
In each of the above-described embodiments, the approach of a finger to the display panel is detected from an image captured by the
また、ここまで説明した各実施の形態例では、端末100又は100bとプロジェクタ装置200とを接続して、プロジェクタ装置200がスクリーン210に投射する画像で、プレゼンテーションを行う例とした。これに対して、例えば端末100又は100bが備える画像出力部として、無線又は有線の所定のネットワークに画像データを出力する機能を備えるようにしてもよい。このようにすることで、ネットワークに接続された遠隔地の表示装置が、端末100又は100bが出力する画像を表示するようになる。したがって、端末100又は100bを操作しているプレゼンターが、遠隔地にいる者に対してプレゼンテーションを行うことができるようになる。
また、図1や図14に示す構成において、端末100又は100bからプロジェクタ装置200に、無線で画像データを伝送するようにしてもよい。また、プロジェクタ装置200以外の表示装置が、画像を表示するようにしてもよい。
Further, in each of the exemplary embodiments described so far, the terminal 100 or 100b and the
In the configuration shown in FIG. 1 or FIG. 14, image data may be transmitted wirelessly from the terminal 100 or 100b to the
また、図3又は図16のフローチャートに示す画像処理を行うプログラムを作成して、そのプログラムを既存の端末に実装することで、上述した第1又は第2の実施の形態の例で説明した処理を行うようにしてもよい。 In addition, by creating a program for performing the image processing shown in the flowchart of FIG. 3 or FIG. 16 and mounting the program on an existing terminal, the processing described in the above-described example of the first or second embodiment May be performed.
100…端末、100a…第1端末、100b…第2端末、101,101b…出力ポート、102…伝送ケーブル、110,110a,110b…表示部、120,120a,120b…制御部、121,121a…タッチ入力検出部、122…第1フレームメモリ、122a,122b…フレームメモリ、123…画像合成部、124…第2フレームメモリ、125a,125b…画像描画部、126a,126b…通信処理部、131,131a…重力センサ、132,132a…フェイスカメラ、133,133a,133b…記憶部、200…プロジェクタ装置、210…スクリーン、220…投射画像、221…筐体画像、222…端末表示画像、223…合成された手指
DESCRIPTION OF SYMBOLS 100 ... Terminal, 100a ... 1st terminal, 100b ... 2nd terminal, 101, 101b ... Output port, 102 ... Transmission cable, 110, 110a, 110b ... Display part, 120, 120a, 120b ... Control part, 121, 121a ...
Claims (6)
前記表示部のパネル表面のタッチを検出するタッチ入力検出部と、
前記タッチ入力検出部で検出したタッチ状態に応じて、前記表示部が表示する画像に手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、
前記表示部のパネルが配置された側の周囲を撮影するカメラと、を備え、
前記画像合成部は、前記カメラが撮影した画像に基づいて、前記表示部のパネル表面に近接した手指の画像を合成すると共に、合成する合成する手指の画像は、前記タッチ入力検出部が検出したタッチの数に応じて決まる形状の手指の画像で、且つ、前記表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像である
プレゼンテーション用端末。 A display unit;
A touch input detection unit for detecting a touch on the panel surface of the display unit;
An image synthesis unit that synthesizes an image of a finger with an image displayed by the display unit according to a touch state detected by the touch input detection unit;
An image output unit for outputting the image data synthesized by the image synthesis unit;
A camera for photographing the periphery of the side where the panel of the display unit is disposed,
The image composition unit synthesizes an image of a finger adjacent to the panel surface of the display unit based on an image taken by the camera, and the touch input detection unit detects the image of the finger to be synthesized. A presentation terminal, which is an image of a finger having a shape determined according to the number of touches, and a finger selected according to the size of the panel included in the display unit touches the panel .
前記表示部のパネル表面のタッチを検出するタッチ入力検出部と、
前記タッチ入力検出部で検出したタッチ状態に応じて、前記表示部が表示する画像に手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、を備え、
前記画像合成部は、プレゼンテーション用端末の筐体に配置されたボタン又はスイッチが描画された筐体の画像を用意し、その筐体の表示パネルの箇所に、前記表示部が表示する画像を配置した上で、手指の画像を合成する
プレゼンテーション用端末。 A display unit;
A touch input detection unit for detecting a touch on the panel surface of the display unit;
An image synthesis unit that synthesizes an image of a finger with an image displayed by the display unit according to a touch state detected by the touch input detection unit;
An image output unit that outputs the image data synthesized by the image synthesis unit ;
The image composition unit prepares an image of a case on which buttons or switches arranged on the case of the presentation terminal are drawn, and arranges an image to be displayed on the display panel in the case A presentation terminal that combines images of fingers .
請求項2に記載のプレゼンテーション用端末。 The presentation terminal according to claim 2 , wherein the image synthesizing unit synthesizes an image of a side surface of the casing of the presentation terminal.
前記表示部のパネル表面のタッチを検出するタッチ入力検出部と、
前記タッチ入力検出部で検出したタッチ状態に応じて、前記表示部が表示する画像に手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、
前記表示部のパネルの底面の方向及び指の向きを検出するセンサ及びカメラと、を備え、
前記画像合成部は、前記センサ及びカメラから取得した、前記表示部のパネルの底面の方向及び指の向きの情報に基づいて、手指の画像を合成する方向を設定する
プレゼンテーション用端末。 A display unit;
A touch input detection unit for detecting a touch on the panel surface of the display unit;
An image synthesis unit that synthesizes an image of a finger with an image displayed by the display unit according to a touch state detected by the touch input detection unit;
An image output unit for outputting the image data synthesized by the image synthesis unit;
A sensor and a camera for detecting the direction of the bottom surface of the panel of the display unit and the direction of the finger,
The image synthesizing unit is a presentation terminal that sets a direction for synthesizing a finger image based on information on a direction of a bottom surface of the panel of the display unit and a finger direction obtained from the sensor and the camera .
前記入力部に入力した画像データによる画像に、前記タッチ位置のデータで示されたタッチ検出状態に応じた手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、を備え、
前記画像合成部は、前記他の端末に配置されたセンサ及びカメラから得られた、前記表示部のパネルの底面の方向及び指の向きの情報に基づいて、前記入力部に入力した画像データによる画像に手指の画像を合成する方向を設定する
プレゼンテーション用端末。 An input unit for inputting image data displayed on a display unit of another terminal and touch position data on the panel surface of the display unit;
An image synthesis unit that synthesizes an image of a finger corresponding to a touch detection state indicated by the data of the touch position on an image based on the image data input to the input unit;
An image output unit that outputs the image data synthesized by the image synthesis unit ;
The image composition unit is based on the image data input to the input unit based on information on the direction of the bottom surface of the panel of the display unit and the orientation of the finger obtained from the sensors and cameras arranged in the other terminals. A presentation terminal that sets the direction in which the image of a finger is combined with the image .
前記タッチパネルでのタッチ状態を検出するタッチ入力検出処理ステップと、
前記タッチ入力検出処理ステップで検出したタッチ状態に応じて、前記画像取得処理ステップで取得した画像に手指の画像を合成する画像合成処理ステップと、
前記画像合成処理ステップで合成された画像データを出力する画像出力処理ステップと、を含み、
前記画像合成処理ステップで合成する際には、前記表示部のパネルが配置された側の周囲を撮影するカメラの撮影画像に基づいて、前記表示部のパネル表面に近接した手指の画像を合成すると共に、合成する合成する手指の画像は、前記タッチ入力検出処理ステップで検出したタッチの数に応じて決まる形状の手指の画像で、且つ、前記表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像とした
プレゼンテーション方法。 An image acquisition processing step for acquiring an image displayed by a display unit with a touch panel;
A touch input detection processing step for detecting a touch state on the touch panel;
In accordance with the touch state detected in the touch input detection processing step, an image synthesis processing step of synthesizing a finger image with the image acquired in the image acquisition processing step;
An image output processing step for outputting the image data combined in the image combining processing step ,
When synthesizing in the image synthesizing process step, an image of a finger that is close to the panel surface of the display unit is synthesized based on a photographed image of a camera that captures the periphery of the display unit panel. The finger image to be synthesized is selected according to the finger image having a shape determined according to the number of touches detected in the touch input detection processing step and the size of the panel included in the display unit. Presentation method with finger image touching panel .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116479A JP6193180B2 (en) | 2014-06-05 | 2014-06-05 | Presentation terminal and presentation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116479A JP6193180B2 (en) | 2014-06-05 | 2014-06-05 | Presentation terminal and presentation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015230587A JP2015230587A (en) | 2015-12-21 |
JP6193180B2 true JP6193180B2 (en) | 2017-09-06 |
Family
ID=54887327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014116479A Active JP6193180B2 (en) | 2014-06-05 | 2014-06-05 | Presentation terminal and presentation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6193180B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6701925B2 (en) | 2016-04-27 | 2020-05-27 | セイコーエプソン株式会社 | Image supply device, control method of image supply device, and program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4329475B2 (en) * | 2003-10-02 | 2009-09-09 | セイコーエプソン株式会社 | Decorative image selection |
JP5247200B2 (en) * | 2008-03-27 | 2013-07-24 | 株式会社デンソーアイティーラボラトリ | Map display system, map display method and program |
JP4626860B2 (en) * | 2009-01-30 | 2011-02-09 | 株式会社デンソー | Operating device |
JP5532300B2 (en) * | 2009-12-24 | 2014-06-25 | ソニー株式会社 | Touch panel device, touch panel control method, program, and recording medium |
CN102511029A (en) * | 2010-06-18 | 2012-06-20 | 松下电器产业株式会社 | Operation support device and operation support method |
JP2012022458A (en) * | 2010-07-13 | 2012-02-02 | Canon Inc | Information processing apparatus and control method thereof |
JP2012155434A (en) * | 2011-01-25 | 2012-08-16 | Kyocera Corp | Electronic device |
JP2012249978A (en) * | 2011-06-06 | 2012-12-20 | Namco Bandai Games Inc | Program, information storage medium, game device and server system |
KR101178396B1 (en) * | 2012-02-22 | 2012-08-30 | 알서포트 주식회사 | Method for displaying mobile terminal in remote device and apparatus for performing the same |
JP5906984B2 (en) * | 2012-07-30 | 2016-04-20 | カシオ計算機株式会社 | Display terminal device and program |
JP2015102952A (en) * | 2013-11-22 | 2015-06-04 | 株式会社デンソー | Display processing device |
-
2014
- 2014-06-05 JP JP2014116479A patent/JP6193180B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015230587A (en) | 2015-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6288084B2 (en) | Display control device, display control method, and recording medium | |
JP6573755B2 (en) | Display control method, information processing program, and information processing apparatus | |
EP3769509B1 (en) | Multi-endpoint mixed-reality meetings | |
WO2014188798A1 (en) | Display control device, display control method, and recording medium | |
KR101446902B1 (en) | Method and apparatus for user interraction | |
CN108038726B (en) | Article display method and device | |
JP2014186361A (en) | Information processing device, operation control method, and program | |
EP4246287A1 (en) | Method and system for displaying virtual prop in real environment image, and storage medium | |
CN112585564A (en) | Method and apparatus for providing input for head-mounted image display device | |
JP2016134851A (en) | Communication system for use in remote communication | |
JP2018010496A (en) | Image processing apparatus, control method thereof, and program | |
JP2017182110A (en) | Display system, display device, information processor, and information processing method | |
JP2012217101A (en) | Information processor, control method of the same, program, and storage medium | |
JP2016038728A (en) | Image display device, control method of image display device and program thereof | |
US11922904B2 (en) | Information processing apparatus and information processing method to control display of a content image | |
US10591986B2 (en) | Remote work supporting system, remote work supporting method, and program | |
JP6193180B2 (en) | Presentation terminal and presentation method | |
EP3974949A1 (en) | Head-mounted display | |
JP6308842B2 (en) | Display system and program | |
US10545716B2 (en) | Information processing device, information processing method, and program | |
KR101709529B1 (en) | Apparatus and method for controlling image screen using portable terminal | |
JP2014170367A (en) | Object detection device, object detection method, object detection system and program | |
CN114895862A (en) | Screen projection method, device and equipment of intelligent terminal | |
US20200379642A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP7210884B2 (en) | Information processing device, display system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6193180 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |