JP2015230587A - プレゼンテーション用端末及びプレゼンテーション方法 - Google Patents

プレゼンテーション用端末及びプレゼンテーション方法 Download PDF

Info

Publication number
JP2015230587A
JP2015230587A JP2014116479A JP2014116479A JP2015230587A JP 2015230587 A JP2015230587 A JP 2015230587A JP 2014116479 A JP2014116479 A JP 2014116479A JP 2014116479 A JP2014116479 A JP 2014116479A JP 2015230587 A JP2015230587 A JP 2015230587A
Authority
JP
Japan
Prior art keywords
image
finger
touch
terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014116479A
Other languages
English (en)
Other versions
JP6193180B2 (ja
Inventor
池田 誠
Makoto Ikeda
誠 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2014116479A priority Critical patent/JP6193180B2/ja
Publication of JP2015230587A publication Critical patent/JP2015230587A/ja
Application granted granted Critical
Publication of JP6193180B2 publication Critical patent/JP6193180B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】タッチパネル付きの端末の操作のプレゼンテーションが、プロジェクタ装置などを使って良好に出来るようにする。【解決手段】端末100は、表示部110と、表示部のパネル表面のタッチを検出するタッチ入力検出部と、画像合成部と、画像出力部とを備える。画像合成部は、タッチ入力検出部で検出したタッチ状態に応じて、表示部が表示する画像に手指の画像を合成する。画像出力部は、画像合成部が合成した画像データを出力する。このようにすることで、例えば画像出力部が出力する画像データをプロジェクタ装置200に送り、スクリーン210に投射することで、投射画像には、端末100のパネルをタッチする手指fと同様の手指223が表示されるようになる。【選択図】図1

Description

本発明は、タッチパネルを備えた端末を使用してプレゼンテーションを行う場合に適用されるプレゼンテーション用端末、及びその端末を使用して行われるプレゼンテーション方法に関する。
従来、多数の人に対して、端末の操作方法などをプレゼンテーションする場合、プロジェクタ装置を使用して、操作方法の画像をスクリーンなどに拡大投影し、その投影画像で案内するのが一般的である。この場合、プレゼンテーションを実行する操作者は、レーザーポインタなどを使用して、画像中の操作が必要な箇所を指し示すことで、どの箇所を具体的に操作すればよいかの指示を行う。
例えば、タブレット端末と称されるタッチパネルを備えた情報処理端末は、表示パネルの表面を操作者が直接タッチして、様々な操作を行うことができる。したがって、タブレット端末の操作を説明するときには、実際のタブレット端末をタッチ操作して表示される画像を、プロジェクタ装置で拡大投影すれば、端末の操作方法を効率よくプレゼンテーションすることができる。
しかしながら、実際のタブレット端末に表示される画像は、ユーザが操作した結果の画像であるため、実際のタブレット端末に表示される画像をそのまま拡大投影しただけでは、操作者が、端末をどのようにタッチ操作したのか分からないという問題がある。
すなわち、タブレット端末の画像データ出力端子をプロジェクタ装置に接続して、タブレット端末が表示する画像を拡大投影するだけでは、操作者の指の動きなどは表示されない。このため、指を動かす方向や動かす速度などに特徴がある操作を、このような拡大投影で的確に説明することは困難である。
特許文献1には、携帯端末の画像をプロジェクタ装置が投影してプレゼンテーションを行う場合に、携帯端末のタッチパネルのタッチ軌跡を投影画像に合成する点についての記載がある。
特開2013−73595号公報
特許文献1には、端末のタッチパネルのタッチ軌跡をマーカーとして表示する方法が記載されている。しかしながら、このようなタッチ軌跡をマーカーとして表示した場合、その表示画像を見ている者には、どこをタッチしたのかが分かるだけであり、より詳細な操作状況までは分からない。すなわち、近年、タブレット端末のタッチパネルを使用した操作は、非常に複雑化しており、指を動かす速さや方向などにより、指示を行う内容が様々であり、そのような複雑な操作を、タッチ軌跡だけで指示することは簡単ではない。特に、タブレット端末では、複数本の指を使用したマルチタッチによる操作があるが、マーカーによるタッチ軌跡の表示では、このようなマルチタッチの操作を的確に表示することは困難であった。
この問題点を解決するためには、例えば端末とは別にビデオカメラを用意して、そのビデオカメラで操作者がタッチパネルを操作する様子を撮影して、撮影画像を投射することが考えられる。しかしながら、端末とは別にビデオカメラを用意すると、プレゼンテーションを行うためのシステム構成が非常に大がかりなものになる。また、ビデオカメラで撮影した画像には、天井の照明の映り込みが入る可能性が高く、非常に見にくい画像になってしまうという問題がある。さらに、ビデオカメラは、端末の表示パネルに表示される画面を撮影する位置に固定する必要があり、ビデオカメラを固定するための複雑な機構が必要になるという問題もある。
本発明のプレゼンテーション用端末及びプレゼンテーション方法は、タッチパネル付きの端末の操作のプレゼンテーションが、プロジェクタ装置などを使って良好にできるようにすることを目的とする。
本発明のプレゼンテーション用端末は、表示部と、表示部のパネル表面のタッチを検出するタッチ入力検出部と、画像合成部と、画像出力部とを備える。
画像合成部は、タッチ入力検出部で検出したタッチ状態に応じて、表示部が表示する画像に手指の画像を合成する。
画像出力部は、画像合成部が合成した画像データを出力する。
また、本発明のプレゼンテーション用端末は、表示部とタッチ入力検出部を備える代わりに、入力部を備えるようにしてもよい。
この場合、入力部からは、他の端末の表示部で表示された画像データと、他の端末の表示部のパネル表面のタッチ位置のデータとが入力される。そして、画像合成部は、入力部から入力された画像データによる画像に、タッチ状態に応じた手指の画像を合成する。
また、本発明のプレゼンテーション方法は、画像取得処理と、タッチ入力検出処理と、画像合成処理と、画像出力処理とを行う。
画像取得処理は、タッチパネル付きの表示部が表示した画像を取得する。
タッチ入力検出処理は、タッチパネルでのタッチ状態を検出する。
画像合成処理は、タッチ位置検出処理で検出したタッチ状態に応じて、画像取得処理で取得した画像に手指の画像を合成する。
画像出力処理は、画像合成処理で合成された画像データを出力する。
本発明によると、例えば端末が出力する画像データをプロジェクタ装置に送ってスクリーンに投射することで、投射画像には、端末のパネルをプレゼンターがタッチする手と同様の手指が表示されるようになる。したがって、端末のタッチ操作の詳細と、そのタッチ操作で生じる画面遷移を、多数の人に良好にプレゼンテーションすることが可能になる。
また、端末が出力する画像データを、遠隔地の受講者に伝送することで、遠隔地の人にも良好にプレゼンテーションすることが可能になる。
本発明の第1の実施の形態例によるシステム構成を示す説明図である。 本発明の第1の実施の形態例による端末の構成を示すブロック図である。 本発明の第1の実施の形態例による表示処理の流れを示すフローチャートである。 本発明の第1の実施の形態例による表示例(一点タッチの例)を示す説明図である。 本発明の第1の実施の形態例による表示例(一点タッチ後のリリース操作の例)を示す説明図である。 本発明の第1の実施の形態例による表示例(二点タッチの例)を示す説明図である。 本発明の第1の実施の形態例による表示例(二点タッチ後のピンチイン操作の例)を示す説明図である。 本発明の第1の実施の形態例による表示例(二点タッチ後のピンチアウト操作の例)を示す説明図である。 本発明の第1の実施の形態例による表示例(二点タッチ後のドラッグ操作の例)を示す説明図である。 本発明の第1の実施の形態例による表示例(二点タッチ後のリリース操作の例)を示す説明図である。 本発明の第1の実施の形態例による表示例(三点タッチの例)を示す説明図である。 端末の種類とサイズによって操作を行う指の相違を示す説明図である。 本発明の第1の実施の形態例による端末の種類と指の割り当てを示す説明図である。 本発明の第2の実施の形態例によるシステム構成を示す説明図である。 本発明の第2の実施の形態例による端末の構成を示すブロック図である。 本発明の第2の実施の形態例による表示処理の流れを示すフローチャートである。 本発明の実施の形態例の変形例を示す説明図である。
<1.第1の実施の形態の例>
以下、本発明の第1の実施の形態例を、図1〜図13を参照して説明する。
[1−1.システム全体の構成例]
図1は、本発明の第1の実施の形態例のシステム全体の概要を示す図である。
図1に示すように、このシステムでは、端末100とプロジェクタ装置200が用意される。端末100は、プレゼンターが操作方法をプレゼンテーションする機器である。端末100は、表示部110の表示パネルがタッチパネルを備え、利用者が指でタッチパネルをタッチすることで様々な操作を行うことができる。ここでは、端末100として、表示パネルの対角線のサイズが10インチ程度のタブレット端末を使用する。但し、タブレット端末を使用するのは1つの例であり、その他の形態のタッチパネル付きの端末を使用してもよい。
端末100は、出力ポート101から画像データが出力される。この出力される画像データは、伝送ケーブル102を介してプロジェクタ装置200に供給される。プロジェクタ装置200は、端末100から伝送された画像をスクリーン210に拡大投射する。このスクリーン210上での投射画像220により、端末100の操作方法がプレゼンテーションされる。
プレゼンターがプレゼンテーションする操作は、端末100の表示部110の表示パネル上を指fでタッチして行う操作である。端末100をタッチ操作する指fは、プレゼンターの指である。したがって、端末100の表示部110に表示される画像を、そのままプロジェクタ装置200に伝送して、スクリーン210に投射したとしても、投射画像220には、指fは表示されない。
ここで本実施の形態例においては、図1に示すように、スクリーン210上に、端末表示画像222に操作手指223を合成した投射画像220を表示するようにした。また、端末100の外形形状とほぼ等しい筐体画像221をスクリーン220上に表示し、その筐体画像221の表示パネルの箇所に、端末表示画像222を表示するようにした。これらの投射画像220の元になる画像データを作成する処理は、端末100の内部で行われ、プロジェクタ装置200は、端末100から伝送された画像をそのままスクリーン210に投射する。したがって、プロジェクタ装置200は、本実施の形態例の処理を行う上で特別な処理を必要としない。
[1−2.端末の構成例]
図2は、端末100の内部構成を示す図である。
端末100は、表示部110と制御部120とを備える。表示部110の表示パネルには、タッチパネルが一体化され、制御部120内のタッチ入力検出部121がタッチ操作を検出する。
制御部120は、表示部110に表示される画像を記憶する第1フレームメモリ122を備える。この第1フレームメモリ122には、端末100に実装されたアプリケーションプログラムを実行することにより得られた画像が記憶される。なお、アプリケーションプログラムは、記憶部133に記憶されている。
端末100が実行中のアプリケーションプログラムは、タッチパネルのタッチ操作で様々な操作の指示を行うものである。例えば、端末100は、タッチ操作により表示画像を切り替える操作や、表示中の画像に関連した別の情報を表示する操作や、表示中の画像の拡大又は縮小を指示する操作などを行うことができる。
また、制御部120は、第1フレームメモリ122に記憶された表示中の画像データを、画像合成部123に供給する。画像合成部123では、図1で説明した筐体画像や手指の画像を合成する処理が行われる。画像合成部123で合成処理が行われた画像データは第2フレームメモリ124に供給され、第2フレームメモリ124に記憶される。
画像合成部123で合成される筐体画像や手指の画像のデータは、例えば記憶部133に予め記憶されている。この画像合成部123で合成される手指の画像については、例えば、手指が綺麗な人物(モデル、タレントなど)の手指を撮影して得た画像とするのが好ましい。また、記憶部133には、制御部120が実行する制御処理に必要なデータも記憶されている。
第2フレームメモリ124に記憶された画像合成後の画像データは、出力ポート101から外部に出力される。出力ポート101は、所定の伝送フォーマットで画像データを出力する画像出力部として機能するものである。この出力ポート101には、図1に示す伝送ケーブル102が接続される。
また、端末100は、重力が働く方向を検出する重力センサ131を備え、端末100を構成する筐体の向きを検出する。すなわち、制御部120は、重力センサ131の検出データに基づいて、筐体の向きが、表示パネルが縦長になる向きと、表示パネルが横長になる向きの、いずれであるかを判断する。この制御部120での向きの判断に基づいて、制御部120は、表示部110に表示される画像の縦と横の方向や、下側や上側となる方向を決める。
さらに、端末100は、フェイスカメラ132と操作スイッチ134を備える。フェイスカメラ132は、図1に示すように、端末100の表示パネルの上部に配置され、表示パネルの近傍を撮影するものである。フェイスカメラ132は、通常、端末100に近接した操作者の顔などを撮影するものであるが、本実施の形態の例では、表示パネルに近接した手指を撮影する。制御部120は、フェイスカメラ132が撮影した画像から、表示パネルに近接した手指を検出する。なお、フェイスカメラ132は、手指の検出を行うために撮影を行う際には、制御部120の制御で、フォーカスが合う範囲を、表示パネル面から数センチから10センチ程度の非常に近い範囲にオートフォーカス機能で設定する。なお、通常時には、フォーカスが合う範囲は、より遠い範囲に設定されている。
操作スイッチ134は、例えば端末100の筐体の側面などに配置されるスイッチである。端末100が実行中のアプリケーションプログラムによっては、この操作スイッチ134の操作が必要となる場合もある。
[1−3.表示処理の流れの例]
次に、端末100が行う表示処理の流れを、図3のフローチャートを参照して説明する。図3のフローチャートでは、端末100の制御部120が行う表示のための制御の流れをステップS11〜S13で示すと共に、制御部120内の画像合成部123で行われる画像処理の流れをステップS21〜S23で示す。さらに図3のフローチャートでは、制御部120とその周辺部とのデータのやり取りについても、破線で示す。
制御部120が行う制御としては、まず制御部120で、表示部110のタッチパネルでタッチされた位置などを判断するタッチ入力検出処理が行われる(ステップS11)。この制御部120によるタッチ位置の判断は、表示部110に配置されたタッチパネルのタッチ入力検出部121におけるタッチ位置の検出に基づいて行われる。
次に、制御部120は、手指の検出処理を行う(ステップS12)。ここでは、制御部120は、ステップS11で判断したタッチ位置と、重力センサ131の検出データと、フェイスカメラ132が撮影した画像データとを使用する。すなわち、重力センサ131での検出データに基づいて、表示部110の表示パネルの底面(下側)がどの方向かを判断する。また、フェイスカメラ132が撮影した画像から、手指が表示パネルに接近しているか否かを判断する。これらの判断に基づいて、タッチパネルへのタッチを検出した際には、そのタッチした指の向きなどを判断する。また、タッチパネルでタッチを検出しない状態で、フェイスカメラ132の撮影画像から手指を検出したときには、制御部120は、タッチパネルに手指が接近した状態であると判断する。
そして、制御部120は、ステップS11,S12でのタッチ位置などの判断に基づいて、表示部110に表示する画像を確定し、その表示画像を第1フレームメモリ122に描画する(ステップS13)。ここでは、制御部120は、例えば表示画像中の特定箇所がタッチ操作で選択されたとき、その選択箇所の画像に変形を加える等の効果を施し、アプリケーションプログラムの実行状況に応じた画像処理を行う。表示部110は、第1フレームメモリ122に描画された画像の表示を行う。
制御部120では、表示部110が画像を表示する間、このステップS11,S12,S13の処理が繰り返し実行される。
また、上述した表示部110での表示処理と並行して、画像合成部123において、出力ポート101から出力される画像データの生成処理が行われる。すなわち、画像合成部123は、ステップS13で第1フレームメモリ122に描画された画像データを取り込み、表示用の画像データを取得する画像取得処理を行う(ステップS21)。
次に、画像合成部123は、画像に手指画像を合成する処理を行う(ステップS22)。このとき、画像合成部123は、制御部120がステップS12で検出した手指の位置に手指画像を合成する。また、画像合成部123は、第1フレームメモリ122から得た画像の周囲に、端末の筐体画像を合成する。これらの手指画像や筐体画像は、記憶部133から読み出した画像である。
なお、後述する例のように、手指の状態によっては、手指画像を合成する際の、その手指の影の画像を付加する場合がある。この影の画像も、記憶部133に予め記憶されている画像である。
そして、画像合成部123は、合成された画像を第2フレームメモリ124に供給し、第2フレームメモリ124上で端末の筐体や手指が合成された画像を描画する(ステップS23)。この第2フレームメモリ124で描画された画像が、出力ポート101から外部に出力され、プロジェクタ装置200でスクリーン210に投射される。
画像合成部123では、表示部110が画像を表示する間、このステップS21,S22,S23の処理が繰り返し実行される。
[1−4.一点タッチの表示例]
次に、プレゼンターが端末100を操作したときに、スクリーン210上が表示する画像の例を説明する。
まず、図4を参照して、プレゼンターが端末100の表示パネル上の一点をタッチしたときに、スクリーン210上に表示される画像の例を説明する。
図4Aは、制御部120による指のタッチ認識と近接認識が行われる期間を示す。図4Bは、プレゼンターの手指による端末100(実機)の表示パネルの表面のタッチ操作状態を示す。図4Cは、スクリーン210に投射される画像を示す。これら図4A,B,Cは、それぞれ左から右に操作状態が進んで行く様子を示す。後述する図5〜図11についても、同様に各図のAが、タッチ認識と近接認識が行われる期間を示し、各図のBがプレゼンターの手指によるタッチ操作状態を示し、各図のCが端末100の第2フレームメモリ124に描画されて、スクリーン210に投射される画像を示す。また、プレゼンターが実際に操作を説明する際には、何らかの画像が端末100や投射画像内の端末に表示されているが、図4〜図11では、端末内の表示画像は省略する。
プレゼンターによる操作状態としては、最初の状態は、図4Bに左から順に示すように、表示パネル110−1は、何もタッチされていない状態である。次の表示パネル110−2は、手指f1がパネル表面に近づいた状態である。但し、この表示パネル110−2の状態では、手指f1の位置はパネル表面から遠く、制御部120は、手指の接近を検出しない。したがって、図4Cに示すように、それぞれのタイミングでスクリーン210に投射される画像による筐体画像221−1,222−2には、手指画像が表示されない。
図4Aに示すように、フェイスカメラ132が手指の近接を検出したタイミングt1になると、図4Bに示す表示パネル110−3のほぼ中央に手指f1が近接した状態に変化する。このとき、図4Cに示すように、スクリーン210に投射される筐体画像221−3には、手指画像223−3が合成された状態になる。そして、矢印UPで示すように、筐体画像221−3の下側から手指画像223−3が徐々に上がって行き、図4Cに示す位置になる。この場合、手指画像223−3は、例えば1秒程度の時間をかけて移動する。
また、このように手指f1の近接を検出した際に表示される手指画像223−3には、その手指の影画像224−3が付加されている。この影画像224−3が付加されることで、合成された手指画像223−3による指が、表示パネルの表面から離れた状態であることが分かる表示となる。
その後、タッチ入力検出部121でタッチを検出するタイミングt2(図4A参照)で、プレゼンンターは、図4Bに示す表示パネル110−4の特定箇所Aを手指f1でタッチする。この特定箇所Aの位置は、図4Bに示すように、表示パネル上の水平方向xと垂直方向yで決まる。このとき、図4Cに示すように、スクリーン210に投射される筐体画像221−4には、特定箇所Aを人差し指の先端がタッチした手指画像223−4が合成された状態になる。この場合の手指画像223−4にも、その手指の影画像224−4が付加されている。但し、手指画像223−4は、特定箇所Aをタッチした状態を示しているため、タッチ箇所の指の部分では、ほとんど影がない状態であり、タッチ箇所から離れた箇所で、わずかな影を表示した状態である。
なお、図4に示すように一点タッチの際に人差し指がタッチした画像となるのは1つの例であり、手指の画像を合成する際に、タッチを行う指を割り当てる方法については後述する。
[1−5.一点タッチ後のリリース操作時の表示例]
次に、先に図4で説明した一点タッチが行われた後に、手指が表示パネルの表面から離されるリリース操作時の表示例を、図5を参照して説明する。
図5Bの左端に示す表示パネル110−4の手指f1によるタッチ操作状態は、図4Bの右端に示す表示パネル110−4の手指fによるタッチ操作状態と同じ状態である。図5Cの左端に示す手指画像223−4についても、図5Cの左端に示す手指画像223−4と同じである。
この状態で、図5Aに示すようにタイミングt3で、タッチ入力検出部121により指の特定箇所Aからのリリースが検出され、タイミングt3の直後のタイミングt4で、フェイスカメラ132により手指が近接していない状態が検出されたとする。
このとき、図5Cに示すように、手指画像223−5が筐体画像221−5の表面から離れた状態に合成される。この手指が離れた状態は、手指の影画像224−5の付加で示される。そして、この図5Cに示す手指画像223−5は、矢印DOWNで示すように、時間の経過と共に下側に移動する。このときの手指223−5の下側への移動は、例えば1秒程度の時間で行われる。
そして、図5Bの右端に示すように手指f1が端末100から完全に離れた状態では、図5Cの右端に示すように、投射画像中の筐体画像221−6には手指画像が合成されない。
[1−6.二点タッチの表示例]
図6は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした場合の例である。
最初の状態では、図6Bの左端に示すように、表示パネル110−11は、何もタッチされていない状態であり。次の表示パネル110−12は、手指f2がパネル表面に近づいた状態である。但し、この表示パネル110−12の状態では、手指f2の位置はパネル表面から遠く、制御部120は、まだ手指の接近を検出しない。したがって、図6Cに示すように、それぞれのタイミングでスクリーン210に投射される画像による筐体画像221−11,222−12には、手指画像が表示されない。
そして、図6Aに示すように、フェイスカメラ132が手指の近接を検出したタイミングt11になると、図6Bに示す表示パネル110−13のほぼ中央に手指f2が近接した状態に変化する。このとき、図6Cに示すように、スクリーン210に投射される筐体画像221−13は、手指画像223−13が合成された状態になる。また、このように手指f2の近接を検出した際に表示される手指画像223−13には、その手指の影画像224−13が付加される。
ここまでは図4に示した一点タッチの場合と同じであり、手指画像223−13は指1本が伸びた画像である。
その後、図6Aに示すように、タッチ入力検出部121でタッチを検出したタイミングt12では、プレゼンターが、図6Bに示す表示パネル110−4の2つの特定箇所A,Bを手指f2a,f2bがタッチした状態とする。2つの特定箇所A,Bは、図6Bに示すように、表示パネル上の水平方向の座標x1,x2と垂直方向の座標y1,y2でタッチ位置が決まる。このとき、図6Cに示すように、スクリーン210に投射される筐体画像221−14には、特定箇所A、Bをそれぞれ別の指でタッチした手指画像223−14が合成された状態になる。手指画像223−14では、左下の特定箇所Aを親指がタッチした状態とし、右上の特定箇所Bを人差し指がタッチした状態とする。このタッチする指の割り当て状態の例は後述する。
また、この場合の手指画像223−14にも、その手指の影画像224−14が付加されている。但し、手指画像223−14は、特定箇所Aをタッチした状態を示しているため、タッチ箇所A、Bの指の部分では、ほとんど影がない状態であり、タッチ箇所A、Bから離れた箇所で、わずかな影を表示した状態である。
[1−7.二点タッチ後のピンチイン操作の表示例]
図7は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、そのタッチした二点の距離を縮めるピンチイン操作を行った場合の例である。このピンチイン操作は、例えば表示画像の縮小を指示する際に行われる。ここでは、図7Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図7Bの左側に示す表示パネル110−15の操作状態は、図6Bの右端に示す操作状態と同じであり、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図7Bの右側に示すように、表示パネル110−16の上で、タッチした特定位置A,Bの距離を狭くするピンチイン操作を行ったとする。
このとき、ピンチイン操作前には、図7Cの左側に示すように、筐体画像221−15として、タッチした特定位置A,Bの距離が長い手指画像223−15が合成された状態である。これに対して、ピンチイン操作後には、図7Cの右側に示すように、筐体画像221−15として、タッチした特定位置A,Bの距離が短い手指画像223−15に変化する。図7ではピンチイン操作前とピンチイン操作後の2つの状態を示すが、実際には連続して手指画像の指が指し示す位置が変化する。手指画像223−15で示されるタッチ位置A,Bは、実際にプレゼンターが2本の指2fa,2fbでタッチした特定位置A,Bと一致している。
[1−8.二点タッチ後のピンチアウト操作の表示例]
図8は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、そのタッチした二点の距離を広げるピンチアウト操作を行った場合の例である。このピンチアウト操作は、例えば表示画像の拡大を指示する際に行われる。ここでは、図8Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図8Bの左側に示す表示パネル110−17の操作状態は、図7Bの右端に示す表示パネル110−17の操作状態と同じであり、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図8Bの右側に示すように、表示パネル110−18の上で、タッチした特定位置A,Bの距離を広げるピンチアウト操作を行ったとする。
このとき、ピンチアウト操作前には、図8Cの左側に示すように、筐体画像221−17として、タッチした特定位置A,Bの距離が短い手指画像223−17が合成された状態である。これに対して、ピンチアウト操作後には、図8Cの右側に示すように、筐体画像221−18として、タッチした特定位置A,Bの距離が長い手指画像223−18に変化する。図8ではピンチアウト操作前とピンチアウト操作後の2つの状態を示すが、実際には連続して手指画像の指が指し示す位置が変化する。手指画像223−18で示されるタッチ位置A,Bは、実際にプレゼンターが2本の指2fa,2fbでタッチした特定位置A,Bと一致している。
[1−9.二点タッチ後のドラッグ操作の表示例]
図9は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、その二点のタッチ位置をほぼ平行に移動させるドラッグ操作を行った場合の例である。ドラッグ操作は、例えば表示画像を移動させる指示を行う際に行われる。ここでは、図9Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図9Bの左側に示す表示パネル110−21の操作状態は、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図9Bの右側に示すように、表示パネル110−22の上で、タッチした特定位置A,Bをほぼ平行に上側に移動した特定位置A′,B′に変化させるドラッグ操作を行ったとする。特定位置A′,B′は、図9Bに示すように、表示パネル上の水平方向の座標x1′,x2′と垂直方向の座標y1′,y2′で位置が決まる。
このとき、ドラッグ操作前には、図9Cの左側に示すように、筐体画像221−21として、特定位置A,Bをタッチした状態の手指画像223−21が合成された状態である。これに対して、ドラッグ操作後には、図9Cの右側に示すように、筐体画像221−22として、特定位置A′,B′をタッチした状態の手指画像223−22に変化する。図9はドラッグ操作前とドラッグ操作後の2つの状態を示すが、実際には連続して手指画像の位置が変化する。図9Cの右側に示される手指画像223−22で示されるタッチ位置A′,B′は、プレゼンターが2本の指2fa,2fbで実際にタッチした特定位置A′,B′(図9Bの右側の図)と一致している。
[1−10.二点タッチ後のリリース操作の表示例]
次に、図6〜図9で説明した二点タッチが行われた後に、2つの手指が表示パネルの表面から離される、二点タッチ後のリリース操作時の表示例を、図10を参照して説明する。
ここでは、図10Aに示すようにタイミングt21で、タッチ入力検出部121により指の特定箇所Aからのリリースが検出されるとほぼ同時に、フェイスカメラ132により手指が近接していない状態が検出されたとする。
このときの実際のタッチ状態としては、図10Bの左側に示すように、表示パネル110−31の特定位置A,Bを、2本の指2fa,2fbでタッチした状態から、図10Bの右側に示すように、2本の指2fa,2fbが右側に離れて行く状態である。
このとき、図10Cに示すように、手指画像223−31が筐体画像221−31の上に合成された状態から、手指画像223−32が下側に下がって行く筐体画像221−32に変化する。このように手指画像223−32が矢印DOWNで示すように下側に下がって行くことで、筐体画像221−32の上には、手指画像が表示されなくなる。
[1−11.三点タッチの表示例]
図11は、プレゼンターが端末100の表示パネル上の三点を同時にタッチした場合の例である。
最初の状態では、図11Bの左端に示すように、表示パネル110−41には、手指f3が近接した状態である。この手指f3の近接が、図11Aに示すように、タイミングt31でフェイスカメラ132の撮影画像から検出される。
このとき、図11Cの左端に示すように、スクリーン210に投射される画像による筐体画像221−41には、パネル上に近接した手指画像223−41が合成される。このとき、例えば指に影を付加することにより、手指がパネル表面から浮いた状態とするのが好ましい(図11では影は不図示)。
そして、タイミングt32でタッチ入力検出部121により三点の同時タッチが検出されたとする。このとき、図11Bの中央に示すように、表示パネル110−42の3つの特定箇所A,B,Cを、手指f3a,f3b,f3cがタッチした状態となる。3つの特定箇所A,B,Cは、図11Bの中央に示すように、表示パネル上の水平方向の座標x1,x2,x3と垂直方向の座標y1,y2,y3でタッチ位置が決まる。
このとき、図11Cの中央に示すように、スクリーン210に投射される筐体画像221−42には、手指画像223−43が合成された状態になる。この手指画像223−42は、3本の指で特定箇所A,B,Cをタッチした状態である。
その後、さらにタイミングt33でタッチ入力検出部121により指の特定箇所A,B,Cからのリリースが検出され、さらにタイミングt34でフェイスカメラ132により手指が近接していない状態が検出されたとする。すなわち、図11Bの右側に示すように、表示パネル110−44から手指f3a,f3b,f3cが離れたとする。
このとき、図11Cに示すように、手指画像223−42が筐体画像221−42の上に合成された状態から、手指画像223−43が矢印DOWNで示すように下側に下がって行く筐体画像221−43に変化する。
[1−12.端末の種類とサイズによって表示する指を設定する例]
ここで、本発明が適用される端末の筐体が備える表示パネルのサイズと、その端末を操作するプレゼンターの手指との関係の例を、図12及び図13を参照して説明する。
図12は、端末と表示パネルのサイズによって想定される一般的な操作状態の例を示す。
図12Aは、タブレット端末などの比較的大型の表示パネルを備えた端末10の例である。この場合には、左手で端末10を持ちながら、右手の人差し指f11で、タッチ操作を行う状態が想定される。
図12Bは、スマートフォンなどの比較的小型の表示パネルを備えた端末20で、一点タッチが行われる例である。この場合には、右手の掌で端末20を持ちながら、その右手の親指f12で、タッチ操作を行う状態が想定される。
図12Cは、図12Bと同じ端末20で、二点タッチが行われる例である。この場合には、左手で端末20を持ちながら、右手の人差し指f13と親指f14で、タッチ操作を行う状態が想定される。
このように、手指で端末をタッチする状態は、端末のサイズによって異なる。
図13は、端末の機種(表示パネルのサイズ)と、操作される指の代表的な例を示す図である。図13の例は、右下に示したように、親指をp、人差し指をi、中指をm、薬指をa、小指をcとして示す。
例えば、表示パネルの対角線が10インチ程度のタブレット型の端末の場合には、一点タッチのとき、人差し指iでのタッチが想定され、二点タッチのとき、人差し指iと親指pでのタッチが想定される。また、三点タッチのとき、人差し指iと親指pと中指mでのタッチが想定され、四点タッチのとき、人差し指iと親指pと中指mと薬指mでのタッチが想定される。五点タッチのときは、全ての指でのタッチになる。
また、表示パネルの対角線が7インチ程度のタブレット型の端末の場合にも、10インチのタブレット型と同じ指でのタッチが想定される。
また、表示パネルの対角線が4インチ程度のスマートフォン型の端末の場合には、一点タッチのとき、親指pでのタッチが想定され、二点タッチのとき、親指pと人差し指iでのタッチが想定される。また、三点タッチのとき、親指pと人差し指iと中指mでのタッチが想定され、四点タッチのとき、親指pと人差し指iと中指mと薬指mでのタッチが想定される。五点タッチのときは、全ての指でのタッチになる。
また、表示パネルの対角線が3インチ程度のスマートフォン型の端末の場合には、一点タッチのとき、親指pでのタッチが想定され、二点タッチのとき、親指pと人差し指iでのタッチが想定される。この3インチの端末の場合には、三点タッチ以上の同時タッチは困難である。
この図13の情報を端末100の制御部120が持つ。また、端末100の制御部120は、この端末100が備える表示部110のサイズについての情報を持つ。そして、制御部120が表示パネルのタッチを検出した際には、そのときの同時タッチ数と、端末のサイズとから決まる指がタッチした状態の手指画像を画像合成部123で合成する。
[1−13.第1の実施の形態例による効果]
以上説明したように、プロジェクタ装置200からスクリーン210に投射される画像中に表示される手指画像は、プレゼンターが端末100の表示パネル上で操作した状態とほぼ同様の状態の指使いの画像になる。したがって、スクリーン210に投射される画像による端末100の操作方法のプレゼンテーションが、実際の操作に近い状態で良好に行える。この場合、端末100に外部のカメラを取り付けるようなことが必要なく、端末100とプロジェクタ装置200とをケーブルで接続するだけでよく、非常に簡単な構成で実現できる。
また、スクリーン210に投射される画像は、実際に端末100の表示部110に表示される画像データを加工したものであるため、外部カメラで撮影した場合のような照明光の映り込みなどによる画像の劣化がなく、鮮明な画像によるプレゼンテーションができる。さらに、画像中に合成される手指として、手指が綺麗なモデルなどの手指画像とすることで、非常に綺麗な画像を使って操作説明を行うことができるという効果を奏する。
また、手指画像を筐体画像に合成する際には、図4や図5などで説明したように、下側から手指がタッチ位置まで移動すると共に、タッチ位置から離れた手指が下側に移動して離れるようにしたことで、自然な状態で手指が合成された状態になる。なお、例えば図10の例のように、プレゼンターの手指が離れる方向と、表示画像中の手指が離れる方向とが相違する場合があるが、タッチ操作のやり方を説明する上で、この点の相違は問題にはならない。
さらに、図12及び図13で説明したように、プレゼンターが操作する端末100のサイズに応じて、合成する手指の指を適切に選ぶようにしたことで、手指の合成画像は、実際の操作時の指使いと一致する可能性が高く、この点からも良好な操作説明ができる。
<2.第2の実施の形態の例>
以下、本発明の第2の実施の形態の例を、図14〜図16を参照して説明する。この図14〜図16において、第1の実施の形態の例で説明した図1〜図13と同一箇所には同じ符号を付し、その詳細説明は省略する。
[2−1.システム全体の構成例]
図14は、本発明の第2の実施の形態例のシステム全体の概要を示す図である。
この例では、図1に示すように、第1端末100aと第2端末100bとを用意する。第1端末100aは、プレゼンターが手指fでタッチ操作を行うものである。第2端末100bは、その第1端末100aから伝送された画像データに手指画像を合成する処理を行い、合成された画像をプロジェクタ装置200に供給するものである。
ここでは、第1端末100aと第2端末100bは、いずれもタブレット端末を使用する。
図14に示すように、第1端末100aは、表示部110aに表示される画像データとタッチ位置のデータを第2端末100bに伝送する。第2端末100bは、第1端末100aから伝送された画像192の周囲に筐体画像191を加えると共に、タッチ位置のデータに基づいて操作手指193を合成する。この合成処理が行われた画像が、第2端末100bの表示部110bで表示されると共に、出力ポート101bからプロジェクタ装置200に伝送される。
プロジェクタ装置200は、第2端末100bの出力ポート101bから出力される画像データを処理して、スクリーン210に投影させる。
[2−2.端末の構成例]
図15は、第1端末100aと第2端末100bの内部構成を示す図である。第1端末100aと第2端末100bは、基本的に同一の構成であり、第1端末100aの各構成要素には符号aを付し、第2端末100bの各構成要素には符号bを付して示す。この例では、図2に示した端末100内の第1フレームメモリ122での処理を、第1端末100a内のフレームメモリ122aが行い、第2フレームメモリ14での処理を、第2端末100b内のフレームメモリ122bが行っている。
第1端末100aは、制御部120a内の画像描画部125aによる描画処理でフレームメモリ122aに作成された画像が、表示部110aされる。また、フレームメモリ122aに作成された画像データが、通信処理部126aから第2端末100bに無線伝送される。このとき、画像データと共にタッチ入力検出部121aで検出したタッチ位置のデータについても、第2端末100bに無線伝送される。
また、第1端末100aは、重力センサ131aとフェイスカメラ132aと記憶部133aと操作スイッチ134aを備える。
第2端末100bは、通信処理部126bが受信した画像データとタッチ位置データに基づいて、画像描画部125bがフレームメモリ122bに画像の描画を行う。ここで画像描画部125bがフレームメモリ122bに描画させる画像は、第1端末100aが表示した画像に、第1端末100aの筐体枠を加えると共に、タッチ位置に応じた手指を合成した画像である。
第2端末100bのフレームメモリ122bで得られた画像データは、表示部110bに供給されて表示されると共に、出力ポート101bからプロジェクタ装置200に伝送される。
なお、図15の構成では、第2端末100bの通信処理部126bが、画像データとタッチ位置データの入力部として機能するようにしたが、ケーブルが接続される入力ポートを、これらの入力部としてもよい。
[2−3.表示処理の流れの例]
次に、2台の端末100a,100bが行う表示処理の流れを、図16のフローチャートを参照して説明する。図16のフローチャートでは、第1端末100aの制御部120aが行う表示のための制御の流れをステップS31〜S33で示す。また、第2端末100bの制御部120b内の画像描画部125bで行われる画像処理の流れをステップS41〜S43で示す。さらに図16のフローチャートでは、制御部120a,120bとその周辺部とのデータのやり取りについても、破線で示す。
第1端末100a側の制御部120aが行う制御としては、まず制御部120で、表示部110のタッチパネルでタッチされた位置などを判断するタッチ入力検出処理が行われる(ステップS31)。この制御部120aによるタッチ位置の判断は、表示部110aに配置されたタッチパネルの状態のタッチ入力検出部121aでの検出に基づいて行われる。
そして、制御部120aは、手指の検出処理を行う(ステップS32)。ここでは、制御部120aは、ステップS31で判断したタッチ位置と、重力センサ131aの検出データと、フェイスカメラ132aが撮影した画像データとを使用する。すなわち、重力センサ131aでの検出データに基づいて、表示部110aの表示パネルの底面がどの方向かを判断する。また、フェイスカメラ132aが撮影した画像から、手指が表示パネルに接近しているか否かを判断する。これらの判断に基づいて、タッチパネルへのタッチを検出した際には、そのタッチした指の向きなどを判断する。また、タッチパネルでタッチを検出しない状態で、フェイスカメラ132aの撮影画像から手指を検出したときには、制御部120aは、タッチパネルに手指が接近した状態であると判断する。
そして、制御部120aは、ステップS31,S32でのタッチ位置などの判断に基づいて、表示部110aで表示させる画像を確定し、画像描画部125aは、その表示画像をフレームメモリ122aに描画する(ステップS33)。表示部110aは、フレームメモリ122aに描画された画像の表示を行う。
制御部120aでは、表示部110aが画像を表示する間、このステップS31,S32,S33の処理が繰り返し実行される。
そして、第2端末100bでは、第1端末100aから伝送された画像に筐体画像や手指画像を合成する処理が行われる。すなわち、画像描画部125bは、ステップS33でフレームメモリ122aに描画された画像データを取り込み、表示用の画像データを取得する画像取得処理を行う(ステップS41)。
次に、画像描画部125bは、画像に手指画像を合成する処理を行う(ステップS42)。このときには、第1端末100aの制御部120aがステップS32で検出した手指の位置に、手指画像を合成する。また、画像描画部125bは、第1端末100aのフレームメモリ122aから得た画像の周囲に、端末の筐体画像を合成する。これらの手指画像や筐体画像は、記憶部133bから読み出した画像である。
そして、制御部120bは、画像描画部125bにより描画された画像をフレームメモリ122bに書込む(ステップS43)。このフレームメモリ122bに書き込まれた画像が、出力ポート101bから外部に出力され、プロジェクタ装置200でスクリーン210に投射される。
画像描画部125bでは、表示部110aが画像を表示する間、このステップS41,S42,S43の処理が繰り返し実行される。
このような処理で第2端末100bからプロジェクタ装置200に画像データが伝送されることで、プロジェクタ装置200でスクリーン210に投射される画像は、第1の実施の形態の例で説明したものと同様のものになる。すなわち、プレゼンターが手指fで第1端末100aをタッチ操作したとき、第2端末100b内で、手指画像などが合成されて、プロジェクタ装置200に供給されて、投射されるようになる。手指画像や筐体画像が合成される状態は、第1の実施の形態の例の各図で説明した状態が適用される。
[2−4.第2の実施の形態例による効果]
この第2の実施の形態の例によると、プレゼンターが手指fで第1端末100aをタッチ操作した状態が、画像合成されてスクリーン210上に表示されるようになる。したがって、この第2の実施の形態の例によると、第1の実施の形態の例で説明した場合と同様に、タッチパネルを使った操作の良好なプレゼンテーションが可能になる。第2の実施の形態例では、具体的な手指画像の合成例は説明しないが、第1の実施の形態例で説明した合成例がそのまま適用できる。
また、第2の実施の形態例の場合、第1端末100aと第2端末100bは、それぞれ画像処理を行うためのメモリであるフレームメモリ122a,122bが1個ずつでもよい。このため、第1端末100aと第2端末100bとして、一般的な構成のタブレット端末やスマートフォン端末が適用可能である。なお、第2端末100bについては、表示部での表示を行う必要がなく、タッチパネルを備える必要もない。このため、例えばパーソナルコンピュータ装置などの各種情報処理装置が、第2端末100bとして機能するようにしてもよい。
<3.変形例>
[3−1.筐体の側面を表示する例]
図1や図14に示した例では、スクリーン210に表示される画像として、端末の正面の筐体画像を表示するようにした。これに対して、筐体の側面などに配置された操作ボタンの操作を説明するために、操作ボタンなどが配置された筐体の側面の画像を、スクリーン210上に同時に表示させるようにしてもよい。
例えば図17に示すように、端末100(又は端末100b)内での画像合成処理では、スクリーン210上に端末の正面の筐体画像221Fを表示すると共に、その筐体画像221Fの脇に、側面の筐体画像221Sを表示している。また、端末100の実際の構成に対応して、正面の筐体画像221Fには操作スイッチ225−1が配置され、側面の筐体画像221Sには操作スイッチ225−2が配置される。
そして、図17に示すように、端末100の側面に配置された操作スイッチ134−2の手指f′による操作があったとき、制御部120は、側面の筐体画像221Sに表示された操作スイッチ225−2を操作する手指226を画像中に合成し、スクリーン210上に表示する。
このような側面の操作スイッチの操作状況についても表示することで、より良好なプレゼンテーションを行うことができる。なお、端末100の正面に配置された操作スイッチ134−1が操作された場合にも、同様に手指の画像を合成して操作状態を説明するようにしてもよい。
また、図17では、端末の右側面の画像だけを表示する例を示したが、制御部120は、左側面などの他の側面や背面の画像をスクリーン上に並べて表示させるようにしてもよい。
[3−2.その他の変形例]
上述した各実施の形態例では、端末100又は100aに配置されたフェイスカメラ132又は132aが撮影した画像から、表示パネルへの手指の接近を検出するようにした。これに対して、フェイスカメラが配置されていない端末、あるいはフェイスカメラでパネルに接近した手指の撮影が不可能な端末の場合には、合成画像で接近した手指を表示しないようにしてもよい。すなわち、タッチ入力検出部121又は121aがタッチ入力を検出した時点で、スクリーン210に投射される画像にタッチした手指を合成するようにしてもよい。この場合には、画面上に突然手指が現れることになるが、端末の操作方法を説明するという目的は達成することができる。タッチを検出しなくなった場合にも、合成された手指が下などに移動して消えるのではなく、突然画面から消えるようにしてもよい。
また、ここまで説明した各実施の形態例では、端末100又は100bとプロジェクタ装置200とを接続して、プロジェクタ装置200がスクリーン210に投射する画像で、プレゼンテーションを行う例とした。これに対して、例えば端末100又は100bが備える画像出力部として、無線又は有線の所定のネットワークに画像データを出力する機能を備えるようにしてもよい。このようにすることで、ネットワークに接続された遠隔地の表示装置が、端末100又は100bが出力する画像を表示するようになる。したがって、端末100又は100bを操作しているプレゼンターが、遠隔地にいる者に対してプレゼンテーションを行うことができるようになる。
また、図1や図14に示す構成において、端末100又は100bからプロジェクタ装置200に、無線で画像データを伝送するようにしてもよい。また、プロジェクタ装置200以外の表示装置が、画像を表示するようにしてもよい。
また、図3又は図16のフローチャートに示す画像処理を行うプログラムを作成して、そのプログラムを既存の端末に実装することで、上述した第1又は第2の実施の形態の例で説明した処理を行うようにしてもよい。
100…端末、100a…第1端末、100b…第2端末、101,101b…出力ポート、102…伝送ケーブル、110,110a,110b…表示部、120,120a,120b…制御部、121,121a…タッチ入力検出部、122…第1フレームメモリ、122a,122b…フレームメモリ、123…画像合成部、124…第2フレームメモリ、125a,125b…画像描画部、126a,126b…通信処理部、131,131a…重力センサ、132,132a…フェイスカメラ、133,133a,133b…記憶部、200…プロジェクタ装置、210…スクリーン、220…投射画像、221…筐体画像、222…端末表示画像、223…合成された手指

Claims (9)

  1. 表示部と、
    前記表示部のパネル表面のタッチを検出するタッチ入力検出部と、
    前記タッチ入力検出部で検出したタッチ状態に応じて、前記表示部が表示する画像に手指の画像を合成する画像合成部と、
    前記画像合成部が合成した画像データを出力する画像出力部と、
    を備えるプレゼンテーション用端末。
  2. 前記画像合成部が合成する手指の画像は、前記タッチ入力検出部が検出したタッチの数に応じて決まる形状の手指の画像である
    請求項1に記載のプレゼンテーション用端末。
  3. 前記表示部のパネルが配置された側の周囲を撮影するカメラを備え、
    前記画像合成部は、前記カメラが撮影した画像に基づいて、前記表示部のパネル表面に近接した手指の画像を合成する
    請求項2に記載のプレゼンテーション用端末。
  4. 前記画像合成部が合成する前記表示部のパネル表面に近接した手指の画像には、手指の影を加える
    請求項3に記載のプレゼンテーション用端末。
  5. 前記画像合成部が合成する手指の画像は、前記表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像である
    請求項3に記載のプレゼンテーション用端末。
  6. 前記画像合成部は、プレゼンテーション用端末の筐体の画像を用意し、その筐体の表示パネルの箇所に、前記表示部が表示する画像を配置した上で、手指の画像を合成する
    請求項1に記載のプレゼンテーション用端末。
  7. さらに前記画像合成部は、プレゼンテーション用端末の筐体の側面の画像を合成する
    請求項6に記載のプレゼンテーション用端末。
  8. 他の端末の表示部で表示された画像データと、前記表示部のパネル表面のタッチ位置のデータとが入力される入力部と、
    前記入力部に入力した画像データによる画像に、前記タッチ位置のデータで示されたタッチ検出状態に応じた手指の画像を合成する画像合成部と、
    前記画像合成部が合成した画像データを出力する画像出力部と、
    を備えるプレゼンテーション用端末。
  9. タッチパネル付きの表示部が表示した画像を取得する画像取得処理ステップと、
    前記タッチパネルでのタッチ状態を検出するタッチ入力検出処理ステップと、
    前記タッチ入力検出処理ステップで検出したタッチ状態に応じて、前記画像取得処理ステップで取得した画像に手指の画像を合成する画像合成処理ステップと、
    前記画像合成処理ステップで合成された画像データを出力する画像出力処理ステップと、
    を含むプレゼンテーション方法。
JP2014116479A 2014-06-05 2014-06-05 プレゼンテーション用端末及びプレゼンテーション方法 Active JP6193180B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014116479A JP6193180B2 (ja) 2014-06-05 2014-06-05 プレゼンテーション用端末及びプレゼンテーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014116479A JP6193180B2 (ja) 2014-06-05 2014-06-05 プレゼンテーション用端末及びプレゼンテーション方法

Publications (2)

Publication Number Publication Date
JP2015230587A true JP2015230587A (ja) 2015-12-21
JP6193180B2 JP6193180B2 (ja) 2017-09-06

Family

ID=54887327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014116479A Active JP6193180B2 (ja) 2014-06-05 2014-06-05 プレゼンテーション用端末及びプレゼンテーション方法

Country Status (1)

Country Link
JP (1) JP6193180B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10249224B2 (en) 2016-04-27 2019-04-02 Seiko Epson Corporation Image supply device, method of controlling image supply device, and program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005108137A (ja) * 2003-10-02 2005-04-21 Seiko Epson Corp 装飾画像の選択
JP2009237895A (ja) * 2008-03-27 2009-10-15 Denso It Laboratory Inc 地図表示システム、地図表示方法およびプログラム
JP2010173584A (ja) * 2009-01-30 2010-08-12 Denso Corp 操作装置
JP2011134111A (ja) * 2009-12-24 2011-07-07 Sony Corp タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
WO2011158487A1 (ja) * 2010-06-18 2011-12-22 パナソニック株式会社 操作支援装置及び操作支援方法
JP2012022458A (ja) * 2010-07-13 2012-02-02 Canon Inc 情報処理装置およびその制御方法
JP2012155434A (ja) * 2011-01-25 2012-08-16 Kyocera Corp 電子機器
JP2012249978A (ja) * 2011-06-06 2012-12-20 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲーム装置及びサーバシステム
JP2013172460A (ja) * 2012-02-22 2013-09-02 Rsupport Co Ltd 移動端末の遠隔表示方法及びこれを行う装置
JP2014026602A (ja) * 2012-07-30 2014-02-06 Casio Comput Co Ltd 表示端末装置及びプログラム
JP2015102952A (ja) * 2013-11-22 2015-06-04 株式会社デンソー 表示処理装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005108137A (ja) * 2003-10-02 2005-04-21 Seiko Epson Corp 装飾画像の選択
JP2009237895A (ja) * 2008-03-27 2009-10-15 Denso It Laboratory Inc 地図表示システム、地図表示方法およびプログラム
JP2010173584A (ja) * 2009-01-30 2010-08-12 Denso Corp 操作装置
JP2011134111A (ja) * 2009-12-24 2011-07-07 Sony Corp タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
WO2011158487A1 (ja) * 2010-06-18 2011-12-22 パナソニック株式会社 操作支援装置及び操作支援方法
JP2012022458A (ja) * 2010-07-13 2012-02-02 Canon Inc 情報処理装置およびその制御方法
JP2012155434A (ja) * 2011-01-25 2012-08-16 Kyocera Corp 電子機器
JP2012249978A (ja) * 2011-06-06 2012-12-20 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲーム装置及びサーバシステム
JP2013172460A (ja) * 2012-02-22 2013-09-02 Rsupport Co Ltd 移動端末の遠隔表示方法及びこれを行う装置
JP2014026602A (ja) * 2012-07-30 2014-02-06 Casio Comput Co Ltd 表示端末装置及びプログラム
JP2015102952A (ja) * 2013-11-22 2015-06-04 株式会社デンソー 表示処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10249224B2 (en) 2016-04-27 2019-04-02 Seiko Epson Corporation Image supply device, method of controlling image supply device, and program

Also Published As

Publication number Publication date
JP6193180B2 (ja) 2017-09-06

Similar Documents

Publication Publication Date Title
US11704016B2 (en) Techniques for interacting with handheld devices
JP6573755B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP6288084B2 (ja) 表示制御装置、表示制御方法および記録媒体
CN108038726B (zh) 物品展示方法及装置
EP3811183B1 (en) Methods and apparatuses for providing input for head-worn image display devices
US10295896B2 (en) Display system, display device, display terminal, display method of display terminal, and control program
KR101446902B1 (ko) 사용자 인터랙션 장치 및 방법
EP4246287A1 (en) Method and system for displaying virtual prop in real environment image, and storage medium
JPWO2014188798A1 (ja) 表示制御装置、表示制御方法および記録媒体
KR20110071349A (ko) 휴대단말의 외부 출력 제어 방법 및 장치
JP2015158748A (ja) 制御装置、情報処理装置、制御方法、情報処理方法、情報処理システム、ウェアラブル機器
JP2018010496A (ja) 画像処理装置並びにその制御方法及びプログラム
JP2017182110A (ja) 表示システム、表示装置、情報処理装置及び情報処理方法
US11922904B2 (en) Information processing apparatus and information processing method to control display of a content image
JP6193180B2 (ja) プレゼンテーション用端末及びプレゼンテーション方法
EP3974949A1 (en) Head-mounted display
JP6374203B2 (ja) 表示システム及びプログラム
KR101709529B1 (ko) 휴대 단말을 이용한 영상 화면 제어 방법 및 장치
JP2014170367A (ja) 物体検出装置、物体検出方法、物体検出システム及びプログラム
CN114895862A (zh) 一种智能终端的投屏方法、装置及设备
US11906741B2 (en) Display control device, display control method, and non-transitory computer-readable medium storing program
US20180203661A1 (en) Information processing device, information processing method, and program
JP7210884B2 (ja) 情報処理装置、表示システム及びプログラム
KR20150108591A (ko) 웨어러블 디바이스의 제어 방법 및 그 장치
KR101075420B1 (ko) 테이블탑 인터페이스 장치, 협업 제어 장치, 테이블탑인터페이스 기반 협업 시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170809

R150 Certificate of patent or registration of utility model

Ref document number: 6193180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150