JP2015230587A - プレゼンテーション用端末及びプレゼンテーション方法 - Google Patents
プレゼンテーション用端末及びプレゼンテーション方法 Download PDFInfo
- Publication number
- JP2015230587A JP2015230587A JP2014116479A JP2014116479A JP2015230587A JP 2015230587 A JP2015230587 A JP 2015230587A JP 2014116479 A JP2014116479 A JP 2014116479A JP 2014116479 A JP2014116479 A JP 2014116479A JP 2015230587 A JP2015230587 A JP 2015230587A
- Authority
- JP
- Japan
- Prior art keywords
- image
- finger
- touch
- terminal
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
すなわち、タブレット端末の画像データ出力端子をプロジェクタ装置に接続して、タブレット端末が表示する画像を拡大投影するだけでは、操作者の指の動きなどは表示されない。このため、指を動かす方向や動かす速度などに特徴がある操作を、このような拡大投影で的確に説明することは困難である。
画像合成部は、タッチ入力検出部で検出したタッチ状態に応じて、表示部が表示する画像に手指の画像を合成する。
画像出力部は、画像合成部が合成した画像データを出力する。
この場合、入力部からは、他の端末の表示部で表示された画像データと、他の端末の表示部のパネル表面のタッチ位置のデータとが入力される。そして、画像合成部は、入力部から入力された画像データによる画像に、タッチ状態に応じた手指の画像を合成する。
画像取得処理は、タッチパネル付きの表示部が表示した画像を取得する。
タッチ入力検出処理は、タッチパネルでのタッチ状態を検出する。
画像合成処理は、タッチ位置検出処理で検出したタッチ状態に応じて、画像取得処理で取得した画像に手指の画像を合成する。
画像出力処理は、画像合成処理で合成された画像データを出力する。
また、端末が出力する画像データを、遠隔地の受講者に伝送することで、遠隔地の人にも良好にプレゼンテーションすることが可能になる。
以下、本発明の第1の実施の形態例を、図1〜図13を参照して説明する。
[1−1.システム全体の構成例]
図1は、本発明の第1の実施の形態例のシステム全体の概要を示す図である。
図1に示すように、このシステムでは、端末100とプロジェクタ装置200が用意される。端末100は、プレゼンターが操作方法をプレゼンテーションする機器である。端末100は、表示部110の表示パネルがタッチパネルを備え、利用者が指でタッチパネルをタッチすることで様々な操作を行うことができる。ここでは、端末100として、表示パネルの対角線のサイズが10インチ程度のタブレット端末を使用する。但し、タブレット端末を使用するのは1つの例であり、その他の形態のタッチパネル付きの端末を使用してもよい。
図2は、端末100の内部構成を示す図である。
端末100は、表示部110と制御部120とを備える。表示部110の表示パネルには、タッチパネルが一体化され、制御部120内のタッチ入力検出部121がタッチ操作を検出する。
端末100が実行中のアプリケーションプログラムは、タッチパネルのタッチ操作で様々な操作の指示を行うものである。例えば、端末100は、タッチ操作により表示画像を切り替える操作や、表示中の画像に関連した別の情報を表示する操作や、表示中の画像の拡大又は縮小を指示する操作などを行うことができる。
画像合成部123で合成される筐体画像や手指の画像のデータは、例えば記憶部133に予め記憶されている。この画像合成部123で合成される手指の画像については、例えば、手指が綺麗な人物(モデル、タレントなど)の手指を撮影して得た画像とするのが好ましい。また、記憶部133には、制御部120が実行する制御処理に必要なデータも記憶されている。
第2フレームメモリ124に記憶された画像合成後の画像データは、出力ポート101から外部に出力される。出力ポート101は、所定の伝送フォーマットで画像データを出力する画像出力部として機能するものである。この出力ポート101には、図1に示す伝送ケーブル102が接続される。
操作スイッチ134は、例えば端末100の筐体の側面などに配置されるスイッチである。端末100が実行中のアプリケーションプログラムによっては、この操作スイッチ134の操作が必要となる場合もある。
次に、端末100が行う表示処理の流れを、図3のフローチャートを参照して説明する。図3のフローチャートでは、端末100の制御部120が行う表示のための制御の流れをステップS11〜S13で示すと共に、制御部120内の画像合成部123で行われる画像処理の流れをステップS21〜S23で示す。さらに図3のフローチャートでは、制御部120とその周辺部とのデータのやり取りについても、破線で示す。
次に、制御部120は、手指の検出処理を行う(ステップS12)。ここでは、制御部120は、ステップS11で判断したタッチ位置と、重力センサ131の検出データと、フェイスカメラ132が撮影した画像データとを使用する。すなわち、重力センサ131での検出データに基づいて、表示部110の表示パネルの底面(下側)がどの方向かを判断する。また、フェイスカメラ132が撮影した画像から、手指が表示パネルに接近しているか否かを判断する。これらの判断に基づいて、タッチパネルへのタッチを検出した際には、そのタッチした指の向きなどを判断する。また、タッチパネルでタッチを検出しない状態で、フェイスカメラ132の撮影画像から手指を検出したときには、制御部120は、タッチパネルに手指が接近した状態であると判断する。
制御部120では、表示部110が画像を表示する間、このステップS11,S12,S13の処理が繰り返し実行される。
なお、後述する例のように、手指の状態によっては、手指画像を合成する際の、その手指の影の画像を付加する場合がある。この影の画像も、記憶部133に予め記憶されている画像である。
画像合成部123では、表示部110が画像を表示する間、このステップS21,S22,S23の処理が繰り返し実行される。
次に、プレゼンターが端末100を操作したときに、スクリーン210上が表示する画像の例を説明する。
まず、図4を参照して、プレゼンターが端末100の表示パネル上の一点をタッチしたときに、スクリーン210上に表示される画像の例を説明する。
また、このように手指f1の近接を検出した際に表示される手指画像223−3には、その手指の影画像224−3が付加されている。この影画像224−3が付加されることで、合成された手指画像223−3による指が、表示パネルの表面から離れた状態であることが分かる表示となる。
なお、図4に示すように一点タッチの際に人差し指がタッチした画像となるのは1つの例であり、手指の画像を合成する際に、タッチを行う指を割り当てる方法については後述する。
次に、先に図4で説明した一点タッチが行われた後に、手指が表示パネルの表面から離されるリリース操作時の表示例を、図5を参照して説明する。
図5Bの左端に示す表示パネル110−4の手指f1によるタッチ操作状態は、図4Bの右端に示す表示パネル110−4の手指fによるタッチ操作状態と同じ状態である。図5Cの左端に示す手指画像223−4についても、図5Cの左端に示す手指画像223−4と同じである。
このとき、図5Cに示すように、手指画像223−5が筐体画像221−5の表面から離れた状態に合成される。この手指が離れた状態は、手指の影画像224−5の付加で示される。そして、この図5Cに示す手指画像223−5は、矢印DOWNで示すように、時間の経過と共に下側に移動する。このときの手指223−5の下側への移動は、例えば1秒程度の時間で行われる。
そして、図5Bの右端に示すように手指f1が端末100から完全に離れた状態では、図5Cの右端に示すように、投射画像中の筐体画像221−6には手指画像が合成されない。
図6は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした場合の例である。
最初の状態では、図6Bの左端に示すように、表示パネル110−11は、何もタッチされていない状態であり。次の表示パネル110−12は、手指f2がパネル表面に近づいた状態である。但し、この表示パネル110−12の状態では、手指f2の位置はパネル表面から遠く、制御部120は、まだ手指の接近を検出しない。したがって、図6Cに示すように、それぞれのタイミングでスクリーン210に投射される画像による筐体画像221−11,222−12には、手指画像が表示されない。
ここまでは図4に示した一点タッチの場合と同じであり、手指画像223−13は指1本が伸びた画像である。
また、この場合の手指画像223−14にも、その手指の影画像224−14が付加されている。但し、手指画像223−14は、特定箇所Aをタッチした状態を示しているため、タッチ箇所A、Bの指の部分では、ほとんど影がない状態であり、タッチ箇所A、Bから離れた箇所で、わずかな影を表示した状態である。
図7は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、そのタッチした二点の距離を縮めるピンチイン操作を行った場合の例である。このピンチイン操作は、例えば表示画像の縮小を指示する際に行われる。ここでは、図7Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図7Bの左側に示す表示パネル110−15の操作状態は、図6Bの右端に示す操作状態と同じであり、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図7Bの右側に示すように、表示パネル110−16の上で、タッチした特定位置A,Bの距離を狭くするピンチイン操作を行ったとする。
図8は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、そのタッチした二点の距離を広げるピンチアウト操作を行った場合の例である。このピンチアウト操作は、例えば表示画像の拡大を指示する際に行われる。ここでは、図8Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図8Bの左側に示す表示パネル110−17の操作状態は、図7Bの右端に示す表示パネル110−17の操作状態と同じであり、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図8Bの右側に示すように、表示パネル110−18の上で、タッチした特定位置A,Bの距離を広げるピンチアウト操作を行ったとする。
図9は、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態で、その二点のタッチ位置をほぼ平行に移動させるドラッグ操作を行った場合の例である。ドラッグ操作は、例えば表示画像を移動させる指示を行う際に行われる。ここでは、図9Aに示すように、プレゼンターが端末100の表示パネル上の二点を同時にタッチした状態が継続している。
図9Bの左側に示す表示パネル110−21の操作状態は、2本の指2fa,2fbで特定位置A,Bをタッチした状態である。ここで、プレゼンターは、図9Bの右側に示すように、表示パネル110−22の上で、タッチした特定位置A,Bをほぼ平行に上側に移動した特定位置A′,B′に変化させるドラッグ操作を行ったとする。特定位置A′,B′は、図9Bに示すように、表示パネル上の水平方向の座標x1′,x2′と垂直方向の座標y1′,y2′で位置が決まる。
次に、図6〜図9で説明した二点タッチが行われた後に、2つの手指が表示パネルの表面から離される、二点タッチ後のリリース操作時の表示例を、図10を参照して説明する。
ここでは、図10Aに示すようにタイミングt21で、タッチ入力検出部121により指の特定箇所Aからのリリースが検出されるとほぼ同時に、フェイスカメラ132により手指が近接していない状態が検出されたとする。
このときの実際のタッチ状態としては、図10Bの左側に示すように、表示パネル110−31の特定位置A,Bを、2本の指2fa,2fbでタッチした状態から、図10Bの右側に示すように、2本の指2fa,2fbが右側に離れて行く状態である。
図11は、プレゼンターが端末100の表示パネル上の三点を同時にタッチした場合の例である。
最初の状態では、図11Bの左端に示すように、表示パネル110−41には、手指f3が近接した状態である。この手指f3の近接が、図11Aに示すように、タイミングt31でフェイスカメラ132の撮影画像から検出される。
このとき、図11Cの左端に示すように、スクリーン210に投射される画像による筐体画像221−41には、パネル上に近接した手指画像223−41が合成される。このとき、例えば指に影を付加することにより、手指がパネル表面から浮いた状態とするのが好ましい(図11では影は不図示)。
このとき、図11Cの中央に示すように、スクリーン210に投射される筐体画像221−42には、手指画像223−43が合成された状態になる。この手指画像223−42は、3本の指で特定箇所A,B,Cをタッチした状態である。
このとき、図11Cに示すように、手指画像223−42が筐体画像221−42の上に合成された状態から、手指画像223−43が矢印DOWNで示すように下側に下がって行く筐体画像221−43に変化する。
ここで、本発明が適用される端末の筐体が備える表示パネルのサイズと、その端末を操作するプレゼンターの手指との関係の例を、図12及び図13を参照して説明する。
図12は、端末と表示パネルのサイズによって想定される一般的な操作状態の例を示す。
図12Aは、タブレット端末などの比較的大型の表示パネルを備えた端末10の例である。この場合には、左手で端末10を持ちながら、右手の人差し指f11で、タッチ操作を行う状態が想定される。
図12Bは、スマートフォンなどの比較的小型の表示パネルを備えた端末20で、一点タッチが行われる例である。この場合には、右手の掌で端末20を持ちながら、その右手の親指f12で、タッチ操作を行う状態が想定される。
図12Cは、図12Bと同じ端末20で、二点タッチが行われる例である。この場合には、左手で端末20を持ちながら、右手の人差し指f13と親指f14で、タッチ操作を行う状態が想定される。
図13は、端末の機種(表示パネルのサイズ)と、操作される指の代表的な例を示す図である。図13の例は、右下に示したように、親指をp、人差し指をi、中指をm、薬指をa、小指をcとして示す。
例えば、表示パネルの対角線が10インチ程度のタブレット型の端末の場合には、一点タッチのとき、人差し指iでのタッチが想定され、二点タッチのとき、人差し指iと親指pでのタッチが想定される。また、三点タッチのとき、人差し指iと親指pと中指mでのタッチが想定され、四点タッチのとき、人差し指iと親指pと中指mと薬指mでのタッチが想定される。五点タッチのときは、全ての指でのタッチになる。
また、表示パネルの対角線が7インチ程度のタブレット型の端末の場合にも、10インチのタブレット型と同じ指でのタッチが想定される。
以上説明したように、プロジェクタ装置200からスクリーン210に投射される画像中に表示される手指画像は、プレゼンターが端末100の表示パネル上で操作した状態とほぼ同様の状態の指使いの画像になる。したがって、スクリーン210に投射される画像による端末100の操作方法のプレゼンテーションが、実際の操作に近い状態で良好に行える。この場合、端末100に外部のカメラを取り付けるようなことが必要なく、端末100とプロジェクタ装置200とをケーブルで接続するだけでよく、非常に簡単な構成で実現できる。
また、スクリーン210に投射される画像は、実際に端末100の表示部110に表示される画像データを加工したものであるため、外部カメラで撮影した場合のような照明光の映り込みなどによる画像の劣化がなく、鮮明な画像によるプレゼンテーションができる。さらに、画像中に合成される手指として、手指が綺麗なモデルなどの手指画像とすることで、非常に綺麗な画像を使って操作説明を行うことができるという効果を奏する。
以下、本発明の第2の実施の形態の例を、図14〜図16を参照して説明する。この図14〜図16において、第1の実施の形態の例で説明した図1〜図13と同一箇所には同じ符号を付し、その詳細説明は省略する。
図14は、本発明の第2の実施の形態例のシステム全体の概要を示す図である。
この例では、図1に示すように、第1端末100aと第2端末100bとを用意する。第1端末100aは、プレゼンターが手指fでタッチ操作を行うものである。第2端末100bは、その第1端末100aから伝送された画像データに手指画像を合成する処理を行い、合成された画像をプロジェクタ装置200に供給するものである。
ここでは、第1端末100aと第2端末100bは、いずれもタブレット端末を使用する。
プロジェクタ装置200は、第2端末100bの出力ポート101bから出力される画像データを処理して、スクリーン210に投影させる。
図15は、第1端末100aと第2端末100bの内部構成を示す図である。第1端末100aと第2端末100bは、基本的に同一の構成であり、第1端末100aの各構成要素には符号aを付し、第2端末100bの各構成要素には符号bを付して示す。この例では、図2に示した端末100内の第1フレームメモリ122での処理を、第1端末100a内のフレームメモリ122aが行い、第2フレームメモリ14での処理を、第2端末100b内のフレームメモリ122bが行っている。
また、第1端末100aは、重力センサ131aとフェイスカメラ132aと記憶部133aと操作スイッチ134aを備える。
第2端末100bのフレームメモリ122bで得られた画像データは、表示部110bに供給されて表示されると共に、出力ポート101bからプロジェクタ装置200に伝送される。
なお、図15の構成では、第2端末100bの通信処理部126bが、画像データとタッチ位置データの入力部として機能するようにしたが、ケーブルが接続される入力ポートを、これらの入力部としてもよい。
次に、2台の端末100a,100bが行う表示処理の流れを、図16のフローチャートを参照して説明する。図16のフローチャートでは、第1端末100aの制御部120aが行う表示のための制御の流れをステップS31〜S33で示す。また、第2端末100bの制御部120b内の画像描画部125bで行われる画像処理の流れをステップS41〜S43で示す。さらに図16のフローチャートでは、制御部120a,120bとその周辺部とのデータのやり取りについても、破線で示す。
そして、制御部120aは、手指の検出処理を行う(ステップS32)。ここでは、制御部120aは、ステップS31で判断したタッチ位置と、重力センサ131aの検出データと、フェイスカメラ132aが撮影した画像データとを使用する。すなわち、重力センサ131aでの検出データに基づいて、表示部110aの表示パネルの底面がどの方向かを判断する。また、フェイスカメラ132aが撮影した画像から、手指が表示パネルに接近しているか否かを判断する。これらの判断に基づいて、タッチパネルへのタッチを検出した際には、そのタッチした指の向きなどを判断する。また、タッチパネルでタッチを検出しない状態で、フェイスカメラ132aの撮影画像から手指を検出したときには、制御部120aは、タッチパネルに手指が接近した状態であると判断する。
制御部120aでは、表示部110aが画像を表示する間、このステップS31,S32,S33の処理が繰り返し実行される。
画像描画部125bでは、表示部110aが画像を表示する間、このステップS41,S42,S43の処理が繰り返し実行される。
この第2の実施の形態の例によると、プレゼンターが手指fで第1端末100aをタッチ操作した状態が、画像合成されてスクリーン210上に表示されるようになる。したがって、この第2の実施の形態の例によると、第1の実施の形態の例で説明した場合と同様に、タッチパネルを使った操作の良好なプレゼンテーションが可能になる。第2の実施の形態例では、具体的な手指画像の合成例は説明しないが、第1の実施の形態例で説明した合成例がそのまま適用できる。
また、第2の実施の形態例の場合、第1端末100aと第2端末100bは、それぞれ画像処理を行うためのメモリであるフレームメモリ122a,122bが1個ずつでもよい。このため、第1端末100aと第2端末100bとして、一般的な構成のタブレット端末やスマートフォン端末が適用可能である。なお、第2端末100bについては、表示部での表示を行う必要がなく、タッチパネルを備える必要もない。このため、例えばパーソナルコンピュータ装置などの各種情報処理装置が、第2端末100bとして機能するようにしてもよい。
[3−1.筐体の側面を表示する例]
図1や図14に示した例では、スクリーン210に表示される画像として、端末の正面の筐体画像を表示するようにした。これに対して、筐体の側面などに配置された操作ボタンの操作を説明するために、操作ボタンなどが配置された筐体の側面の画像を、スクリーン210上に同時に表示させるようにしてもよい。
例えば図17に示すように、端末100(又は端末100b)内での画像合成処理では、スクリーン210上に端末の正面の筐体画像221Fを表示すると共に、その筐体画像221Fの脇に、側面の筐体画像221Sを表示している。また、端末100の実際の構成に対応して、正面の筐体画像221Fには操作スイッチ225−1が配置され、側面の筐体画像221Sには操作スイッチ225−2が配置される。
また、図17では、端末の右側面の画像だけを表示する例を示したが、制御部120は、左側面などの他の側面や背面の画像をスクリーン上に並べて表示させるようにしてもよい。
上述した各実施の形態例では、端末100又は100aに配置されたフェイスカメラ132又は132aが撮影した画像から、表示パネルへの手指の接近を検出するようにした。これに対して、フェイスカメラが配置されていない端末、あるいはフェイスカメラでパネルに接近した手指の撮影が不可能な端末の場合には、合成画像で接近した手指を表示しないようにしてもよい。すなわち、タッチ入力検出部121又は121aがタッチ入力を検出した時点で、スクリーン210に投射される画像にタッチした手指を合成するようにしてもよい。この場合には、画面上に突然手指が現れることになるが、端末の操作方法を説明するという目的は達成することができる。タッチを検出しなくなった場合にも、合成された手指が下などに移動して消えるのではなく、突然画面から消えるようにしてもよい。
また、図1や図14に示す構成において、端末100又は100bからプロジェクタ装置200に、無線で画像データを伝送するようにしてもよい。また、プロジェクタ装置200以外の表示装置が、画像を表示するようにしてもよい。
Claims (9)
- 表示部と、
前記表示部のパネル表面のタッチを検出するタッチ入力検出部と、
前記タッチ入力検出部で検出したタッチ状態に応じて、前記表示部が表示する画像に手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、
を備えるプレゼンテーション用端末。 - 前記画像合成部が合成する手指の画像は、前記タッチ入力検出部が検出したタッチの数に応じて決まる形状の手指の画像である
請求項1に記載のプレゼンテーション用端末。 - 前記表示部のパネルが配置された側の周囲を撮影するカメラを備え、
前記画像合成部は、前記カメラが撮影した画像に基づいて、前記表示部のパネル表面に近接した手指の画像を合成する
請求項2に記載のプレゼンテーション用端末。 - 前記画像合成部が合成する前記表示部のパネル表面に近接した手指の画像には、手指の影を加える
請求項3に記載のプレゼンテーション用端末。 - 前記画像合成部が合成する手指の画像は、前記表示部が備えるパネルのサイズに応じて選ばれた指がパネルをタッチする手指の画像である
請求項3に記載のプレゼンテーション用端末。 - 前記画像合成部は、プレゼンテーション用端末の筐体の画像を用意し、その筐体の表示パネルの箇所に、前記表示部が表示する画像を配置した上で、手指の画像を合成する
請求項1に記載のプレゼンテーション用端末。 - さらに前記画像合成部は、プレゼンテーション用端末の筐体の側面の画像を合成する
請求項6に記載のプレゼンテーション用端末。 - 他の端末の表示部で表示された画像データと、前記表示部のパネル表面のタッチ位置のデータとが入力される入力部と、
前記入力部に入力した画像データによる画像に、前記タッチ位置のデータで示されたタッチ検出状態に応じた手指の画像を合成する画像合成部と、
前記画像合成部が合成した画像データを出力する画像出力部と、
を備えるプレゼンテーション用端末。 - タッチパネル付きの表示部が表示した画像を取得する画像取得処理ステップと、
前記タッチパネルでのタッチ状態を検出するタッチ入力検出処理ステップと、
前記タッチ入力検出処理ステップで検出したタッチ状態に応じて、前記画像取得処理ステップで取得した画像に手指の画像を合成する画像合成処理ステップと、
前記画像合成処理ステップで合成された画像データを出力する画像出力処理ステップと、
を含むプレゼンテーション方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116479A JP6193180B2 (ja) | 2014-06-05 | 2014-06-05 | プレゼンテーション用端末及びプレゼンテーション方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116479A JP6193180B2 (ja) | 2014-06-05 | 2014-06-05 | プレゼンテーション用端末及びプレゼンテーション方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015230587A true JP2015230587A (ja) | 2015-12-21 |
JP6193180B2 JP6193180B2 (ja) | 2017-09-06 |
Family
ID=54887327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014116479A Active JP6193180B2 (ja) | 2014-06-05 | 2014-06-05 | プレゼンテーション用端末及びプレゼンテーション方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6193180B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10249224B2 (en) | 2016-04-27 | 2019-04-02 | Seiko Epson Corporation | Image supply device, method of controlling image supply device, and program |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005108137A (ja) * | 2003-10-02 | 2005-04-21 | Seiko Epson Corp | 装飾画像の選択 |
JP2009237895A (ja) * | 2008-03-27 | 2009-10-15 | Denso It Laboratory Inc | 地図表示システム、地図表示方法およびプログラム |
JP2010173584A (ja) * | 2009-01-30 | 2010-08-12 | Denso Corp | 操作装置 |
JP2011134111A (ja) * | 2009-12-24 | 2011-07-07 | Sony Corp | タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体 |
WO2011158487A1 (ja) * | 2010-06-18 | 2011-12-22 | パナソニック株式会社 | 操作支援装置及び操作支援方法 |
JP2012022458A (ja) * | 2010-07-13 | 2012-02-02 | Canon Inc | 情報処理装置およびその制御方法 |
JP2012155434A (ja) * | 2011-01-25 | 2012-08-16 | Kyocera Corp | 電子機器 |
JP2012249978A (ja) * | 2011-06-06 | 2012-12-20 | Namco Bandai Games Inc | プログラム、情報記憶媒体、ゲーム装置及びサーバシステム |
JP2013172460A (ja) * | 2012-02-22 | 2013-09-02 | Rsupport Co Ltd | 移動端末の遠隔表示方法及びこれを行う装置 |
JP2014026602A (ja) * | 2012-07-30 | 2014-02-06 | Casio Comput Co Ltd | 表示端末装置及びプログラム |
JP2015102952A (ja) * | 2013-11-22 | 2015-06-04 | 株式会社デンソー | 表示処理装置 |
-
2014
- 2014-06-05 JP JP2014116479A patent/JP6193180B2/ja active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005108137A (ja) * | 2003-10-02 | 2005-04-21 | Seiko Epson Corp | 装飾画像の選択 |
JP2009237895A (ja) * | 2008-03-27 | 2009-10-15 | Denso It Laboratory Inc | 地図表示システム、地図表示方法およびプログラム |
JP2010173584A (ja) * | 2009-01-30 | 2010-08-12 | Denso Corp | 操作装置 |
JP2011134111A (ja) * | 2009-12-24 | 2011-07-07 | Sony Corp | タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体 |
WO2011158487A1 (ja) * | 2010-06-18 | 2011-12-22 | パナソニック株式会社 | 操作支援装置及び操作支援方法 |
JP2012022458A (ja) * | 2010-07-13 | 2012-02-02 | Canon Inc | 情報処理装置およびその制御方法 |
JP2012155434A (ja) * | 2011-01-25 | 2012-08-16 | Kyocera Corp | 電子機器 |
JP2012249978A (ja) * | 2011-06-06 | 2012-12-20 | Namco Bandai Games Inc | プログラム、情報記憶媒体、ゲーム装置及びサーバシステム |
JP2013172460A (ja) * | 2012-02-22 | 2013-09-02 | Rsupport Co Ltd | 移動端末の遠隔表示方法及びこれを行う装置 |
JP2014026602A (ja) * | 2012-07-30 | 2014-02-06 | Casio Comput Co Ltd | 表示端末装置及びプログラム |
JP2015102952A (ja) * | 2013-11-22 | 2015-06-04 | 株式会社デンソー | 表示処理装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10249224B2 (en) | 2016-04-27 | 2019-04-02 | Seiko Epson Corporation | Image supply device, method of controlling image supply device, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6193180B2 (ja) | 2017-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11704016B2 (en) | Techniques for interacting with handheld devices | |
JP6573755B2 (ja) | 表示制御方法、情報処理プログラム、及び情報処理装置 | |
JP6288084B2 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
CN108038726B (zh) | 物品展示方法及装置 | |
EP3811183B1 (en) | Methods and apparatuses for providing input for head-worn image display devices | |
US10295896B2 (en) | Display system, display device, display terminal, display method of display terminal, and control program | |
KR101446902B1 (ko) | 사용자 인터랙션 장치 및 방법 | |
EP4246287A1 (en) | Method and system for displaying virtual prop in real environment image, and storage medium | |
JPWO2014188798A1 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
KR20110071349A (ko) | 휴대단말의 외부 출력 제어 방법 및 장치 | |
JP2015158748A (ja) | 制御装置、情報処理装置、制御方法、情報処理方法、情報処理システム、ウェアラブル機器 | |
JP2018010496A (ja) | 画像処理装置並びにその制御方法及びプログラム | |
JP2017182110A (ja) | 表示システム、表示装置、情報処理装置及び情報処理方法 | |
US11922904B2 (en) | Information processing apparatus and information processing method to control display of a content image | |
JP6193180B2 (ja) | プレゼンテーション用端末及びプレゼンテーション方法 | |
EP3974949A1 (en) | Head-mounted display | |
JP6374203B2 (ja) | 表示システム及びプログラム | |
KR101709529B1 (ko) | 휴대 단말을 이용한 영상 화면 제어 방법 및 장치 | |
JP2014170367A (ja) | 物体検出装置、物体検出方法、物体検出システム及びプログラム | |
CN114895862A (zh) | 一种智能终端的投屏方法、装置及设备 | |
US11906741B2 (en) | Display control device, display control method, and non-transitory computer-readable medium storing program | |
US20180203661A1 (en) | Information processing device, information processing method, and program | |
JP7210884B2 (ja) | 情報処理装置、表示システム及びプログラム | |
KR20150108591A (ko) | 웨어러블 디바이스의 제어 방법 및 그 장치 | |
KR101075420B1 (ko) | 테이블탑 인터페이스 장치, 협업 제어 장치, 테이블탑인터페이스 기반 협업 시스템 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6193180 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |