JP2017146927A - 制御装置、制御方法及びプログラム - Google Patents
制御装置、制御方法及びプログラム Download PDFInfo
- Publication number
- JP2017146927A JP2017146927A JP2016030248A JP2016030248A JP2017146927A JP 2017146927 A JP2017146927 A JP 2017146927A JP 2016030248 A JP2016030248 A JP 2016030248A JP 2016030248 A JP2016030248 A JP 2016030248A JP 2017146927 A JP2017146927 A JP 2017146927A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- projector
- user input
- touch
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Abstract
【解決手段】プロジェクタによる投影面への画像の投影を制御する投影制御部と、前記投影面に対する前記プロジェクタの位置関係に基づいて、投影される前記画像に関連するユーザインタフェース(UI)のモードを、2つ以上のUIモードの間で切り替えるUI制御部と、を備える制御装置を提供する。
【選択図】図7
Description
なお、上記の効果は必ずしも限定的なものではなく、上記の効果と共に、又は上記の効果に代えて、本明細書に示されたいずれかの効果、又は本明細書から把握され得る他の効果が奏されてもよい。
1.装置の概要
1−1.装置の外観
1−2.様々な設置姿勢
1−3.タッチ入力検出系の仕組み
2.装置の構成
2−1.全体的な構成
2−2.UIモードの切り替え
2−3.ユーザ入力の例
2−4.ユーザ入力に依存しない入力条件
3.処理の流れ
3−1.UI制御処理
3−2.UIモード選択処理
4.まとめ
[1−1.装置の外観]
図1は、一実施形態に係る投影制御装置100の外観を示している。投影制御装置100は、画像を装置の外部に存在する投影面へと投影する、いわゆるプロジェクタである。図1の例では、投影制御装置100は、直方体の形状をしており、いずれかの面を底面として何らかの平面上に載置されることができる。なお、図1に示した投影制御装置100の形状は、一例に過ぎない。投影制御装置100は、実空間内で安定的に設置されることが可能である限り、いかなる形状をしていてもよい。
投影制御装置100は、様々な設置姿勢で実空間内に設置されることができる。本項では、投影制御装置100の典型的な2つの設置姿勢について説明する。
ここでは、投影面へのタッチ入力を検出するためのタッチ検出方式の一例を説明する。なお、ここで説明する方式は一例に過ぎず、他のタッチ検出方式が使用されてもよい。
図3は、第1ユーザ入力検出系17において採用され得るタッチ入力検出方式の概要について説明するための説明図である。図3では、図2Aの例と同様に、投影制御装置100がテーブル表面3a上に第1の設置姿勢で載置されている。投影制御装置100は、投影光用の開口11を通じて投影光を射出することにより、投影画像21をテーブル表面3a上へ投影する。さらに、投影制御装置100は、探査光用の開口12を通じてプロジェクタ近傍の探査領域へ向けて探査光を射出することにより、探査面22を形成する。探査光は、例えば、赤外光などの非可視光であってよい。
図4は、第1ユーザ入力検出系17の詳細な構成の一例を示すブロック図である。図4の例において、第1ユーザ入力検出系17は、プロジェクタモジュール110の一部である。プロジェクタモジュール110は、画像投影系16、第1ユーザ入力検出系17、偏光ビームスプリッタ46、投影レンズ47、及びプロジェクタコントローラ55を有する。画像投影系16は、第1光源41、ライトバルブ42及び第1信号処理部43を含む。
第1ユーザ入力検出系17は、第2光源31、検出用レンズユニット51、イメージセンサ52及び第2信号処理部53を含む。第2光源31は、探査光用の開口12に連接するプロジェクタサブモジュール110a内に配設される一方、図4に示したプロジェクタモジュール110の残りの構成要素は、投影光用の開口11に連接するプロジェクタサブモジュール110b内に配設される。
[2−1.全体的な構成]
図7は、一実施形態に係る投影制御装置100の構成の一例を示すブロック図である。図7を参照すると、投影制御装置100は、図1に示したカメラ13、マイクロフォン14及びスピーカ15に加えて、プロジェクタモジュール110、認識モジュール120、センサモジュール130、ソフトウェアモジュール140、通信インタフェース150及び統合制御部160を備える。プロジェクタモジュール110は、上述した画像投影系16及び第1ユーザ入力検出系17を有する。カメラ13、マイクロフォン14及びスピーカ15は、認識モジュール120と共に、第2ユーザ入力検出系18を構成する。
プロジェクタモジュール110は、投影面への画像の投影と、その投影の制御とを行うモジュールである。プロジェクタモジュール110の詳細な構成の一例は、図4及び図5を用いて説明した通りである。プロジェクタモジュール110は、例えば、統合制御部160による制御の下で、後述するソフトウェアモジュール140により生成される画像を、画像投影系16を通じて投影面へ向けて投影する。投影される画像は、静止画であってもよく、又は動画を構成するフレームの各々であってもよい。
認識モジュール120は、第2ユーザ入力検出系18におけるユーザ入力を検出するための認識処理を実行するモジュールである。認識モジュール120は、例えば、カメラ13からの画像入力に基づいてユーザ入力を検出してもよい。カメラ13は、典型的には、投影制御装置100の第2の設置姿勢においてユーザが存在すると想定される方向へ向かう画角を有するように、投影制御装置100に配設される。図2Bの例では、カメラ13は、投影制御装置100を基準として投影面とは反対側の面に配設されている。他の例において、カメラ13は、投影面に対して直角をなす側面に配設されてもよい。また、カメラ13は、全天周カメラ又は半天周カメラであってもよい。認識モジュール120は、例えば、カメラ13から入力される撮像画像に映るユーザのジェスチャを認識することにより、ユーザ入力としてジェスチャ入力を検出してもよい。また、認識モジュール120は、カメラ13から入力される撮像画像に映るユーザの眼の動きを認識することにより、ユーザ入力として視線入力を検出してもよい。こうした画像入力に基づいてユーザ入力が検出される場合、ユーザ入力によって投影画像上の点を仮想的にタッチ(又はポインティング)することが仮に可能であるとしても、そのタッチ検出精度(ポインティング精度)は第1ユーザ入力検出系17と比較して相対的に粗いものとなる。状況によっては、タッチ検出(所望の点のポインティング)は不能である。
センサモジュール130は、投影面に対する投影制御装置100の位置関係を判定するために利用される1つ以上のセンサを含む。一例として、センサモジュール130は、投影制御装置100の姿勢を測定する姿勢センサ131を含み得る。姿勢センサ131は、例えば、加速度センサ又はジャイロセンサであってよい。姿勢センサ131は、投影制御装置100の基準姿勢に対する、その時点の投影制御装置100の傾き角を測定し、その測定結果を統合制御部160へ出力する。
ソフトウェアモジュール140は、CPU(Central Processing Unit)などのプロセッサと、ROM(Read Only Memory)及びRAM(Random Access Memory)を含み得るメモリとを有し、投影されるべき画像を生成するソフトウェアを実行する。一例として、ソフトウェアモジュール140は、統合制御部160による制御の下で、タッチ入力適応型ソフトウェア141及びタッチ入力非適応型ソフトウェア143を選択的に実行する。タッチ入力適応型ソフトウェア141は、タッチ入力適応型の基本ソフトウェア(例えば、Android(登録商標)、iOS又はWindows Mobile(登録商標)などのモバイル向けオペレーティングシステム)を含んでもよい。また、タッチ入力適応型ソフトウェア141は、タッチ入力適応型のアプリケーションソフトウェアを含んでもよい。タッチ入力適応型のアプリケーションソフトウェアは、例えば、スマートフォン又はタブレットPC(Personal Computer)といったモバイルデバイス上で動作するように設計された、Webブラウザ、メーラ、テキストエディタ又はインスタントメッセンジャなどといった様々なソフトウェアを含んでよい。
通信インタフェース150は、投影制御装置100と他の装置との間の通信を仲介する。通信インタフェース150は、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)若しくはBluetooth(登録商標)などのその他の無線通信プロトコルを実装してもよい。また、通信インタフェース150は、USB(Universal Serial Bus)又はHDMI(High-Definition Multimedia Interface)などの有線通信プロトコルを実装してもよい。プロジェクタモジュール110は、ソフトウェアモジュール140において生成される画像の代わりに、通信インタフェース150を介して他の装置から受信される画像を投影面へ投影してもよい。
統合制御部160は、CPUなどのプロセッサと、ROM及びRAMを含み得るメモリとを有し、投影制御装置100の動作全般を制御する。例えば、統合制御部160は、投影制御装置100が起動されると、ソフトウェアモジュール140にいずれかのソフトウェアを実行させる。また、統合制御部160は、実行されたソフトウェアにより生成される画像(例えば、オペレーティングシステムの画像又はアプリケーションの画像)を、プロジェクタモジュール110に投影面へと投影させる。また、統合制御部160は、第1ユーザ入力検出系17又は第2ユーザ入力検出系18から何らかのユーザ入力イベントが通知されると、そのユーザ入力イベントを、実行中のソフトウェアへ受け渡す。統合制御部160は、通知されたユーザ入力イベントが特定のユーザ入力を示す場合には、ユーザ入力イベントをソフトウェアへ受け渡す代わりに、自らユーザ入力イベントを処理してもよい(例えば、動作停止を指示する音声コマンドに応じて、投影制御装置100の電源をオフするなど)。
統合制御部160は、典型的には、投影面に対する投影制御装置100の位置関係から、第1ユーザ入力検出系17があるレベルのタッチ検出精度を達成できると判定される場合に、タッチモードを選択する。例えば、図2Aに例示したように、投影制御装置100が第1の設置姿勢でテーブル表面上に載置されており、テーブル表面へと画像が投影される場合、探査面が投影画像の近傍で投影画像を覆うように形成されるため、第1ユーザ入力検出系17は、タッチ入力適応型ソフトウェア141にとって十分なレベルのタッチ検出精度を達成することができる。そこで、統合制御部160は、この場合、タッチモードを選択し得る。こうした選択は、投影面が投影制御装置100の下方で略水平に位置するという、姿勢センサ131又は深度センサ133を用いた簡易な判定に基づいてなされてもよい。一方、図2Bに例示したように、投影制御装置100が第2の設置姿勢で設置されている場合、投影制御装置100の探査面と投影面との間にはある程度の距離があり、第1ユーザ入力検出系17は十分なレベルのタッチ検出精度を達成しないと推定され得る。そこで、統合制御部160は、この場合、非タッチモードを選択し得る。
上述したように、統合制御部160は、タッチモードにおいて、第1ユーザ入力検出系17を主たる入力インタフェースとして利用する。即ち、統合制御部160は、タッチモードにおいて、第1ユーザ入力検出系17を有効化する。そして、統合制御部160は、第1ユーザ入力検出系17によりタッチ入力が検出されると、第1ユーザ入力検出系17から通知されるタッチイベントを実行中のソフトウェアへ受け渡す。
非タッチモードにおいては、粗いタッチ検出精度でのタッチしか可能ではなく、又はタッチ入力が不能である。そこで、統合制御部160は、非タッチモードにおけるユーザ体験をよりリッチにするために、ユーザ入力に依存しない入力条件に基づいて投影画像を変化させるタッチ入力非適応型ソフトウェアを、ソフトウェアモジュール140に実行させてもよい。ここでのユーザ入力に依存しない入力条件とは、例えば、日付、時刻、天候、プロジェクタの設置場所、及び認識されたユーザ、のうちの少なくとも1つに関連する条件であってよい。
本節では、上述した投影制御装置100により実行され得る処理の流れの例を、いくつかのフローチャートを用いて説明する。なお、フローチャートに複数の処理ステップが記述されるが、それら処理ステップは、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
図15は、一実施形態に係るユーザインタフェース制御処理の流れの一例を示すフローチャートである。ここでは、投影制御装置100のプロジェクタモジュール110が既に起動済みであるものとする。
(1)第1の例
図16は、図15に示したUIモード選択処理の詳細な流れの第1の例を示すフローチャートである。図16を参照すると、まず、統合制御部160は、投影面に対する投影制御装置100の位置関係についての測定結果を、センサモジュール130から取得する(ステップS113)。次に、統合制御部160は、取得した測定結果に基づいて、投影面が投影制御装置100の下方で略水平に位置するか否かを判定する(ステップS115)。
図17Aは、図15に示したUIモード選択処理の詳細な流れの第2の例を示すフローチャートである。図17Aを参照すると、まず、統合制御部160は、投影制御装置100の姿勢についての測定結果を、姿勢センサ131から取得する(ステップS114)。次に、統合制御部160は、取得した測定結果に基づいて、投影制御装置100が投影面上に設置されているか否かを判定する(ステップS116)。
図17Bは、図15に示したUIモード選択処理の詳細な流れの第3の例を示すフローチャートである。図17Bを参照すると、まず、統合制御部160は、投影面の深度を示す測定結果を深度センサ133から取得する(ステップS122)。次に、統合制御部160は、取得した測定結果に基づいて、投影面の深度が閾値を下回るか否かを判定する(ステップS124)。統合制御部160は、投影面の深度が閾値を下回らないと判定した場合、非タッチモードを選択する(ステップS128)。
図18は、図15に示したUIモード選択処理の詳細な流れの第4の例を示すフローチャートである。図18を参照すると、まず、統合制御部160は、投影面の深度を示す測定結果をセンサモジュール130の深度センサ133から取得する(ステップS122)。次に、統合制御部160は、取得した測定結果に基づいて、探査面と直交する方向に投影面が存在するか否かを判定する(ステップS123)。統合制御部160は、探査面と直交する方向に投影面が存在しない場合、UIモードとして非タッチモードを選択する(ステップS128)。
ここまでに説明した第1、第2、第3及び第4の例はいずれも、統合制御部160がセンサデータを用いて自律的にUIモードを選択することを前提としている。しかしながら、ユーザが明示的にUIモードを指定した場合には、自律的に選択されるUIモードよりもユーザにより指定されたUIモードが優先されてよい。
ここまで、図1〜図19を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、プロジェクタにより投影面へ画像が投影される場合に、投影面に対するプロジェクタの位置関係に基づいて、投影画像に関連するUIモードが2つ以上のUIモードの間で切り替えられる。従って、投影面に対するプロジェクタの位置関係に合わせた望ましい方式のユーザインタフェースをユーザに提供することが可能となる。例えば、ユーザが投影面へタッチしようとすると操作子ではない障害物がタッチ検出を阻害する可能性が高い場合には、タッチ入力以外のユーザ入力を主として利用することで、円滑なユーザインタラクションを確保することができる。
(1)
プロジェクタによる投影面への画像の投影を制御する投影制御部と、
前記投影面に対する前記プロジェクタの位置関係に基づいて、投影される前記画像に関連するユーザインタフェース(UI)のモードを、2つ以上のUIモードの間で切り替えるUI制御部と、
を備える制御装置。
(2)
前記UI制御部は、前記投影面が前記プロジェクタの下方で略水平に位置する場合に、前記投影面へのタッチ入力を検出する第1ユーザ入力検出系を主たる入力インタフェースとして利用する第1のUIモードを選択する、前記(1)に記載の制御装置。
(3)
前記プロジェクタは、前記プロジェクタの近傍の探査領域へ向けて射出される探査光を用いて、ユーザによるタッチ位置を検出する第1ユーザ入力検出系、を備える、前記(1)又は前記(2)に記載の制御装置。
(4)
前記UI制御部は、前記第1ユーザ入力検出系があるレベルのタッチ検出精度を達成できると前記位置関係から判定される場合に、前記第1ユーザ入力検出系を主たる入力インタフェースとして利用する第1のUIモードを選択する、前記(3)に記載の制御装置。
(5)
前記プロジェクタの第1の設置姿勢において、前記探査領域は、前記プロジェクタの設置面と略平行な探査面を形成し、
前記UI制御部は、前記プロジェクタが前記投影面上に前記第1の設置姿勢で設置されている場合に、前記第1ユーザ入力検出系が前記レベルのタッチ検出精度を達成できると判定する、
前記(4)に記載の制御装置。
(6)
前記UI制御部は、前記プロジェクタの姿勢センサからの第1の測定結果に基づいて、前記投影面に対する前記プロジェクタの前記位置関係を判定する、前記(3)〜(5)のいずれか1項に記載の制御装置。
(7)
前記UI制御部は、前記姿勢センサからの前記第1の測定結果が前記探査領域により形成される探査面が略水平であることを示す場合に、前記第1ユーザ入力検出系を主たる入力インタフェースとして利用する第1のUIモードを選択する、前記(6)に記載の制御装置。
(8)
前記プロジェクタの第2の設置姿勢において、前記探査領域は、前記プロジェクタの設置面と略直交する探査面を形成し、
前記UI制御部は、前記プロジェクタが前記第2の設置姿勢で設置されている場合において、前記投影面の深度が閾値よりも大きいときに、前記第1ユーザ入力検出系が前記レベルのタッチ検出精度を達成しないと判定する、
前記(5)に記載の制御装置。
(9)
前記UI制御部は、前記プロジェクタの深度センサからの第2の測定結果に基づいて、前記投影面の深度を取得する、前記(8)に記載の制御装置。
(10)
前記プロジェクタは、前記第1ユーザ入力検出系よりも粗いタッチ検出精度を有し又はタッチ検出不能な第2ユーザ入力検出系、をさらに備え、
前記UI制御部は、前記第1ユーザ入力検出系が主として利用されない第2のUIモードにおいて、前記第2ユーザ入力検出系を主たる入力インタフェースとして利用する、
前記(2)〜(9)のいずれか1項に記載の制御装置。
(11)
前記第2ユーザ入力検出系は、ユーザのジェスチャ、音声及び視線のうちの1つ以上をユーザ入力として検出する、前記(10)に記載の制御装置。
(12)
前記プロジェクタは、前記第2のUIモードが選択される場合にユーザが存在すると想定される方向へ向かう画角を有するカメラ、をさらに備え、
前記第2ユーザ入力検出系は、前記カメラからの画像入力に基づいてユーザ入力を検出する、
前記(11)に記載の制御装置。
(13)
前記プロジェクタは、選択的に実行されるタッチ入力適応型ソフトウェア又はタッチ入力非適応型ソフトウェアの前記画像を前記投影面へ投影し、
前記第1ユーザ入力検出系が主として利用される第1のUIモードにおいて、前記タッチ入力適応型ソフトウェアが実行される、
前記(2)〜(12)のいずれか1項に記載の制御装置。
(14)
前記タッチ入力適応型ソフトウェアは、タッチ入力適応型の基本ソフトウェア及びタッチ入力適応型のアプリケーションソフトウェアのうちの1つ以上を含む、前記(13)に記載の制御装置。
(15)
前記タッチ入力非適応型ソフトウェアは、ユーザ入力に依存しない入力条件に基づいて、投影画像を変化させる、前記(13)又は前記(14)に記載の制御装置。
(16)
ユーザ入力に依存しない前記入力条件は、日付、時刻、天候、前記プロジェクタの設置場所、及び認識されたユーザ、のうちの少なくとも1つに関連する、前記(15)に記載の制御装置。
(17)
前記UI制御部は、前記投影面が略水平であると判定される場合に、投影画像を回転させるためのUIを有効化する、前記(1)〜(16)のいずれか1項に記載の制御装置。
(18)
前記投影画像を回転させるための前記UIは、前記画像と共に表示されるGUI及び音声UIのうちの1つ以上を含む、前記(17)に記載の制御装置。
(19)
プロジェクタによる投影面への画像の投影を制御する投影制御装置において、
前記投影面に対する前記プロジェクタの位置関係に基づいて、投影される前記画像に関連するユーザインタフェース(UI)のモードを、2つ以上のUIモードの間で切り替えること、
を含む制御方法。
(20)
投影制御装置のプロセッサを、
プロジェクタによる投影面への画像の投影を制御する投影制御部と、
前記投影面に対する前記プロジェクタの位置関係に基づいて、投影される前記画像に関連するユーザインタフェース(UI)のモードを、2つ以上のUIモードの間で切り替えるUI制御部と、
として機能させるためのプログラム。
3a,3b 投影面
11 投影光用の開口
12 探査光用の開口
13 カメラ
14 マイクロフォン
15 スピーカ
16 画像投影系
17 第1ユーザ入力検出系
18 第2ユーザ入力検出系
21 投影画像
21a 投影光
22 探査面
22a,22b 探査光
23 探査画像
100 投影制御装置
110 プロジェクタモジュール
120 認識モジュール
130 センサモジュール
131 姿勢センサ
133 深度センサ
140 ソフトウェアモジュール
141 タッチ入力適応型ソフトウェア
143 タッチ入力非適応型ソフトウェア
150 通信インタフェース
160 統合制御部
Claims (20)
- プロジェクタによる投影面への画像の投影を制御する投影制御部と、
前記投影面に対する前記プロジェクタの位置関係に基づいて、投影される前記画像に関連するユーザインタフェース(UI)のモードを、2つ以上のUIモードの間で切り替えるUI制御部と、
を備える制御装置。 - 前記UI制御部は、前記投影面が前記プロジェクタの下方で略水平に位置する場合に、前記投影面へのタッチ入力を検出する第1ユーザ入力検出系を主たる入力インタフェースとして利用する第1のUIモードを選択する、請求項1に記載の制御装置。
- 前記プロジェクタは、前記プロジェクタの近傍の探査領域へ向けて射出される探査光を用いて、ユーザによるタッチ位置を検出する第1ユーザ入力検出系、を備える、請求項1に記載の制御装置。
- 前記UI制御部は、前記第1ユーザ入力検出系があるレベルのタッチ検出精度を達成できると前記位置関係から判定される場合に、前記第1ユーザ入力検出系を主たる入力インタフェースとして利用する第1のUIモードを選択する、請求項3に記載の制御装置。
- 前記プロジェクタの第1の設置姿勢において、前記探査領域は、前記プロジェクタの設置面と略平行な探査面を形成し、
前記UI制御部は、前記プロジェクタが前記投影面上に前記第1の設置姿勢で設置されている場合に、前記第1ユーザ入力検出系が前記レベルのタッチ検出精度を達成できると判定する、
請求項4に記載の制御装置。 - 前記UI制御部は、前記プロジェクタの姿勢センサからの第1の測定結果に基づいて、前記投影面に対する前記プロジェクタの前記位置関係を判定する、請求項3に記載の制御装置。
- 前記UI制御部は、前記姿勢センサからの前記第1の測定結果が前記探査領域により形成される探査面が略水平であることを示す場合に、前記第1ユーザ入力検出系を主たる入力インタフェースとして利用する第1のUIモードを選択する、請求項6に記載の制御装置。
- 前記プロジェクタの第2の設置姿勢において、前記探査領域は、前記プロジェクタの設置面と略直交する探査面を形成し、
前記UI制御部は、前記プロジェクタが前記第2の設置姿勢で設置されている場合において、前記投影面の深度が閾値よりも大きいときに、前記第1ユーザ入力検出系が前記レベルのタッチ検出精度を達成しないと判定する、
請求項5に記載の制御装置。 - 前記UI制御部は、前記プロジェクタの深度センサからの第2の測定結果に基づいて、前記投影面の深度を取得する、請求項8に記載の制御装置。
- 前記プロジェクタは、前記第1ユーザ入力検出系よりも粗いタッチ検出精度を有し又はタッチ検出不能な第2ユーザ入力検出系、をさらに備え、
前記UI制御部は、前記第1ユーザ入力検出系が主として利用されない第2のUIモードにおいて、前記第2ユーザ入力検出系を主たる入力インタフェースとして利用する、
請求項2に記載の制御装置。 - 前記第2ユーザ入力検出系は、ユーザのジェスチャ、音声及び視線のうちの1つ以上をユーザ入力として検出する、請求項10に記載の制御装置。
- 前記プロジェクタは、前記第2のUIモードが選択される場合にユーザが存在すると想定される方向へ向かう画角を有するカメラ、をさらに備え、
前記第2ユーザ入力検出系は、前記カメラからの画像入力に基づいてユーザ入力を検出する、
請求項11に記載の制御装置。 - 前記プロジェクタは、選択的に実行されるタッチ入力適応型ソフトウェア又はタッチ入力非適応型ソフトウェアの前記画像を前記投影面へ投影し、
前記第1ユーザ入力検出系が主として利用される第1のUIモードにおいて、前記タッチ入力適応型ソフトウェアが実行される、
請求項2に記載の制御装置。 - 前記タッチ入力適応型ソフトウェアは、タッチ入力適応型の基本ソフトウェア及びタッチ入力適応型のアプリケーションソフトウェアのうちの1つ以上を含む、請求項13に記載の制御装置。
- 前記タッチ入力非適応型ソフトウェアは、ユーザ入力に依存しない入力条件に基づいて、投影画像を変化させる、請求項13に記載の制御装置。
- ユーザ入力に依存しない前記入力条件は、日付、時刻、天候、前記プロジェクタの設置場所、及び認識されたユーザ、のうちの少なくとも1つに関連する、請求項15に記載の制御装置。
- 前記UI制御部は、前記投影面が略水平であると判定される場合に、投影画像を回転させるためのUIを有効化する、請求項1に記載の制御装置。
- 前記投影画像を回転させるための前記UIは、前記画像と共に表示されるGUI及び音声UIのうちの1つ以上を含む、請求項17に記載の制御装置。
- プロジェクタによる投影面への画像の投影を制御する投影制御装置において、
前記投影面に対する前記プロジェクタの位置関係に基づいて、投影される前記画像に関連するユーザインタフェース(UI)のモードを、2つ以上のUIモードの間で切り替えること、
を含む制御方法。 - 投影制御装置のプロセッサを、
プロジェクタによる投影面への画像の投影を制御する投影制御部と、
前記投影面に対する前記プロジェクタの位置関係に基づいて、投影される前記画像に関連するユーザインタフェース(UI)のモードを、2つ以上のUIモードの間で切り替えるUI制御部と、
として機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016030248A JP2017146927A (ja) | 2016-02-19 | 2016-02-19 | 制御装置、制御方法及びプログラム |
US15/418,902 US10955960B2 (en) | 2016-02-19 | 2017-01-30 | Control device, control method, and program |
CN201710072289.1A CN107102804B (zh) | 2016-02-19 | 2017-02-10 | 控制设备、控制方法和记录介质 |
EP17155583.2A EP3208699B1 (en) | 2016-02-19 | 2017-02-10 | Control device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016030248A JP2017146927A (ja) | 2016-02-19 | 2016-02-19 | 制御装置、制御方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020198023A Division JP7112627B2 (ja) | 2020-11-30 | 2020-11-30 | 制御装置、制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017146927A true JP2017146927A (ja) | 2017-08-24 |
Family
ID=58017959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016030248A Pending JP2017146927A (ja) | 2016-02-19 | 2016-02-19 | 制御装置、制御方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10955960B2 (ja) |
EP (1) | EP3208699B1 (ja) |
JP (1) | JP2017146927A (ja) |
CN (1) | CN107102804B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020112867A (ja) * | 2019-01-08 | 2020-07-27 | 清水建設株式会社 | 情報表示システム及び情報表示方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10937124B2 (en) * | 2017-12-25 | 2021-03-02 | Canon Kabushiki Kaisha | Information processing device, system, information processing method, and storage medium |
JP7043255B2 (ja) | 2017-12-28 | 2022-03-29 | キヤノン株式会社 | 電子機器及びその制御方法 |
JP2019121857A (ja) * | 2017-12-28 | 2019-07-22 | キヤノン株式会社 | 電子機器及びその制御方法 |
CN108282645B (zh) * | 2018-01-24 | 2020-08-14 | 歌尔科技有限公司 | 一种投影触摸校准和梯形校正的方法、装置和智能投影仪 |
CN109558062A (zh) | 2018-03-29 | 2019-04-02 | 广州小狗机器人技术有限公司 | 一种互动位置的确定方法和装置 |
JP2019211826A (ja) * | 2018-05-31 | 2019-12-12 | キヤノン株式会社 | 制御装置、制御システム、制御方法およびプログラム |
JP6822445B2 (ja) | 2018-07-02 | 2021-01-27 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
CN111857411A (zh) * | 2020-06-30 | 2020-10-30 | 海尔优家智能科技(北京)有限公司 | 投影设备的红外触控功能控制方法、投影设备和存储介质 |
CN113824942B (zh) * | 2021-10-25 | 2023-08-29 | 河南中光学集团有限公司 | 梯形校正方法、装置、投影仪及计算机可读存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031336A (ja) * | 2007-07-24 | 2009-02-12 | Brother Ind Ltd | プロジェクタ |
JP2009123006A (ja) * | 2007-11-15 | 2009-06-04 | Funai Electric Co Ltd | プロジェクタ |
WO2011108257A1 (ja) * | 2010-03-01 | 2011-09-09 | パナソニック株式会社 | 表示装置 |
JP2013143090A (ja) * | 2012-01-12 | 2013-07-22 | Sharp Corp | 情報表示端末、ならびに情報表示端末を制御するための方法およびプログラム |
US20130222228A1 (en) * | 2012-02-29 | 2013-08-29 | David Ryan Walker | Automatic projector behaviour changes based on projection distance |
EP2634629A1 (en) * | 2012-02-29 | 2013-09-04 | BlackBerry Limited | Automatic projector behaviour changes based on projection distance |
JP2015043154A (ja) * | 2013-08-26 | 2015-03-05 | キヤノン株式会社 | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 |
WO2015092905A1 (ja) * | 2013-12-19 | 2015-06-25 | 日立マクセル株式会社 | 投写型映像表示装置及び投写型映像表示方法 |
WO2015098188A1 (ja) * | 2013-12-27 | 2015-07-02 | ソニー株式会社 | 表示制御装置、表示制御方法及びプログラム |
JP2015210797A (ja) * | 2014-04-30 | 2015-11-24 | シャープ株式会社 | 表示装置 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4620909B2 (ja) | 2001-07-26 | 2011-01-26 | 日東光学株式会社 | 画像入出力装置 |
WO2006098402A1 (ja) * | 2005-03-17 | 2006-09-21 | Brother Kogyo Kabushiki Kaisha | プロジェクタ |
US8018579B1 (en) * | 2005-10-21 | 2011-09-13 | Apple Inc. | Three-dimensional imaging and display system |
US8100541B2 (en) | 2007-03-01 | 2012-01-24 | Taylor Alexander S | Displaying and navigating digital media |
WO2009035705A1 (en) | 2007-09-14 | 2009-03-19 | Reactrix Systems, Inc. | Processing of gesture-based user interactions |
JP5309534B2 (ja) | 2007-11-14 | 2013-10-09 | 船井電機株式会社 | 画像表示装置 |
CN101896957B (zh) * | 2008-10-15 | 2013-06-19 | 松下电器产业株式会社 | 光投射装置 |
US8911096B2 (en) * | 2008-12-10 | 2014-12-16 | Nikon Corporation | Projection apparatus for projecting and processing an image |
JP5424299B2 (ja) * | 2008-12-16 | 2014-02-26 | 国立大学法人東北大学 | イオン注入装置、イオン注入方法、及び半導体装置 |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US20110188008A1 (en) * | 2010-01-29 | 2011-08-04 | Sanyo Electric Co., Ltd. | Projection display apparatus |
JP5259010B2 (ja) | 2010-02-24 | 2013-08-07 | 京セラ株式会社 | 携帯電子機器および投影システム |
US9760123B2 (en) * | 2010-08-06 | 2017-09-12 | Dynavox Systems Llc | Speech generation device with a projected display and optical inputs |
WO2012040827A2 (en) * | 2010-10-01 | 2012-04-05 | Smart Technologies Ulc | Interactive input system having a 3d input space |
JP5304848B2 (ja) | 2010-10-14 | 2013-10-02 | 株式会社ニコン | プロジェクタ |
US9229584B2 (en) * | 2011-06-13 | 2016-01-05 | Citizen Holdings Co., Ltd. | Information input apparatus |
US9069164B2 (en) | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
JP5790248B2 (ja) * | 2011-07-27 | 2015-10-07 | 株式会社リコー | 画像投影装置 |
US9002058B2 (en) | 2011-12-01 | 2015-04-07 | Microvision, Inc. | Scanned image projection system with gesture control input |
JP5971053B2 (ja) | 2012-09-19 | 2016-08-17 | 船井電機株式会社 | 位置検出装置及び画像表示装置 |
US9465484B1 (en) * | 2013-03-11 | 2016-10-11 | Amazon Technologies, Inc. | Forward and backward looking vision system |
EP2996016B1 (en) * | 2013-05-09 | 2020-02-12 | Sony Interactive Entertainment Inc. | Information processing device and application execution method |
CN103279225B (zh) * | 2013-05-30 | 2016-02-24 | 清华大学 | 投影式人机交互系统及触控识别方法 |
KR102083596B1 (ko) * | 2013-09-05 | 2020-03-02 | 엘지전자 주식회사 | 디스플레이장치 및 디스플레이장치의 동작방법 |
WO2015045125A1 (ja) * | 2013-09-27 | 2015-04-02 | 日立マクセル株式会社 | 映像投射装置 |
JP6222830B2 (ja) * | 2013-12-27 | 2017-11-01 | マクセルホールディングス株式会社 | 画像投射装置 |
CN104133346A (zh) * | 2014-07-24 | 2014-11-05 | 中国科学院光电技术研究所 | 一种适用于投影光刻机的实时检焦调焦方法 |
JP6597615B2 (ja) * | 2014-07-29 | 2019-10-30 | ソニー株式会社 | 投射型表示装置 |
CN104503275B (zh) * | 2014-11-21 | 2017-03-08 | 深圳市超节点网络科技有限公司 | 基于手势的非接触式控制方法及其设备 |
CN107003716B (zh) * | 2014-12-08 | 2019-08-23 | 麦克赛尔株式会社 | 投射型影像显示装置以及影像显示方法 |
-
2016
- 2016-02-19 JP JP2016030248A patent/JP2017146927A/ja active Pending
-
2017
- 2017-01-30 US US15/418,902 patent/US10955960B2/en active Active
- 2017-02-10 EP EP17155583.2A patent/EP3208699B1/en active Active
- 2017-02-10 CN CN201710072289.1A patent/CN107102804B/zh not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031336A (ja) * | 2007-07-24 | 2009-02-12 | Brother Ind Ltd | プロジェクタ |
JP2009123006A (ja) * | 2007-11-15 | 2009-06-04 | Funai Electric Co Ltd | プロジェクタ |
WO2011108257A1 (ja) * | 2010-03-01 | 2011-09-09 | パナソニック株式会社 | 表示装置 |
JP2013143090A (ja) * | 2012-01-12 | 2013-07-22 | Sharp Corp | 情報表示端末、ならびに情報表示端末を制御するための方法およびプログラム |
US20130222228A1 (en) * | 2012-02-29 | 2013-08-29 | David Ryan Walker | Automatic projector behaviour changes based on projection distance |
EP2634629A1 (en) * | 2012-02-29 | 2013-09-04 | BlackBerry Limited | Automatic projector behaviour changes based on projection distance |
JP2015043154A (ja) * | 2013-08-26 | 2015-03-05 | キヤノン株式会社 | 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 |
WO2015092905A1 (ja) * | 2013-12-19 | 2015-06-25 | 日立マクセル株式会社 | 投写型映像表示装置及び投写型映像表示方法 |
WO2015098188A1 (ja) * | 2013-12-27 | 2015-07-02 | ソニー株式会社 | 表示制御装置、表示制御方法及びプログラム |
JP2015210797A (ja) * | 2014-04-30 | 2015-11-24 | シャープ株式会社 | 表示装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020112867A (ja) * | 2019-01-08 | 2020-07-27 | 清水建設株式会社 | 情報表示システム及び情報表示方法 |
JP7244279B2 (ja) | 2019-01-08 | 2023-03-22 | 清水建設株式会社 | 情報表示システム及び情報表示方法 |
US11954241B2 (en) | 2019-01-08 | 2024-04-09 | Shimizu Corporation | Information display system and information display method |
Also Published As
Publication number | Publication date |
---|---|
US10955960B2 (en) | 2021-03-23 |
EP3208699B1 (en) | 2020-09-23 |
US20170244943A1 (en) | 2017-08-24 |
EP3208699A1 (en) | 2017-08-23 |
CN107102804B (zh) | 2021-08-10 |
CN107102804A (zh) | 2017-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3208699B1 (en) | Control device, control method, and program | |
US10416789B2 (en) | Automatic selection of a wireless connectivity protocol for an input device | |
US11494000B2 (en) | Touch free interface for augmented reality systems | |
US10133407B2 (en) | Display apparatus, display system, method for controlling display apparatus, and program | |
US9400562B2 (en) | Image projection device, image projection system, and control method | |
KR20200101207A (ko) | 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법 | |
JP7092028B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR102449593B1 (ko) | 카메라 장치를 제어하기 위한 방법 및 그 전자 장치 | |
JP2015090547A (ja) | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム | |
CN107407959B (zh) | 基于姿势的三维图像的操纵 | |
US10474324B2 (en) | Uninterruptable overlay on a display | |
US20180267624A1 (en) | Systems and methods for spotlight effect manipulation | |
JPWO2013121807A1 (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム | |
JP6911870B2 (ja) | 表示制御装置、表示制御方法及びコンピュータプログラム | |
JP6249817B2 (ja) | 画像表示システム、画像表示方法、画像表示プログラム及び記録媒体 | |
JP6638392B2 (ja) | 表示装置、表示システム、表示装置の制御方法、及び、プログラム | |
JP6575518B2 (ja) | 表示制御装置、表示制御方法およびプログラム | |
JP7112627B2 (ja) | 制御装置、制御方法及びプログラム | |
KR102151206B1 (ko) | 이동 단말기 및 그 제어방법 | |
US9898183B1 (en) | Motions for object rendering and selection | |
JP5229928B1 (ja) | 注視位置特定装置、および注視位置特定プログラム | |
JP6686319B2 (ja) | 画像投影装置及び画像表示システム | |
US11768535B1 (en) | Presenting computer-generated content based on extremity tracking | |
WO2022208797A1 (ja) | 情報表示装置および方法 | |
US11556173B2 (en) | Electronic apparatus, method for controlling the same, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181128 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190426 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200529 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200915 |