JP6693495B2 - 情報処理装置、情報処理方法及び記録媒体 - Google Patents
情報処理装置、情報処理方法及び記録媒体 Download PDFInfo
- Publication number
- JP6693495B2 JP6693495B2 JP2017240512A JP2017240512A JP6693495B2 JP 6693495 B2 JP6693495 B2 JP 6693495B2 JP 2017240512 A JP2017240512 A JP 2017240512A JP 2017240512 A JP2017240512 A JP 2017240512A JP 6693495 B2 JP6693495 B2 JP 6693495B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- user
- target device
- information processing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 89
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 description 57
- 238000010586 diagram Methods 0.000 description 27
- 230000004048 modification Effects 0.000 description 22
- 238000012986 modification Methods 0.000 description 22
- 238000004458 analytical method Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 238000000034 method Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 239000002245 particle Substances 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Social Psychology (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Selective Calling Equipment (AREA)
- Controls And Circuits For Display Device (AREA)
Description
1.システムの概要
2.構成例
3.処理の流れ
4.表示場所の決定
4.1.対象機器の近傍への投影
4.2.対象機器と離隔した場所への投影
4.3.スマートフォンまたはHMDにて表示する場合
5.変形例
5.1.操作権限が委譲される場合
5.2.対象機器への操作が認識不能である場合
5.3.対象機器があるユーザに対してロックされている場合
6.ハードウェア構成例
7.まとめ
<<1.システムの概要>>
まず、図1を参照して、本開示の実施形態に係る情報処理装置のシステム概要について説明する。図1は、所定の実空間内(以下、実空間内とも称す。)において遠隔操作にて対象機器の操作が行われる場合のフローを示している。所定の実空間内とは、ユーザ及び操作対象機器が存在する空間であり、例えば、外環境と区切られた屋内であり、部屋、会議室等のユーザ及び対象機器が一定数含まれる空間を示す。
図3は、本実施形態に係るシステム1000の構成の一例を示すブロック図である。図3に示すように、システム1000は情報処理装置1100、表示装置1200、センサ装置1300を含む。本実施形態においては、システム1000は情報処理装置1100、表示装置1200、センサ装置1300が別の構成として示されているが、表示装置1200は、情報処理装置1100に含まれてもよく、センサ装置1300も情報処理装置1100に含まれてもよい。
表示装置1200は、ユーザと対象機器との位置関係に応じた表示を実空間内でユーザが視認可能に呈示する機能を有する。表示装置1200は、プロジェクタ1210、TV1220、タブレット1230、スマートフォン1240、又はPC(Personal Computer)1250のいずれかを少なくとも1つ以上含む。本実施形態においては、ユーザが選択した対象機器、及びユーザが該対象機器の操作権限を有することを示すために視認可能な表示を用いる旨を例示したが、本実施形態はかかる例示に限定されない。例えば、ユーザが選択した対象機器、及びユーザが該対象機器の操作権限を有することは、音声などを用いてユーザに呈示してもよいことはいうまでもない。その場合、表示装置1200は、スピーカ、又は単一指向性スピーカを含み、音声出力装置としての機能を有する。これにより、表示装置1200は、ユーザと対象機器との位置関係に応じた音声をユーザに対して呈示する。
センサ装置1300は、カメラ1310、デプスセンサ1320又はマイクロフォン1330のいずれかを少なくとも1つ以上含む。
情報処理装置1100は、I/F(Interface)部1130、検出部1120、制御部1110及び記憶部1140を含む。
I/F部1130は、情報処理装置1100と他の機器とを接続するための接続装置である。I/F部1130は、例えば、USB(Universal Serial Bus)コネクタ等により実現され、表示装置1200及びセンサ装置1300の各構成要素との間で情報の入出力を行う。
検出部1120は、ユーザ検出部1121、トリガ検出部1123、環境検出部1125及び機器検出部1126を含む。検出部1120は、センサ装置1300から取得したセンサ情報から、対象とする検出データを各構成要素にて抽出し、かつ制御部1110において制御の基となる検出データを制御部1110に出力する機能を有する。
ユーザ検出部1121は、センサ装置1300によりセンシングされた情報に基づいてユーザ情報を検出する機能を有する。ユーザ情報は、ユーザに関する情報である。
トリガ検出部1123は、センサ装置1300によりセンシングされた情報に基づいてトリガ情報を検出する機能を有する。
環境検出部1125は、センサ装置1300によりセンシングされた情報に基づいて環境情報を検出する機能を有する。環境情報は、ユーザがいる所定の空間に関する情報である。環境情報は、多様な情報を含み得る。
機器検出部1126は、所定の空間内においてユーザの操作対象となる対象機器の存在及び位置を検出する機能を有する。例えば、対象機器の存在を検出するために、DLNA(Digital Living Network Alliance、登録商標)、Wifi(登録商標)、USB接続、その他専用機等による情報処理装置1100に対する接続により対象機器の存在を検出してもよい。この際に、対象機器の種類やメーカー名等の情報を検出してもよい。
制御部1110は、各種プログラムに従って情報処理装置1100内の動作全般を制御する。制御部1110は、表示制御部1111、解析部1115を含む。表示制御部1111は表示装置1200による表示を制御する。本実施形態においては、表示制御部1111により、ユーザに対して表示を制御する例を示すが、表示に限らず音声によってユーザへの呈示を行ってもよい。その場合、制御部1110には、音響制御部が含まれる。
表示制御部1111は、解析部1115によって特定された所定の実空間内における対象機器の位置情報と、対象機器の操作権限を有するユーザの位置情報と、に基づいて、ユーザと対象機器との位置関係に応じた表示を実空間内でユーザが視認可能なように表示装置1200により表示させる。これにより、ユーザは、該表示を視認することによって、ユーザが選択した対象機器Obに操作を行う前に把握でき、かつ操作権限をどのユーザが持っているのかを把握することができる。
これまでに説明した各構成を用いた本開示技術における処理の流れを、図4を参照して説明する。図4は、本開示に係る技術における処理の流れを示している。
ここでは、情報処理装置1100にて制御する表示をプロジェクタ1210にて投影する場合を例示して、実施形態を説明する。ただし、表示場所及び表示は、操作権限を持つユーザと選択された対象機器とをユーザが視認できればよいため、表示を呈示する装置はプロジェクタ1210に限定されない。
まず、表示が対象機器Obの位置から操作権限を有するユーザU1が存在する位置への方向を示す表示であり、かつ該表示の制御が対象機器の近傍にて行われる場合を説明する。所定の空間内において、ユーザU1及びU2が存在する場合に、操作権限を有するユーザU1と対象機器Obとを結ぶ直線、及び操作権限を有しない他のユーザU2と対象機器とを結ぶ直線がなす角度に応じて、表示を対象機器の近傍に表示するか否かが決定される。ここでは、図5を参照して、対象機器の近傍にて表示を制御する場合に関して説明する。対象機器の近傍とは、対象機器の周囲及び周辺を示し、対象機器の周囲及び周辺へ表示を行うことで他の対象機器と操作対象機器との混同を抑制する。
次に、対象機器と離隔した場所に表示を投影する場合に関して説明を行う。かかる投影は、例えば、ユーザが3人以上の複数である場合または、対象機器とユーザとの距離が遠い場合に行われ得る。対象機器と離隔した場所に投影する場合に関して図10を参照して説明する。
ここまでは、プロジェクタ1210及び対象機器Obを介して、所定の空間内における表示が制御される場合を説明した。ただし、これらの表示は、スマートフォンの表示部を通して制御されてもよく、HMD(Head Mounted Display)の表示部を通して制御されてもよい。すなわち、これらの表示は、スマートフォン又はHMD等の仮想空間上で表示および制御されてもよい。
<5.1.操作権限が委譲される場合>
ここまでは、操作権限を有したユーザU1が、対象機器Obが選択されたことと、操作権限を有しているのがユーザU1であることとを示す表示を表示制御部1111が制御する説明を行った。次に、操作が行われる前に操作権限が他のユーザに委譲される場合を説明する。
次に、表示の多様性に関して説明する。ここまでは、ユーザU1のトリガ動作を検知して、解析部1115が解析を行い、対象機器Obと操作権限を有するユーザU1を特定し、対象機器Obと操作権限を有するユーザU1の位置情報を基に、表示制御部1111が表示の制御を行う場合の説明をした。
対象機器があるユーザに対してロックされている場合(操作不可状態となっている場合)、図9Aから図9Fに示すような方向性を示す表示に加えて、ロック状態を示す鍵のマークなどの特定の表示を付加して表示を行ってもよい。表示は、図9Aから図9Fに示すような方向性を有する表示に特定の表示が付加された表示でもよく、図17Aから図17Hに示すような方向性を有しない表示に特定の表示が付加された表示であってもよい。
<<6.ハードウェア構成例>>
最後に、図20を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図20は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図20に示す情報処理装置900は、例えば、図3に示した情報処理装置1100を実現し得る。本実施形態に係る情報処理装置1100による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
以上、図1〜図20を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態に係るシステム1000は、所定の空間内における対象機器の位置情報およびユーザの位置情報に基づいて、対象機器およびユーザの位置関係に応じた表示を行う。これにより、対象機器の操作権限を有するユーザと対象機器とを操作前に視認することが可能となる。
(1)
所定の実空間内における対象機器の位置情報と、前記対象機器の操作権限を有するユーザの位置情報と、に基づいて、前記ユーザと前記対象機器との位置関係に応じた表示を前記実空間内で前記ユーザが視認可能なように制御する表示制御部、を備える情報処理装置。
(2)
前記表示制御部は、前記対象機器の選択に基づいて、前記ユーザと前記対象機器とに対して相互に関連付けされた前記表示を制御する、前記(1)に記載の情報処理装置。
(3)
前記表示は、前記対象機器の位置から前記ユーザの位置への方向を表す表示である、前記(1)または(2)に記載の情報処理装置。
(4)
前記表示は、前記操作権限を有しない他のユーザよりも前記ユーザに対する視認性が高い表示である、前記(1)〜(3)のいずれか一項に記載の情報処理装置。
(5)
前記表示は、前記ユーザと前記対象機器とを結ぶ線分または曲線である、前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記対象機器は、表示部を備え、
前記表示制御部は、前記表示を前記表示部に表示させる、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記表示制御部は、前記表示を投影装置により投影させる、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(8)
前記投影装置は、投影方向を変更可能な可動部を備え、
前記表示制御部は、前記投影装置の投影方向を変更させることで前記表示の投影場所を変更する、前記(7)に記載の情報処理装置。
(9)
前記表示制御部は、前記実空間に関する環境情報に基づいて、前記投影場所を決定する、前記(8)に記載の情報処理装置。
(10)
前記環境情報は、前記実空間内の輝度、色、音、又は前記実空間を形成する物体に関するデプス情報を含む、前記(9)に記載の情報処理装置。
(11)
前記表示制御部は、前記操作権限を有する前記ユーザと前記対象機器とを結ぶ直線、及び前記操作権限を有しない他のユーザと前記対象機器とを結ぶ直線がなす角度により、前記表示を変更する、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記角度が、所定の角度より大きい場合、前記表示は、前記対象機器の近傍または前記対象機器に重畳して表示され、前記角度が所定の角度より小さい場合、前記表示は、前記ユーザと前記対象機器とを結ぶ線分または曲線にて表示される、前記(11)に記載の情報処理装置。
(13)
前記表示制御部は、前記対象機器の前記表示部にて表示されるコンテンツの表示範囲が前記表示部の表示領域を占有する領域の割合に応じて、前記表示を、前記表示部の表示領域内に表示させるか、前記表示領域の外側に表示させるかの選択を行う、前記(6)に記載の情報処理装置。
(14)
前記表示を前記表示領域の外側に表示させる場合、投影装置により投影させる、前記(13)に記載の情報処理装置。
(15)
前記対象機器の選択は、所定の空間内におけるユーザのジェスチャ、音声入力の少なくともいずれかにより行われる、前記(2)に記載の情報処理装置。
(16)
前記ユーザが、前記操作権限を複数の前記対象機器に対して有する場合、前記線分または前記曲線は、前記対象機器間を繋ぐ線分または曲線をさらに含む前記(5)に記載の情報処理装置。
(17)
前記表示制御部は、前記操作権限が前記ユーザから他のユーザへ委譲された場合に、前記対象機器の位置から前記ユーザがいる位置への方向を表す表示を、前記他のユーザがいる方向を表す表示に変更する、前記(5)に記載の情報処理装置。
(18)
前記表示制御部は、前記表示を前記対象機器の筐体と重畳するように、又は前記対象機器の筐体の近傍に投影させる、前記(8)に記載の情報処理装置。
(19)
所定の実空間内における対象機器の位置情報と、前記対象機器の操作権限を有するユーザの位置情報と、に基づいて、前記ユーザと前記対象機器との位置関係に応じた表示を前記実空間内で前記ユーザが視認可能なように制御すること、を含む情報処理方法。
(20)
コンピュータを、
所定の実空間内における対象機器の位置情報と、前記対象機器の操作権限を有するユーザの位置情報と、に基づいて、前記ユーザと前記対象機器との位置関係に応じた表示を前記実空間内で前記ユーザが視認可能なように制御する表示制御部、として機能させるためのプログラムを記録した記録媒体。
1100 情報処理装置
1110 制御部
1111 表示制御部
1115 解析部
1120 検出部
1121 ユーザ検出部
1123 トリガ検出部
1125 環境検出部
1126 機器検出部
1130 I/F部
1140 記憶部
1200 表示装置
1300 センサ装置
Claims (20)
- 所定の実空間内における対象機器の位置情報と、前記対象機器の操作権限を有するユーザの位置情報と、に基づいて、前記ユーザと前記対象機器との位置関係に応じた表示を前記実空間内で前記ユーザが視認可能なように制御する表示制御部、を備える情報処理装置。
- 前記表示制御部は、前記対象機器の選択に基づいて、前記ユーザと前記対象機器とに対して相互に関連付けされた前記表示を制御する、請求項1に記載の情報処理装置。
- 前記表示は、前記対象機器の位置から前記ユーザの位置への方向を表す表示である、請求項1または2に記載の情報処理装置。
- 前記表示は、前記操作権限を有しない他のユーザよりも前記ユーザに対する視認性が高い表示である、請求項1〜3のいずれか一項に記載の情報処理装置。
- 前記表示は、前記ユーザと前記対象機器とを結ぶ線分または曲線である、請求項1〜4のいずれか一項に記載の情報処理装置。
- 前記対象機器は、表示部を備え、
前記表示制御部は、前記表示を前記表示部に表示させる、請求項1〜5のいずれか一項に記載の情報処理装置。 - 前記表示制御部は、前記表示を投影装置により投影させる、請求項1〜5のいずれか一項に記載の情報処理装置。
- 前記投影装置は、投影方向を変更可能な可動部を備え、
前記表示制御部は、前記投影装置の投影方向を変更させることで前記表示の投影場所を変更する、請求項7に記載の情報処理装置。 - 前記表示制御部は、前記実空間に関する環境情報に基づいて、前記投影場所を決定する、請求項8に記載の情報処理装置。
- 前記環境情報は、前記実空間内の輝度、色、音、又は前記実空間を形成する物体に関するデプス情報を含む、請求項9に記載の情報処理装置。
- 前記表示制御部は、前記操作権限を有する前記ユーザと前記対象機器とを結ぶ直線、及び前記操作権限を有しない他のユーザと前記対象機器とを結ぶ直線がなす角度により、前記表示を変更する、請求項1〜10のいずれか一項に記載の情報処理装置。
- 前記角度が、所定の角度より大きい場合、前記表示は、前記対象機器の近傍または前記対象機器に重畳して表示され、前記角度が所定の角度より小さい場合、前記表示は、前記ユーザと前記対象機器とを結ぶ線分または曲線にて表示される、請求項11に記載の情報処理装置。
- 前記表示制御部は、前記対象機器の前記表示部にて表示されるコンテンツの表示範囲が前記表示部の表示領域を占有する領域の割合に応じて、前記表示を、前記表示部の表示領域内に表示させるか、前記表示領域の外側に表示させるかの選択を行う、請求項6に記載の情報処理装置。
- 前記表示を前記表示領域の外側に表示させる場合、投影装置により投影させる、請求項13に記載の情報処理装置。
- 前記対象機器の選択は、所定の空間内におけるユーザのジェスチャ、音声入力の少なくともいずれかにより行われる、請求項2に記載の情報処理装置。
- 前記ユーザが、前記操作権限を複数の前記対象機器に対して有する場合、前記線分または前記曲線は、前記対象機器間を繋ぐ線分または曲線をさらに含む請求項5に記載の情報処理装置。
- 前記表示制御部は、前記操作権限が前記ユーザから他のユーザへ委譲された場合に、前記対象機器の位置から前記ユーザがいる位置への方向を表す表示を、前記他のユーザがいる方向を表す表示に変更する、請求項5に記載の情報処理装置。
- 前記表示制御部は、前記表示を前記対象機器の筐体と重畳するように、又は前記対象機器の筐体の近傍に投影させる、請求項8に記載の情報処理装置。
- 所定の実空間内における対象機器の位置情報と、前記対象機器の操作権限を有するユーザの位置情報と、に基づいて、前記ユーザと前記対象機器との位置関係に応じた表示を前記実空間内で前記ユーザが視認可能なように制御すること、を含む情報処理方法。
- コンピュータを、
所定の実空間内における対象機器の位置情報と、前記対象機器の操作権限を有するユーザの位置情報と、に基づいて、前記ユーザと前記対象機器との位置関係に応じた表示を前記実空間内で前記ユーザが視認可能なように制御する表示制御部、として機能させるためのプログラムを記録した記録媒体。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017240512A JP6693495B2 (ja) | 2017-12-15 | 2017-12-15 | 情報処理装置、情報処理方法及び記録媒体 |
KR1020207015915A KR20200099523A (ko) | 2017-12-15 | 2018-10-05 | 정보 처리 장치, 정보 처리 방법 및 기록 매체 |
US16/770,681 US11221684B2 (en) | 2017-12-15 | 2018-10-05 | Information processing device, information processing method, and recording medium |
CN201880079302.9A CN111448541A (zh) | 2017-12-15 | 2018-10-05 | 信息处理装置、信息处理方法和记录介质 |
EP18887675.9A EP3726355A4 (en) | 2017-12-15 | 2018-10-05 | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND RECORDING MEDIA |
PCT/JP2018/037291 WO2019116692A1 (ja) | 2017-12-15 | 2018-10-05 | 情報処理装置、情報処理方法及び記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017240512A JP6693495B2 (ja) | 2017-12-15 | 2017-12-15 | 情報処理装置、情報処理方法及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019109578A JP2019109578A (ja) | 2019-07-04 |
JP6693495B2 true JP6693495B2 (ja) | 2020-05-13 |
Family
ID=66819117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017240512A Active JP6693495B2 (ja) | 2017-12-15 | 2017-12-15 | 情報処理装置、情報処理方法及び記録媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11221684B2 (ja) |
EP (1) | EP3726355A4 (ja) |
JP (1) | JP6693495B2 (ja) |
KR (1) | KR20200099523A (ja) |
CN (1) | CN111448541A (ja) |
WO (1) | WO2019116692A1 (ja) |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2421252A1 (en) * | 2010-08-17 | 2012-02-22 | LG Electronics | Display device and control method thereof |
JP5779641B2 (ja) * | 2011-02-28 | 2015-09-16 | 株式会社Pfu | 情報処理装置、方法およびプログラム |
US9723293B1 (en) * | 2011-06-21 | 2017-08-01 | Amazon Technologies, Inc. | Identifying projection surfaces in augmented reality environments |
KR101885295B1 (ko) * | 2011-12-26 | 2018-09-11 | 엘지전자 주식회사 | 전자기기 및 그 제어방법 |
JP2013205983A (ja) * | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
US9542544B2 (en) * | 2013-11-08 | 2017-01-10 | Microsoft Technology Licensing, Llc | Correlated display of biometric identity, feedback and user interaction state |
WO2015098189A1 (ja) * | 2013-12-27 | 2015-07-02 | ソニー株式会社 | 表示制御装置、表示制御方法及びプログラム |
KR102211123B1 (ko) * | 2014-07-23 | 2021-02-02 | 삼성전자주식회사 | 디스플레이 드라이버, 디스플레이 시스템 및 디스플레이 드라이버의 동작방법 |
JP2016099732A (ja) * | 2014-11-19 | 2016-05-30 | セイコーエプソン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
CN107408027B (zh) * | 2015-03-31 | 2020-07-28 | 索尼公司 | 信息处理设备、控制方法及程序 |
KR102594792B1 (ko) * | 2016-09-30 | 2023-10-30 | 엘지디스플레이 주식회사 | 유기발광표시장치 및 그 제어방법 |
-
2017
- 2017-12-15 JP JP2017240512A patent/JP6693495B2/ja active Active
-
2018
- 2018-10-05 WO PCT/JP2018/037291 patent/WO2019116692A1/ja unknown
- 2018-10-05 CN CN201880079302.9A patent/CN111448541A/zh not_active Withdrawn
- 2018-10-05 EP EP18887675.9A patent/EP3726355A4/en not_active Withdrawn
- 2018-10-05 KR KR1020207015915A patent/KR20200099523A/ko active IP Right Grant
- 2018-10-05 US US16/770,681 patent/US11221684B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN111448541A (zh) | 2020-07-24 |
US20210165503A1 (en) | 2021-06-03 |
EP3726355A4 (en) | 2021-02-17 |
JP2019109578A (ja) | 2019-07-04 |
WO2019116692A1 (ja) | 2019-06-20 |
EP3726355A1 (en) | 2020-10-21 |
KR20200099523A (ko) | 2020-08-24 |
US11221684B2 (en) | 2022-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10528154B2 (en) | System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith | |
US9880619B2 (en) | Virtual reality system with a finger-wearable control | |
US11373650B2 (en) | Information processing device and information processing method | |
JP6569726B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US10564712B2 (en) | Information processing device, information processing method, and program | |
WO2018163637A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
US20220057922A1 (en) | Systems and interfaces for location-based device control | |
JP7294350B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2015198729A1 (ja) | 表示制御装置、表示制御方法およびプログラム | |
JP6693495B2 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
WO2017033544A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6414079B2 (ja) | 情報処理システム、情報処理方法およびプログラム | |
WO2019123754A1 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
WO2019082520A1 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190212 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190521 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200330 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6693495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |