JP2015056687A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2015056687A
JP2015056687A JP2013187428A JP2013187428A JP2015056687A JP 2015056687 A JP2015056687 A JP 2015056687A JP 2013187428 A JP2013187428 A JP 2013187428A JP 2013187428 A JP2013187428 A JP 2013187428A JP 2015056687 A JP2015056687 A JP 2015056687A
Authority
JP
Japan
Prior art keywords
area
projector
information processing
image
projectable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013187428A
Other languages
English (en)
Inventor
厚 岡森
Atsushi Okamori
厚 岡森
裕士 瀧本
Yuji Takimoto
裕士 瀧本
山口 浩司
Koji Yamaguchi
浩司 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013187428A priority Critical patent/JP2015056687A/ja
Priority to US14/469,986 priority patent/US9591226B2/en
Priority to CN201410444651.XA priority patent/CN104427282B/zh
Publication of JP2015056687A publication Critical patent/JP2015056687A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】画像表示を多面的に利用してユーザビリティを向上させる。【解決手段】プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得する画像取得部と、上記撮像画像に基づいて上記投影面における投影可能領域を決定する投影可能領域決定部と、上記投影可能領域に画像を投影するように上記プロジェクタを制御するプロジェクタ制御部とを含む情報処理装置が提供される。【選択図】図24B

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、画像表示を、単なる情報の呈示に限らず多面的に利用するための様々な技術が提案されている。例えば、特許文献1には、固定プロジェクタから照射される認証用シグナルをモバイル装置のカメラで検出するとともに、モバイル装置の表示部に表示された認証用イメージを固定プロジェクタに併設されたカメラで検出することによって、固定用プロジェクタとモバイル装置とが相互に認証しあう技術が記載されている。また、特許文献1には、同様の認証を、プロジェクタを内蔵したモバイル装置同士の間で実行する技術も記載されている。
特開2012−65246号公報
本開示では、例えば上記のような技術をふまえ、画像表示を多面的に利用してユーザビリティを向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得する画像取得部と、上記撮像画像に基づいて上記投影面における投影可能領域を決定する投影可能領域決定部と、上記投影可能領域に画像を投影するように上記プロジェクタを制御するプロジェクタ制御部とを含む情報処理装置が提供される。
また、本開示によれば、情報処理装置に含まれるプロセッサが、プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得することと、上記撮像画像に基づいて上記投影面における投影可能領域を決定することと、上記投影可能領域に画像を投影するように上記プロジェクタを制御することとを含む情報処理方法が提供される。
また、本開示によれば、プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得する機能と、上記撮像画像に基づいて上記投影面における投影可能領域を決定する機能と、上記投影可能領域に画像を投影するように上記プロジェクタを制御する機能とをコンピュータに実現させるためのプログラムが提供される。
上記のような構成によって、画像表示を多面的に利用してユーザビリティを向上させることができる。
なお、ここに記載された効果は必ずしも限定的なものではない。上記の効果とともに、または上記の効果に代えて、本明細書に記載された効果、および/または本明細書の記載から当業者には明らかな他の効果が奏されてもよい。つまり、本明細書に記載された効果は、説明的または例示的なものにすぎず、限定的ではない。
本開示の第1の実施形態に係るシステムの概略的な装置構成を示すブロック図である。 本開示の第1の実施形態におけるカメラとプロジェクタとの関係について説明するための図である。 本開示の第1の実施形態における表示例を示す図である。 本開示の第1の実施形態に係るシステムの概略的な機能構成を示すブロック図である。 本開示の第1の実施形態における第1の変形例を示す図である。 本開示の第1の実施形態における第2の変形例を示す図である。 図6の例において、領域の重複が解消された後も重複領域が維持される例を示す図である。 本開示の第1の実施形態における第3の変形例を示す図である。 図8の例において、領域の重複が解消された後も重複領域が維持される例を示す図である。 図9の例において、重複領域がユーザ操作に応じて変化する例を示す図である。 図9の例において、重複領域がユーザ操作に応じて変化する例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第1の実施形態における第4の変形例を示す図である。 本開示の第2の実施形態に係るシステムの概略的な装置構成を示すブロック図である。 本開示の第2の実施形態における第1の表示例を示す図である。 本開示の第2の実施形態における第2の表示例を示す図である。 本開示の第2の実施形態に係るシステムの概略的な機能構成を示すブロック図である。 本開示の第2の実施形態における変形例を示す図である。 本開示の第3の実施形態に係るシステムの概略的な装置構成を示すブロック図である。 本開示の第3の実施形態に係るシステムの概略的な機能構成を示すブロック図である。 本開示の第3の実施形態における第1の表示例を示す図である。 本開示の第3の実施形態における第1の表示例を示す図である。 本開示の第3の実施形態における第2の表示例を示す図である。 本開示の第3の実施形態における第2の表示例を示す図である。 本開示の第3の実施形態における第2の表示例を示す図である。 本開示の第3の実施形態における第3の表示例を示す図である。 本開示の第3の実施形態における第3の表示例を示す図である。 本開示の第3の実施形態における第3の表示例を示す図である。 本開示の第3の実施形態における第4の表示例を示す図である。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1−1.装置構成
1−2.表示例
1−3.機能構成
1−4.変形例
2.第2の実施形態
2−1.装置構成
2−2.表示例
2−3.機能構成
2−4.変形例
3.第3の実施形態
3−1.装置構成
3−2.機能構成
3−2.表示例
4.ハードウェア構成
5.補足
(1.第1の実施形態)
本開示の第1の実施形態は、プロジェクタを利用して、コンテンツのメタデータを共有するための構成を含む。
(1−1.装置構成)
図1は、本開示の第1の実施形態に係るシステムの概略的な装置構成を示すブロック図である。図1を参照すると、システム10は、プロセッサ110と、メモリ120と、タッチパネル130と、通信モジュール140と、カメラモジュール150と、プロジェクタ160とを含みうる。システム10は、以下で説明するように、1または複数の情報処理装置を含んで実現されうる。なお、情報処理装置のより具体的なハードウェア構成例については後述する。
(システムの実装例)
例えば、システム10は、全体が単一の情報処理装置によって実装されてもよい。この場合、情報処理装置は、例えばカメラモジュール150およびプロジェクタ160を内蔵したスマートフォンまたはタブレット端末などでありうる。他にも、情報処理装置は、各種のPC(Personal Computer)、ゲーム機、メディアプレーヤ、またはヘッドマウント型の端末装置などであってもよい。あるいは、情報処理装置は、カメラモジュール150および/またはプロジェクタ160を内蔵していなくてもよい。この場合、内蔵されないカメラモジュール150および/またはプロジェクタ160は、情報処理装置の接続ポートに外部接続されうる。
また、例えば、システム10は、サーバの情報処理装置と、カメラモジュール150およびプロジェクタ160がそれぞれ内蔵または外部接続されるクライアントの情報処理装置とを含むシステムとして実装されてもよい。この場合、サーバおよびクライアントの情報処理装置はいずれもプロセッサを有し、有線また無線の各種通信手段によって互いに通信する。後述するプロセッサ110の機能は、いずれかの装置のプロセッサによって集中的に実現されてもよいし、両方の装置のプロセッサに分散して実現されてもよい。
このように、システム10は、1または複数の情報処理装置の自由な組み合わせによって実装することが可能であり、その実装例は上記の例には限られない。
(各要素の機能)
プロセッサ110は、例えばCPU、DSP、またはASICなどによって実現され、メモリ120に格納されたプログラムに従って動作することによって各種の機能を実現する。プロセッサ110は、システム10の各部を直接的または間接的に制御することによって各種の入力を取得し、また各種の出力を提供する。なお、プロセッサ110によって実現される機能の詳細については後述する。
メモリ120は、例えば、RAMまたはROMとして用いられる半導体メモリ、HDDなどの磁気ディスク、光ディスク、もしくは光磁気ディスクなどを利用した記憶装置、フラッシュメモリ、またはリムーバブルメディアなどを適宜組み合わせることによって実現される。メモリ120には、プロセッサ110が動作するためのプログラムが格納される。プログラムは、例えばメモリ120に持続的に格納されていてもよく、また通信モジュール140を介してネットワーク上のサーバからダウンロードされて一時的にメモリ120に格納されてもよい。また、メモリ120には、プロセッサ110によって実現される機能によって生成されたデータが格納されてもよい。
タッチパネル130は、ディスプレイ132と、タッチセンサ134とを含む。ディスプレイ132は、例えばLCDまたは有機ELディスプレイなどによって実現され、プロセッサ110の制御に従って画像を表示する。タッチセンサ134は、ディスプレイ132の表面に配設される静電容量方式などのセンサによって実現され、ディスプレイ132の表面へのユーザの接触を検出する。なお、システム10は、タッチパネル130とともに、またはこれに代えて、マウス、キーボード、タッチパッド、またはボタンなど他の入力手段および/またはスピーカまたはバイブレータなどの他の出力手段を有してもよい。
通信モジュール140は、プロセッサ110の制御に従って有線または無線のネットワーク通信を実行する各種の通信回路によって実現される。無線通信を実行する場合、通信モジュール140はアンテナを含んでもよい。通信モジュール140は、例えばインターネットやLAN、またはBluetooth(登録商標)などの通信規格に従ってネットワーク通信を実行する。
カメラモジュール150は、例えばCCDまたはCMOSなどの撮像素子と、撮像素子への被写体像の結像を制御するためのレンズなどの光学系と、撮像素子および光学系を駆動させる駆動回路とによって実現される。カメラモジュール150は、撮像素子が被写体像を撮像することによって生成された静止画または動画を、画像データとしてプロセッサ110に提供する。なお、後述するように、カメラモジュール150は、プロジェクタ160の射影の少なくとも一部を含む撮像画像を取得するように配置される。
プロジェクタ160は、例えばランプやLEDなどの光源と、液晶表示素子と、光源から液晶表示素子を通過した光によって投影面に画像が投影されるように制御するレンズなどの光学系と、光源、液晶表示素子および光学系を駆動させる駆動回路とによって実現される。プロジェクタ160は、プロセッサ110から画像データとして提供された静止画または動画を、専用のスクリーン、または机上面もしくは壁面などに投影する。
(カメラとプロジェクタとの関係)
図2は、本開示の第1の実施形態におけるカメラとプロジェクタとの関係について説明するための図である。図2を参照すると、本実施形態では、プロジェクタ160が投影面1601に画像を投射することによって表示される射影1603の少なくとも一部がカメラモジュール150の画角1501に含まれるように、カメラモジュール150およびプロジェクタ160が配置される。つまり、カメラモジュール150は、プロジェクタ160の射影1603の少なくとも一部を含む撮像画像を取得するように構成される。
なお、上記の通り、投影面1601は、例えば専用のスクリーンであってもよいし、机上面または壁面などであってもよい。プロジェクタ160に対する投影面1601の位置関係は、場合によって変化する。従って、カメラモジュール150は、常に射影1603を含む撮像画像を取得可能であるとは限らない。例えば、カメラモジュール150は、少なくとも射影1603がユーザに視認可能である場合には、射影1603を含む撮像画像を取得可能であるように配置されていてもよい。また、カメラモジュール150が、プロジェクタ160とは独立してユーザによって移動させられる場合には、射影1603を含む撮像画像を取得可能な位置にカメラモジュール150を配置するように、システム10が画像や音声などを利用してユーザを誘導してもよい。
本開示の第1の実施形態では、上述したような装置構成によって、ユーザ間でコンテンツのメタデータが共有される。なお、説明では単一のシステム10が示されているが、メタデータの共有にあたっては、複数のユーザがそれぞれ異なるシステム10を使用する。以下の説明(他の実施形態の説明を含む)では、そのような複数のシステム10を、システム10A,10B,10C,…として参照する場合がある(図面には必ずしも示されない)。
(1−2.表示例)
図3は、本開示の第1の実施形態における表示例を示す図である。図3を参照すると、本実施形態では、2人のユーザ(ユーザA,B)によってそれぞれ利用されるシステム10A,10Bによって、共通の投影面1601に、2つの射影1603a,1603bが表示される。射影1603a,1603bには、それぞれアイコン1605a,1605bが表示されている。アイコン1605は、システム10A,10Bにおいてそれぞれメモリ120に格納されているコンテンツに対応する。また、射影1603には、それぞれ、アイコン1605が配置される領域1607a,1607bが含まれる。図示された例では、領域1607が射影1603のほぼ全体に対応するため、領域1607は射影1603において可視的に表示されていない。他の例では、領域1607が射影1603の一部だけに対応していてもよい。そのような場合には、領域1607は射影1603において可視的に表示されてもよい。
ユーザA,Bがそれぞれシステム10A,10Bのプロジェクタ160の位置や角度を変更することによって、投影面1601上で射影1603を移動させることができる。図示された例では、このような移動によって、領域1607a,1607bが、重複領域1609において互いに重複している。ここで、重複領域1609は、図示された例のように、双方の射影1603において可視的に表示されてもよい。また、ユーザA,Bは、システム10A,10Bのそれぞれのタッチパネル130を介した操作によって、領域1607に表示されたアイコン1605を移動させることが可能である。タッチパネル130に含まれるディスプレイ132には、カメラモジュール150によって撮像された射影1603を含む画像が表示されており、ユーザは表示されたアイコン1605に対してタッチセンサ134を介したタッチ操作を加える。プロセッサ110は、プロジェクタ160によって投影されている画像と、カメラモジュール150による撮像画像に含まれる射影1603とを関連付けて認識しているため、撮像画像へのタッチ操作によってアイコン1605を移動させることが可能である。
なお、プロセッサ110はプロジェクタ160に提供される元の画像データを保持しているため、例えば撮像画像に含まれる射影1603のサイズや変形などに応じて上記の画像データを再描画された画像が、ディスプレイ132に表示されてもよい。あるいは、カメラモジュール150または別途設けられるセンサによって投影面1601上でのユーザの手などの動きを検出し、ユーザが射影1603内のアイコン1605に直接タッチ操作を加えることによってアイコン1605を移動可能であってもよい。この場合、ディスプレイ132には必ずしも画像が表示されなくてもよい。
上記のようにしてユーザA,Bがアイコン1605を移動させた結果、図示された例のように、アイコン1605aが領域1607aから重複領域1609に移動され、アイコン1605bが領域1607bから重複領域1609に移動された場合、システム10のプロセッサ110によって、アイコン1605a,1605bの間で、各アイコンに対応するコンテンツに付随するメタデータを共有する処理が実行される。以下、このような機能を実現するための、システム10の機能構成について、さらに説明する。なお、以下の説明では、システム10Aの場合を例として説明するが、システム10Bにおける機能構成も同様である。
(1−3.機能構成)
図4は、本開示の第1の実施形態に係るシステムの概略的な機能構成を示すブロック図である。図4を参照すると、本実施形態では、システム10Aに含まれるプロセッサ110によって、表示制御部111、操作取得部112、領域検出部113、メタデータ共有処理部114のそれぞれの機能が実現される。また、本実施形態では、システム10Aに含まれるメモリ120に、コンテンツデータ121およびメタデータ122が格納される。
表示制御部111は、プロジェクタ160を制御して、アイコン1605a(第1のアイコン)を投影面1601(表示面)に投影させる。アイコン1605aは、コンテンツデータ121としてメモリ120に格納されているコンテンツに対応している。コンテンツは、例えば静止画、動画、音声、または文書など、あらゆる種類でありうる。アイコン1605aは、こうしたコンテンツの種類や、お気に入りであるか否かなどに応じて、様々な形で表示されてもよい(図3の例では、お気に入りのコンテンツを示す星形のアイコンと、それ以外のコンテンツを示すアイコンとが示されている)。さらに、表示制御部111は、ディスプレイ132を制御して、アイコン1605aを画面に表示させてもよい。上述のように、ディスプレイ132の画面に表示されるアイコン1605aは、タッチセンサ134を介したユーザのタッチ操作によってアイコン1605aを移動させるために表示されうる。
また、表示制御部111は、アイコン1605aが配置される領域1607(第1の領域)を、例えば領域1607aが射影1603の一部だけに対応するような場合には可視的に投影面1601に投影させてもよい。また、表示制御部111は、重複領域1609を、可視的に投影面1601に投影させてもよい。
操作取得部112は、アイコン1605a(第1のアイコン)を投影面1601(表示面)内の領域1607a(第1の領域)で移動させるためのユーザ操作を取得する。例えば、操作取得部112は、タッチパネル130に含まれるタッチセンサ134を介したユーザ操作を取得する。より具体的には、操作取得部112は、ディスプレイ132の画面に表示されたアイコン1605aに対するユーザのタッチ操作をタッチセンサ134を介して取得する。あるいは、操作取得部112は、ユーザが射影1603a内のアイコン1605aに直接加えたタッチ操作を、カメラモジュール150または別途設けられるセンサを介して取得してもよい。
領域検出部113は、領域1607a(第1の領域)が、それとは異なる投影面1601(表示面)内の領域1607b(第2の領域)に重複する重複領域1609を検出する。領域検出部113は、例えばカメラモジュール150の撮像画像に基づいて、重複領域1609を検出する。より具体的には、例えば、領域検出部113は、プロジェクタ160に提供される元の画像データと、カメラモジュール150の撮像画像に含まれる射影1603aとを比較して、射影1603aに含まれる領域1607aの中で、別の射影が重複していると推定される領域を、重複領域1609として検出する。あるいは、領域検出部113は、システム10Bによる射影1603bの元の画像データおよび/またはシステム10B側のカメラモジュール150による撮像画像のデータを通信モジュール140を介して受信し、これらをカメラモジュール150の撮像画像に含まれる射影1603aと比較することによって重複領域1609を検出してもよい。
メタデータ共有処理部114は、領域1607a(第1の領域)から重複領域1609に移動されたアイコン1605a(第1のアイコン)と、領域1607b(第2の領域)から重複領域1609に移動されたアイコン1605b(第2のアイコン)との間で、各アイコンに対応するコンテンツに付随するメタデータを共有する。上記の通り、アイコン1605aは、システム10Aでコンテンツデータ121としてメモリ120に格納されているコンテンツに対応している。同様に、アイコン1605bは、システム10Bで同様にメモリ120に格納されているコンテンツに対応している。メタデータ共有処理部114は、アイコン1605aとアイコン1605bとがいずれも重複領域1609に移動された場合に、これらのアイコンにそれぞれ対応するコンテンツの間で、メタデータの共有処理を実行する。
より具体的には、例えば、システム10Aのメタデータ共有処理部114は、アイコン1605aとアイコン1605bとが重複領域1609に移動された場合に、通信モジュール140を介してシステム10Bからアイコン1605bのコンテンツデータおよび/またはコンテンツに付随するメタデータを受信する。例えば、メタデータ共有処理部114は、アイコン1605aとアイコン1605bとにそれぞれ対応するコンテンツについて、コンテンツに含まれる画像の解析を実行し、それぞれの画像が互いに類似する場合に、コンテンツ間でメタデータを共有してもよい。この場合、システム10Aのメタデータ共有処理部114は、最初はシステム10Bからコンテンツデータだけを受信し、コンテンツデータに基づいてメタデータの共有処理を実行することが決定した場合に、追加でシステム10Bからメタデータを受信してもよい。
あるいは、メタデータ共有処理部114は、アイコン1605aとアイコン1605bとにそれぞれ対応するコンテンツに付随するメタデータについて、メタデータに含まれる項目の一部が互いに共通する場合に、コンテンツ間でメタデータを共有してもよい。これは、例えば、アイコン1605aとアイコン1605bとにそれぞれ対応する画像コンテンツ(写真)のメタデータの間で、撮影日時および撮影場所の項目は共通しているものの、一緒にいた人物などを示すタグ情報が共通していないような場合である。このような場合、メタデータ共有処理部114は、それぞれのメタデータの間でタグ情報を共有する処理を実行する。
ここで、メタデータ共有処理部114によって実行されるメタデータの共有処理は、例えば、それぞれのメタデータにおいて未設定の項目を補完し合う処理であってもよい。例えば、画像コンテンツ(写真)のメタデータにおいて、それぞれの画像が互いに類似しており、かつメタデータにおける撮影日時の項目が共通しているような場合、メタデータ共有処理部114は、アイコン1605bに対応するコンテンツ(コンテンツBとする)のメタデータで設定されている撮影場所の情報を、アイコン1605aに対応するコンテンツ(コンテンツAとする)のメタデータにおいて未設定の当該項目にコピーする。また、この例において、一緒にいた人物などを示すタグ情報が、コンテンツAでは設定されていて、コンテンツBでは未設定であれば、メタデータ共有処理部114は当該項目をコンテンツAのメタデータからコンテンツBのメタデータにコピーする。システム10Aのメタデータ共有処理部114によって、システム10Bから受信したコンテンツBのメタデータに変更が加えられた場合、メタデータ共有処理部114は、変更後のメタデータを通信モジュール140を介してシステム10Bに送信する。
また、例えば、メタデータ共有処理部114によって実行されるメタデータの共有処理は、例えば、一方のメタデータによって他方のメタデータを上書きする処理であってもよい。例えば、画像コンテンツ(写真)のメタデータにおいて、それぞれの画像が互いに類似しており、かつメタデータにおける撮影日時の項目が共通(必ずしも同一ではない)しているような場合、システム10Aのメタデータ共有処理部114は、コンテンツBのメタデータによって、コンテンツAのメタデータを上書きしてもよい。このような処理によって、例えば、少しずつ時計がずれている複数の装置によって撮像された同じ被写体の画像のタイムスタンプを統一し、画像を共通の時系列で配列することが可能になる。
以上、本開示の第1の実施形態の基本的な例について説明した。以下では、本実施形態において採用可能な様々な変形例について説明する。
(1−4.変形例)
(第1の変形例)
図5は、本開示の第1の実施形態における第1の変形例を示す図である。図5を参照すると、射影1603において、重複領域1609に時間軸1611が表示され、領域1607a,1607bにそれぞれ表示されるアイコン1605a,1605bが、共通の時間軸1611に従って配列されている。この例において、システム10A,10Bのそれぞれの表示制御部111は、アイコン1605に対応するコンテンツ(画像)に付随するメタデータとして記録された撮影日時を参照して、射影1603a,1603bにおいてアイコン1605を撮影日時と時間軸1611とが対応するように配列する。なお、ここで、時間軸は、メタデータに含まれる項目に対応した分類軸の例である。他にも、位置情報やタグ情報など、必ずしも数値化されない項目に基づいて分類軸が表示されてもよい。
ここで、時間軸1611は、必ずしもすべてのコンテンツの撮影日時に対応していなくてもよい。つまり、時間軸1611は、一部のコンテンツの撮影日時に対応する期間について表示され、アイコン1605として表示されるコンテンツは、当該期間に撮影日時を有するものに限定されてもよい。この場合、システム10A,10bのいずれかのユーザの操作によって時間軸1611がスクロールされれば、時間軸1611が表示する期間が変更されるとともに、領域1607a,1607bに配列されるアイコン1605が連動して更新されうる。
また、図示された例において、重複領域1609に配置されたアイコン1605は、互いに相手の領域の方を向いて表示される。つまり、重複領域1609に配置されたアイコン1605のうち、領域1607aから重複領域1609に移動されたアイコン1605aは領域1607bの方を向いて表示され、領域1607bから重複領域1609に移動されたアイコン1605bは領域1607aの方を向いて表示される。なお、それぞれのアイコン1605の向きは、例えば図示された星形のアイコンの向きを参照すると理解しやすい。この処理は、システム10Aのユーザ(ユーザA)は領域1607a側から射影1603を観察しており、システム10Bのユーザ(ユーザB)は領域1607b側から射影1603を観察しているという仮定に基づき、それぞれのユーザがメタデータ共有の対象になる相手側のコンテンツを視認しやすくすることを目的とする。
上記のアイコン1605の向きに関する処理は、時間軸1611を表示する処理とは直接的な関係がないため、これらの例は互いに独立していてもよい。つまり、時間軸1611が表示されない場合でも、アイコン1605が互いに相手の領域の方を向いて表示されてもよい。
なお、図5を参照して説明した2つの例は、重複領域1609に配置されたアイコン1605に対応するコンテンツ自体をユーザ間で共有するような場合にも有用でありうる。つまり、本開示の他の実施形態では、上記の例が、コンテンツのメタデータ共有だけではなく、コンテンツ共有についても適用される。
(第2の変形例)
図6は、本開示の第1の実施形態における第2の変形例を示す図である。図6を参照すると、3人のユーザ(ユーザA〜C)によってそれぞれ利用されるシステム10A〜10Cによって、共通の投影面1601に、3つの射影1603a〜1603cが表示される。射影1603a〜1603cには、それぞれアイコン1605a〜1605cが表示されている。アイコン1605は、システム10A〜10Cにおいてそれぞれメモリ120に格納されているコンテンツに対応する。また、射影1603には、それぞれ、アイコン1605が配置される領域1607a〜1607cが含まれる。領域1607は、図示された例のように射影1603の全体に対応していてもよいし、その一部に対応していてもよい。
ユーザA〜Cがそれぞれシステム10A〜10Cのプロジェクタ160の位置や角度を変更することによって、投影面1601上で射影1603を移動させることができる。図示された例では、これによって、領域1607a〜1607cが、重複領域1609において互いに重複している。重複領域1609は、領域1607a,1607bの間の重複領域1609aと、領域1607b,1607cの間の重複領域1609bと、領域1607c,1607aの間の重複領域1609cと、領域1607a〜1607cがすべて重複した重複領域1609dとを含む。これらの重複領域1609は、互いに識別可能な態様(例えば互いに異なる色)で、それぞれの射影1603において可視的に表示されてもよい。あるいは、領域1607a〜1607cの色が、重複領域1609がそれらの混色によって自然に識別可能になるように設定されていてもよい。また、ユーザA〜Cは、システム10A〜10Cのそれぞれのタッチパネル130を介した操作によって、領域1607に表示されたアイコン1605を移動させ、重複領域1609にアイコン1605を配置することが可能である。
本変形例において、重複領域1609に配置されたアイコン1605の間でのメタデータの共有処理は、当該重複領域1609においてどの領域1607が重複しているかによって異なる。例えば、重複領域1609a(領域1607a,1607bが重複)には、アイコン1605aおよびアイコン1605bを移動させることが可能である。従って、重複領域1609aは、システム10A,10Bの間でのコンテンツのメタデータ共有に利用される。なお、アイコン1605cは、重複領域1609aまで移動させられないため(重複領域1609aは、領域1607cに含まれない)、重複領域1609aを利用する場合、システム10Cはメタデータ共有の対象から除外される。
一方、重複領域1609d(領域1607a〜1607cのすべてが重複)には、アイコン1605a〜1605cのいずれも移動させることが可能である。従って、重複領域1609dは、システム10A〜10Cのうちの任意のシステムの間でのコンテンツのメタデータ共有に利用される。つまり、重複領域1609dにアイコン1605a,1605bだけを移動させて、システム10A,10Bの間でメタデータ共有を実行してもよいし、重複領域1609dにアイコン1605a〜1605cを移動させて、システム10A〜10Cの間でメタデータ共有を実行してもよい。
このように、重複領域1609において重複している領域1607に応じてメタデータ共有の対象を設定することによって、例えば、メタデータが共有される範囲を視覚的に把握することができ、ユーザが安心してメタデータ共有を実行することが可能になる。
なお、3つ以上のシステム10の間でのメタデータ共有は、例えば、システムの間で優先順位を設定して実行されてもよい。この場合、メタデータの項目が競合すると、順位が高いシステムのメタデータの項目が優先的に採用される。
図7は、図6の例において、領域の重複が解消された後も重複領域が維持される例を示す図である。図7を参照すると、図6に示した射影1603a〜1603cの位置関係が、例えばユーザA〜Cがそれぞれプロジェクタ160の位置や角度をさらに変更したことによって変化し、領域1607a〜1607cの重複が解消されている。しかし、図示された例では、システム10A〜10Cにおいて、コンテンツのメタデータを共有するためのアプリケーションが引き続き起動されているために、各システム10の表示制御部111が、仮想的な重複領域1609の表示を継続している。なお、簡単のため、図7では領域1607cの図示を省略しているが、領域1607cでも同様の表示が実行されうる。
例えば、領域1607が実際に重複している間は混色によって自然に重複領域1609を識別可能にしていた場合、表示制御部111は、領域1607の重複が解消されると、重複領域1609に領域1607とは異なる色をつけるように表示を変更する。あるいは、領域1607が実際に重複している間も重複領域1609に領域1607とは異なる色をつけて表示していた場合、表示制御部111は、領域1607の重複が解消した後にも同様の表示を維持する。重複領域1609の仮想的な表示を終了させる場合には、例えば重複領域1609を長押しするなどしてメニューを呼び出し、表示を終了させてもよい。あるいは、重複領域1609を射影1603の外に向けてドラッグすることで、重複領域1609の仮想的な表示が終了してもよい。
この場合、それぞれの射影1603において仮想的に表示されている重複領域1609は、領域1607が実際に重複している場合と同様に機能する。つまり、図示された例のように、射影1603aでアイコン1605aが重複領域1609aに移動され、射影1603bでもアイコン1605bが重複領域1609aに移動された場合、システム10A,10Bの間で、アイコン1605a,1605bにそれぞれ対応するコンテンツのメタデータ共有処理が実行される。このとき、重複領域1609には、表示制御部111が通信モジュール140を介して受信した情報に基づいて、共有相手のアイコン1605が表示されてもよい。図示された例では、システム10A,10Bの間でアイコン1605に関する情報がやりとりされ、射影1603aにおいて表示される重複領域1609aにはアイコン1605bが、射影1603bにおいて表示される重複領域1609aにはアイコン1605aが、それぞれ仮想的に表示されている。このようなアイコン1605の仮想的な表示は、システム10A,10Bがネットワークを介して互いに通信可能である場合に可能である。システム10A,10B間の通信が切断されると、仮想的に表示されていたアイコン1605は見えなくなる。この場合、重複領域1609は、色が薄くなるなどして、通信が切断されていることを表現しつつ、引き続き表示されてもよい。
なお、図7に示した例は、3つのシステム10の間でメタデータを共有する場合に限らず、図3または図5に示した例のように、2つのシステム10の間でメタデータを共有する場合や、4つ以上のシステム10の間でメタデータを共有する場合にも適用可能である。また、図6および図7に示した例は、重複領域1609に配置されたアイコン1605に対応するコンテンツ自体をユーザ間で共有するような場合にも有用でありうる。つまり、本開示の他の実施形態では、上記の例が、コンテンツのメタデータ共有だけではなく、コンテンツ共有についても適用される。
(第3の変形例)
図8は、本開示の第1の実施形態における第3の変形例を示す図である。図8を参照すると、4人のユーザ(ユーザA〜D)によってそれぞれ利用されるシステム10A〜10Dによって、共通の投影面1601に、4つの射影1603a〜1603dが表示される。射影1603a〜1603dには、それぞれアイコン1605a〜1605dが表示されている。アイコン1605は、システム10A〜10Dにおいてそれぞれメモリ120に格納されているコンテンツに対応する。射影1603には、それぞれ、アイコン1605が配置される領域1607a〜1607dが含まれる。領域1607は、図示された例のように射影1603の全体に対応していてもよいし、その一部に対応していてもよい。
ユーザA〜Dがそれぞれシステム10A〜10Dのプロジェクタ160の位置や角度を変更することによって、投影面1601上で射影1603を移動させることができる。図示された例では、これによって、領域1607a〜1607dが、重複領域1609において互いに重複している。重複領域1609は、領域1607a,1607bの間の重複領域1609aと、領域1607b,1607cの間の重複領域1609bと、領域1607c,1607dの間の重複領域1609cと、領域1607d,1607aの間の重複領域1609dと、領域1607a〜1607dがすべて重複した重複領域1609eとを含む。これらの重複領域1609は、互いに識別可能な態様(例えば互いに異なる色)で、それぞれの射影1603において可視的に表示されてもよい。あるいは、領域1607a〜1607dの色が、重複領域1609がそれらの混色によって自然に識別可能になるように設定されていてもよい。また、ユーザA〜Dは、システム10A〜10Dのそれぞれのタッチパネル130を介した操作によって、領域1607に表示されたアイコン1605を移動させ、重複領域1609にアイコン1605を配置することが可能である。
図9は、図8の例において、領域の重複が解消された後も重複領域が維持される例を示す図である。図9に示す例では、上記で図7を参照して説明した例と同様に、射影1603a〜1603dの位置関係が変化したことによって領域1607a〜1607cの重複が解消された後も、各システム10の表示制御部111が仮想的な重複領域1609の表示を継続する。なお、簡単のため、図9では領域1607aを代表として図示しているが、他の領域1607においても同様の表示が実行されうる。
ここで、図9に示された射影1603aでは、重複領域1609a(領域1607a,1607bが重複していた領域に対応する)重複領域1609d(領域1607d,1607aが重複していた領域に対応する)、および重複領域1609e(領域1607a〜1607dのすべてが重複していた領域に対応する)が仮想的に表示されるとともに、重複領域1609e(領域1607aが、複数の領域1607b〜1607dと重複する重複領域)から、仮想的な重複領域1609fを分離して表示させる。重複領域1609fは、領域1607aが、領域1607c(重複領域1609eにおいて領域1607aと重複していた領域1607b〜1607dのうちの一部)と重複する領域として扱われる。
図示された例では、重複領域1609fが表示されることによって、射影1603a内に、領域1607b,1607c,1607dのそれぞれと個別に重複する領域(重複領域1609a,1609d,1609f)と、領域1607b〜1607dのすべてと重複する領域(重複領域1609e)とが表示されることになる。従って、ユーザAは、ユーザB、ユーザC、またはユーザDのそれぞれと個別にメタデータを共有したい場合と、ユーザB〜Dのすべてとメタデータを共有したい場合とで、アイコン1605を配置する重複領域1609を使い分けることができる。
図10は、図9の例において、重複領域がユーザ操作に応じて変化する例を示す図である。図9に示した例では、重複領域1609fが、重複領域1609eに割り込んで表示される。従って、重複領域1609eおよび重複領域1609fのサイズは、アイコン1605を配置するためには十分ではない可能性がある。そこで、図10Aに示す例では、重複領域1609fが、最小化された状態で初期表示される。この状態では、重複領域1609eにアイコン1605を配置することが容易であるが、重複領域1609fにアイコン1605を配置することは容易ではない。
そこで、ユーザは、重複領域1609fにアイコン1605を配置したい場合、図10Aに示す状態から、例えば重複領域1609fを矢印の向きにドラッグしたり、重複領域1609fをタップしたりすることによって、図10Bに示す例のように重複領域1609fを拡大することができる。この状態では、重複領域1609fにアイコン1605を配置することが容易になる。一方、上記の操作によって最小化された重複領域1609eは、重複領域1609fと同様に、ドラッグやタップの操作によって、再び図10Aに示す状態のように拡大することができる。
なお、図8〜図10に示した例は、4つの射影1603が表示される場合に限らず、例えば5つ以上の射影1603が表示される場合にも適用可能である。また、図8〜図10に示した例は、重複領域1609に配置されたアイコン1605に対応するコンテンツ自体をユーザ間で共有するような場合にも有用でありうる。
(第4の変形例)
図11〜図15は、本開示の第1の実施形態における第4の変形例を示す図である。図11〜図15を参照すると、4人のユーザ(ユーザA〜D)によってそれぞれ利用されるシステム10A〜10Dによって共通の投影面1601に表示される4つの射影1603a〜1603dに含まれる領域1607a〜1607dが、領域1607aを中心にして順次重複し、これによって射影1603に、それぞれの領域に対応する重複領域1609が順次形成される。
図11Aに示す例では、領域1607aの右端部分が領域1607bと重複したことによって、重複領域1609bが形成されている。図11Bに示されるように、重複領域1609aは、領域1607aと領域1607bとの重複が解消された後も引き続き表示される。ただし、重複領域1609bは重複の解消後に縮小され、領域1607aの右端部分に沿った所定の幅の領域になる。
さらに、図12Aに示す例では、領域1607aの上端部分が領域1607cと重複したことによって、重複領域1609cが形成されている。図12Bに示されるように、重複領域1609cは、領域1607aと領域1607cとの重複が解消された後も引き続き表示される。ただし、重複領域1609cも重複の解消後に縮小され、領域1607aの右上で重複領域1609bに続いて配置される所定の幅の領域になる。
さらに、図13Aに示す例では、領域1607aの上端部分が今度は領域1607dと重複したことによって、重複領域1609dが形成されている。図13Bに示されるように、重複領域1609dは、領域1607aと領域1607dとの重複が解消された後も引き続き表示される。ただし、重複領域1609dも重複の解消後に縮小され、領域1607aの右上で重複領域1609bに続いて配置される所定の幅の領域になる。図示されているように、重複領域1609dは、既に領域1607aの右上に配置されている重複領域1609cと並列して配置される。
図13Bに示した状態、つまり、領域1607aが領域1607b〜1607dと順次重複した後、すべての重複が解消された状態において、領域1607aには、重複領域1609b〜1609dが、それぞれ最小化された状態で表示されている。この状態では、それぞれの重複領域1609にアイコン1605を配置することは容易ではない。そこで、ユーザは、重複領域1609にアイコン1605を配置する場合には、対象の重複領域1609を拡大する。
より具体的には、図14Aに示した例では、ユーザが重複領域1609bにアイコン1605を配置することを意図して、重複領域1609bを拡大している。重複領域1609の拡大は、例えば図10に示した例と同様に、重複領域1609のドラッグやタップの操作によって実行されうる。図14Aの例と同様にして、図14Bに示した例では、重複領域1609cが拡大されている。図14Cに示した例では、重複領域1609dが拡大されている。
本変形例では、上記のように最小化された重複領域1609を拡大するのに加えて、最小化された複数の重複領域1609を選択することによって、それらの重複領域1609をさらに重複させて新たな重複領域1609を生成するためのユーザ操作が操作取得部112によって取得されてもよい。例えば、図15Aに示した例では、タッチパネル130を介した操作によって重複領域1609bと重複領域1609cとが同時に、または順次選択され、表示制御部111がこれらの領域を重複させた新たな重複領域1609eを表示させている。また、図15Bに示した例では、タッチパネル130を介した操作によって重複領域1609cと重複領域1609dとが同時に、または順次選択され、表示制御部111がこれらの領域を重複させた新たな重複領域1609fを表示させている。
なお、図11〜図15に示した例は、4つの射影1603が表示される場合に限らず、例えば3つ、または5つ以上の射影1603が表示される場合にも適用可能である。また、図11〜図15に示した例は、重複領域1609に配置されたアイコン1605に対応するコンテンツ自体をユーザ間で共有するような場合にも有用でありうる。
以上で説明した本開示の第1の実施形態では、プロジェクタ160によって投影された領域1607を重複させることによって重複領域1609が形成される。領域1607に配置されるアイコン1605を重複領域1609に移動させることによって、アイコン1605に対応するコンテンツ間でのメタデータの共有が可能である。アイコン1605、領域1607、および重複領域1609は、メタデータを共有しようとしているユーザが共通して視認可能な投影面1601に表示されるため、あたかもテーブルの上にコンテンツ(例えば写真など)を並べてやりとりするような直感的な操作によって、コンテンツのメタデータ共有を実現することができる。
(2.第2の実施形態)
本開示の第2の実施形態は、上記の第1の実施形態と同様のコンテンツのメタデータ共有を、プロジェクタに代えてディスプレイを利用して実現するための構成を含む。
(2−1.装置構成)
図16は、本開示の第2の実施形態に係るシステムの概略的な装置構成を示すブロック図である。図16を参照すると、システム20は、プロセッサ110と、メモリ120と、タッチパネル130と、通信モジュール140と、カメラモジュール150とを有する。システム20は、上述した第1の実施形態におけるシステム10と同様に、1または複数の情報処理装置を含んで実現されうる。
なお、本実施形態に係るシステム20は、必ずしもプロジェクタを含まないという点で第1の実施形態に係るシステム10とは相違するが、それ以外の点、例えばシステムの実装例や、各要素の機能などについてはシステム10と同様である。それゆえ、ここでは、それらについての詳細な説明は省略する。
(2−2.表示例)
図17は、本開示の第2の実施形態における第1の表示例を示す図である。図17を参照すると、本実施形態では、システム20のタッチパネル130に含まれるディスプレイ132に、画面2603が表示される。画面2603には領域2607が含まれ、領域2607内にアイコン2605が配置されている。
ここで、例えば、画面2603は、カメラモジュール150によって提供される実空間の撮像画像に仮想的な画像を重畳した、いわゆるAR(Augmented Reality)を表現した画面であってもよい。この場合、上記の第1の実施形態における射影1603が、ディスプレイ132において仮想的に表現されているともいえる。例えば、ユーザは、カメラモジュール150の位置や角度を変更することによって、領域2607を画面2603内で実空間に対して移動させることができる。また、ユーザは、タッチパネル130を介して領域2607に対してドラッグなどの操作を加えることによって、画面2603内で領域2607を移動または変形させることが可能であってもよい。
あるいは、画面2603は、仮想的な空間を表現した画面であってもよい。この場合、領域2607は、ユーザの周りの実空間とは無関係に表示されうる。従って、図17に示された例のように、ユーザに正対した平面的な領域2607が表示されてもよい。この場合、ユーザは、タッチパネル130を介して領域2607に対してドラッグなどの操作を加えることによって、画面2603内で領域2607を移動または変形させることが可能である。
図18は、本開示の第2の実施形態における第2の表示例を示す図である。図18に表示された例では、画面2603において、2つの領域2607a,2607bと、それぞれの領域に配置されるアイコン2605a,2605bとが表示されている。ここで、アイコン2605aは、画面2603が表示されているディスプレイ132を含むシステム20Aにおいて保有されているコンテンツに対応する。一方、アイコン2605bは、別のシステム20Bにおいて保有されているコンテンツに対応する。
システム20A,20Bのそれぞれのユーザ(ユーザA,B)は、上述のように、カメラモジュール150の位置や角度を変更したり、タッチパネル130を介して領域2607に対してドラッグなどの操作を加えることによって、システム20A,20Bのそれぞれで表示される画面2603内で領域2607を移動または変形させることが可能である。これによって、領域2607a,2607bが重複した場合、図18に示された例のように重複領域2609が生成される。ユーザA,Bのそれぞれが、タッチパネル130を介した操作によって、領域2607a,2607bに表示されたアイコン2605a,2605bを重複領域2609まで移動させると、アイコン2605a,2605bのそれぞれに対応するコンテンツの間でのメタデータの共有処理が実行される。
(2−3.機能構成)
図19は、本開示の第2の実施形態に係るシステムの概略的な機能構成を示すブロック図である。図19を参照すると、本実施形態では、システム20に含まれるプロセッサ110によって、表示制御部211、操作取得部112、領域検出部213、およびメタデータ共有処理部114のそれぞれの機能が実現される。また、本実施形態では、システム20に含まれるメモリ120に、コンテンツデータ121およびメタデータ122が格納される。
なお、上記の機能構成のうち、表示制御部211および領域検出部213以外については、上記の第1の実施形態と同様であるため、詳細な説明は省略する。なお、以下の説明では、上記の表示例におけるシステム20Aの場合を例として説明するが、システム20Bにおける機能構成も同様である。
表示制御部211は、ディスプレイ132を制御して、アイコン2605a(第1のアイコン)が配置される領域2607a(第1の領域)を画面2603に表示させる。アイコン2605aは、コンテンツデータ121としてメモリ120に格納されているコンテンツに対応している。コンテンツは、例えば静止画、動画、音声、または文書など、あらゆる種類でありうる。アイコン2605aは、こうしたコンテンツの種類や、お気に入りであるか否かなどに応じて、様々な形で表示されてもよい。
上記の表示例で説明したように、本実施形態において表示制御部211が表示させる画面2603には、システム20Aにおいて保有されているコンテンツに対応するアイコン2605aが配置される領域2607aと、システム20Bにおいて保有されているコンテンツに対応するアイコン2605b(第2のアイコン)が配置される領域2607b(第2の領域)とが含まれる。領域2607aおよびアイコン2605aが、システム20Aにおいてタッチパネル130を介して取得された操作に応じて移動または変形されるのに対し、領域2607bおよびアイコン2605bは、システム20Bのユーザの操作によって移動または変形される。
より具体的には、例えば、領域2607aおよびアイコン2605aについて、システム20Aの表示制御部211は、メモリ120に格納されたプログラムに従って初期の表示位置や形状を決定するとともに、タッチパネル130を介したユーザ操作に従って領域2607aおよび/またはアイコン2605aを移動または変形させる。表示制御部211は、このようにして設定された表示位置および形状で、領域2607aおよびアイコン2605aをディスプレイ132に表示させる。
一方、領域2607bおよびアイコン2605bについて、システム20Aの表示制御部211は、通信モジュール140を介してシステム20Bから表示位置や形状に関する情報を受信する。システム20Bにおいて、領域2607bおよびアイコン2605bの表示位置および形状は、タッチパネル130を介したユーザ操作によって決定される。表示制御部211は、受信された情報に従って領域2607bおよびアイコン2605bをディスプレイ132に表示させる。また、表示制御部211は、システム20Bのディスプレイ132にも領域2607aおよびアイコン2605aを表示させるために、これらの表示位置および形状に関する情報を通信モジュール140を介してシステム20Bに送信する。
領域検出部213は、表示制御部211が表示させている領域2607a(第1の領域)が、それとは異なる画面2603(表示面)内の領域2607b(第2の領域)に重複する重複領域2609を検出する。本実施形態では、上述のように、表示制御部211が、領域2607a,2607bのいずれについても、画面2603における表示位置および形状を設定している。従って、領域検出部213は、表示制御部211から提供される領域2607a,2607bの画面内での仮想的な位置情報に基づいて、重複領域2609を検出することができる。
(2−4.変形例)
本実施形態の構成は、第1の実施形態と比較して、プロジェクタ160を用いた現実の投影面1601における射影1603の表示が、ディスプレイ132における仮想的な画面2603の表示に変更されている以外は、ほぼ同様である。従って、上記の説明以外の部分の実施形態の構成や、変形例などについては、第1の実施形態について説明したものが同様に適用されうる。以下では、第1の実施形態とは異なる変形例について説明する。
図20は、本開示の第2の実施形態における変形例を示す図である。図20を参照すると、システム20Aのディスプレイ132aに表示される画面2603a、およびシステム20Bのディスプレイ132bに表示される画面2603bには、いずれも、2つの領域2607a,2607bと、それぞれの領域に配置されるアイコン2605a,2605bとが表示されている。領域2607a,2607bは、重複領域2609で重複している。また、ディスプレイ132aでは領域2607aが手前側に表示され、ディスプレイ132bでは領域2607bが手前側に表示されている。
このとき、画面2603aでは、領域2607bに配置されたアイコン2605bが、領域2607aの方を向いており、アイコン2605aの向きに整合している。一方、画面2603bでは、領域2607aに配置されたアイコン2605aが、領域2607bの方を向いており、アイコン2605bの向きに整合している。なお、それぞれのアイコン2605の向きは、例えば図示された星形のアイコンの向きを参照すると理解しやすい。
このように、本変形例では、画面2603に含まれる複数の領域2607に配置されるアイコン2605の向きが、画面2603の観察方向に応じて変更される。より具体的には、例えば、システム20Aの表示制御部211は、システム20Bから通信モジュール140を介して受信した情報に従ってアイコン2605bを画面2603aに表示させるときに、アイコン2605bの向きを、アイコン2605aの向きに整合するように変更する。
なお、上記の本実施形態の図では、ディスプレイ132として平板型のディスプレイを例示しているが、本開示の実施形態はこのような例には限られない。例えば、ディスプレイ132は、ヘッドマウント型であってもよい。
以上で説明した本開示の第2の実施形態では、アイコン2605、領域2607、および重複領域2609を、ディスプレイ132の画面2603において仮想的に表示させることによって、例えばシステム20にプロジェクタが含まれなかったり、複数の領域を射影として表示できるような投影面がないような場合でも、上記の第1の実施形態と同様の直感的な操作によるコンテンツ間でのメタデータの共有を実現することができる。また、例えば、画面2603が仮想的な空間を表現した画面であるような場合には、同じ空間にはいないユーザの間でも、直感的な操作によってコンテンツのメタデータ共有を実現することが可能になる。
(3.第3の実施形態)
本開示の第3の実施形態は、例えば上記の第1の実施形態にも利用可能なプロジェクタの構成を含む。ただし、本実施形態の構成は、上記の第1(および第2)の実施形態とは独立して実現可能である。
(3−1.装置構成)
図21は、本開示の第3の実施形態に係るシステムの概略的な装置構成を示すブロック図である。図21を参照すると、システム30は、プロセッサ110と、メモリ120と、タッチパネル130と、通信モジュール140と、カメラモジュール150と、プロジェクタ160とを有する。システム30は、上述した第1の実施形態におけるシステム10と同様に、1または複数の情報処理装置を含んで実現されうる。
なお、本実施形態に係るシステム30は、第1の実施形態に係るシステム10と同様の装置構成を有する。それゆえ、ここでは、装置構成の要素についての詳細な説明は省略する。本実施形態と第1の実施形態との相違は、続く機能構成の説明によって明らかになる。なお、本実施形態において、カメラモジュール150とプロジェクタ160との関係は、上記の第1の実施形態において図2を参照して説明したものと同様である。
(3−2.機能構成)
図22は、本開示の第3の実施形態に係るシステムの概略的な機能構成を示すブロック図である。図22を参照すると、本実施形態では、システム30に含まれるプロセッサ110によって、画像取得部311、投影可能領域決定部312、およびプロジェクタ制御部313のそれぞれの機能が実現される。また、本実施形態では、システム30に含まれるメモリ120に、コンテンツデータ321が格納される。なお、上記の機能は、独立して実現されてもよく、例えば上記の第1の実施形態における機能とともに実現されてもよい。
画像取得部311は、プロジェクタ160によって投影面1601に投影されたパターンの少なくとも一部を含む撮像画像を、カメラモジュール150から取得する。本実施形態では、後述するプロジェクタ制御部313の機能によって、少なくとも一時的に、プロジェクタ160によって投影面1601に所定のパターンが投影される。画像取得部311は、投影面1601上の射影1603に含まれるパターンの少なくとも一部を含む撮像画像を、カメラモジュール150から取得する。本実施形態では、プロジェクタ160が投影面1601に画像を投射することによって表示される射影1603の少なくとも一部がカメラモジュール150の画角1501に含まれるように、カメラモジュール150およびプロジェクタ160が配置される。従って、カメラモジュール150が射影1603に含まれるパターンの少なくとも一部を含む撮像画像を取得することが可能である。なお、投影されるパターンの具体的な例については後述する。
ここで、プロジェクタ制御部313の機能によるパターンの投影について、さらに説明する。プロジェクタ制御部313は、後述するように、コンテンツデータ321に従ってプロジェクタ160に画像データを提供し、コンテンツを射影1603として投影面1601上に表示させる。その一方で、プロジェクタ制御部313は、例えばプロジェクタ160による投影の開始時に、投影面1601に所定のパターンを投影する。所定のパターンは、例えばユーザによって視認可能なものであってもよいし、赤外線などの不可視光を用いて表示されてユーザには視認されないものであってもよい。また、プロジェクタ制御部313は、プロジェクタ160によるコンテンツの表示が開始された後も、例えば所定の間隔で、投影面1601に所定のパターンを投影してもよい。これによって、例えば、投影の途中でプロジェクタ160と投影面1601との位置関係が変化したり、投影面1601上に新たにオブジェクトが配置された場合にも、後述するように投影面1601における投影可能領域を最適化することができる。
投影可能領域決定部312は、画像取得部311が取得した撮像画像に基づいて、投影面1601における投影可能領域を決定する。投影可能領域は、プロジェクタ160が投影面1601に画像を投影した場合に、射影1603において画像を比較的明確に視認することが可能な領域である。投影可能領域は、例えば矩形の領域であるが、後述するようにその一部が切り抜かれてもよい。また、投影可能領域は、矩形以外の形状であってもよい。投影可能領域決定部312は、投影面1601内の第1の領域で不規則に投影されたパターンを含む撮像画像が取得されたか否かによって、投影可能領域のサイズおよび/または形状を変化させる。
例えば、投影可能領域決定部312は、パターンが不規則に投影された第1の領域が発生しない限り、投影面1601上でプロジェクタ160が画像を投影できる最大の領域を投影可能領域に設定してもよい。また、例えば、投影可能領域決定部312は、パターンが不規則に投影された第1の領域が発生した場合、第1の領域を含まないように縮小された投影可能領域を設定してもよいし、投影可能領域から第1の領域を切り抜いてもよい。
ここで、パターンが不規則に投影される場合には、いくつかの原因がある。例えば、投影面1601上に何らかのオブジェクトが配置されている場合、その部分(第1の領域)では投影面1601が平坦ではないことによってパターンが不規則に歪む。この場合、パターンが不規則に歪んだ第1の領域に画像を投影しても、射影1603において画像を明確に視認することが難しい。従って、投影可能領域決定部312は第1の領域を除外して投影可能領域を決定する。ただし、例えば、投影面1601上に配置されたオブジェクトにある程度の大きさがあり、当該オブジェクトの表面には平坦な部分があるような場合、投影されるパターンは、第1の領域では不規則に歪むものの、第1の領域に囲まれた第2の領域(平坦な部分)では規則的に投影されることになる。このような場合、投影可能領域決定部312は、第1の領域を含まない第1の投影可能領域と、第2の領域に対応する第2の投影可能領域とを合わせて投影可能領域としてもよい。
なお、上記の例におけるパターンの不規則な歪みとは、例えばオブジェクトが配置されたことなどによって、投影されたパターンの形状が周囲の領域とは不連続に変化しているものをいう。これに対して、規則的な投影とは、投影されたパターンの形状が周囲の領域に連続して変化しているものをいう。例えば、投影面1601がプロジェクタ160の光軸に対して傾斜していることによって射影1603が台形または不等辺四角形状に変形する場合、射影1603に含まれるパターンも本来の形状に比べて変形しているが、この変形はパターンの全体にわたって連続的に生じるため、上記の例における不規則な歪みとは異なる。
なお、本実施形態の説明では、投影面1601がプロジェクタ160の光軸に対して傾斜していることによって、本来は矩形の射影1603が台形または不等辺四角形状に変形する場合の補正処理(台形補正など)については、公知の技術であるため詳細な説明を省略している。従って、射影1603や投影可能領域などの形状の説明において、それらが実際には矩形ではなく台形や不等辺四角形状になる場合については言及されていないが、そのような場合にも同様に本実施形態が適用可能であることは、当業者によって容易に理解されるであろう。
また、例えば、投影面1601のテクスチャが部分的に変化している場合、その部分(第1の領域)では投影の背景のテクスチャが異なることによってパターンのテクスチャも不規則に変化する。この場合、第1の領域とそれ以外の領域とにまたがって画像を投影すると、途中で背景のテクスチャが変化することによって、射影1603において画像を明確に視認することが難しい。従って、投影可能領域決定部312は第1の領域を除外して投影可能領域を決定する。ただし、例えば、投影面1601の第1の領域におけるテクスチャ自体は画像の投影が困難になるようなものではない場合、投影される画像が第1の領域とそれ以外の領域とにまたがっていなければ、画像を視認することは必ずしも難しくない。そこで、そのような場合、投影可能領域決定部312は、第1の領域を含まない第1の投影可能領域と、第1の領域に対応する第2の投影可能領域とを合わせて投影可能領域としてもよい。
なお、上記の例におけるパターンのテクスチャの不規則な変化とは、例えば異なる材質や塗装のテーブルや壁が継ぎ合わされて投影面1601を構成していたり、投影面1601に紙などのシート状の物体が配置されていたりすることなどによって、投影されたパターンのテクスチャが周囲の領域とは不連続に変化しているものをいう。これに対して、テクスチャの規則的な変化とは、投影されたパターンのテクスチャが周囲の領域に連続して変化しているものをいう。例えば、投影面1601が木製のテーブルや壁面であり、テクスチャとして木目が観察される場合、射影1603に含まれるパターンの背景のテクスチャは場所によって異なるが、この変化はパターンの全体にわたって連続的に生じるため、上記の例におけるテクスチャの不規則な変化とは異なる。
プロジェクタ制御部313は、投影可能領域決定部312によって決定された投影可能領域に画像を投影するように、プロジェクタ160を制御する。より具体的には、例えば、プロジェクタ制御部313は、決定された投影可能領域のサイズに応じて、プロジェクタ160の光学系を制御して射影1603の倍率を調整する。また、例えば、プロジェクタ制御部313は、決定された投影可能領域の形状に応じて、コンテンツデータ321に基づいてプロジェクタ160に提供する画像データを編集する。例えば、投影可能領域から第1の領域(パターンが不規則に投影された領域)が切り抜かれている場合、プロジェクタ制御部313は、切り抜かれた第1の領域に対応する部分が空白になるように、プロジェクタ160に提供する画像データを編集する。また、例えば、投影可能領域が第1の投影可能領域と第2の投影可能領域とを含む場合、プロジェクタ制御部313は、これらの2つの領域のそれぞれに対応した画像データを生成する。
ここで、例えば、上記の例のように、投影可能領域決定部312によって、第1の投影可能領域と、第1の領域とはテクスチャが異なる第2の投影可能領域とが決定された場合、プロジェクタ制御部313は、第1および第2の投影可能領域にそれぞれ異なる種類の画像を投影するようにプロジェクタ160を制御してもよい。例えば、第1の投影可能領域が薄い色の無地であるのに対し、第2の投影可能領域は濃い色の無地であるような場合、第1の投影可能領域では文字情報などの比較的細かい画像も視認可能であるのに対し、第2の領域ではアイコンなどの比較的粗い画像であれば視認可能である。このような場合、プロジェクタ160は、第1の領域に文字情報(例えば電子新聞の記事や電子書籍など)の画像を配置し、第2の領域に当該画像を操作するための操作アイコン(プロジェクタ160と、カメラモジュール150または別途のセンサとによってGUIが提供される場合)を配置してもよい。
さらに、プロジェクタ制御部313は、画像取得部311が取得した撮像画像に基づいて、プロジェクタ160によって表示される画像の情報量を調整してもよい。例えば、カメラモジュール150とプロジェクタ160とが同一の端末装置に内蔵されている場合、またはこれらが同一の端末装置に固定的に外付けされているような場合には、カメラモジュール150の撮像画像が、ユーザが視認している射影1603の像に近いと考えられる。そこで、このような場合、プロジェクタ制御部313は、カメラモジュール150による撮像画像におけるパターンのサイズに応じて、コンテンツデータ321に基づいてプロジェクタ160に提供する画像データを編集する。プロジェクタ制御部313は、例えば、プロジェクタ160によって投影されるパターンの元の画像に含まれる所定の図形のサイズまたは間隔が、プロジェクタ160によって投影面1601上に投影されたパターンをカメラモジュール150が撮像した画像ではどのくらいのサイズまたは間隔になっているかを測定する。撮像画像におけるサイズまたは間隔は、例えばピクセルを単位として測定されてもよい。
(3−2.表示例)
(第1の表示例)
図23は、本開示の第3の実施形態における第1の表示例を示す図である。図23Aを参照すると、プロジェクタ160によって、投影面1601に同心矩形状のパターン3601が投影されている。パターン3601は、投影面1601上に配置されたオブジェクト3603のために、領域3605(第1の領域)において不規則に歪んで表示されている。このような場合、システム30では、画像取得部311が、領域3605において不規則に歪んだパターン3601を含む撮像画像をカメラモジュール150から取得する。そこで、投影可能領域決定部312は、図23Bに示すように、領域3605を含まないように縮小された投影可能領域3607を決定する。
ここで、プロジェクタ制御部313は、縮小された投影可能領域3607に、再度パターン3601を投影させてもよい。この場合、プロジェクタ制御部313は、この再度投影されたパターン3601を含む撮像画像をカメラモジュール150から取得し、撮像画像におけるパターン3601を構成する矩形の間隔d1に基づいて、投影されるコンテンツ画像の情報量を調整する。一例として、プロジェクタ制御部313は、撮像画像上での間隔d1が0ピクセル〜8ピクセルの場合(最も少ない情報量)、9ピクセル〜16ピクセルの場合(中程度の情報量)、17ピクセル以上の場合(最も多い情報量)のように、表示されるコンテンツ画像の情報量を段階的に調整してもよい。
(第2の表示例)
図24は、本開示の第3の実施形態における第2の表示例を示す図である。図24Aは、投影面1601上にオブジェクトが配置されていない場合の例である。この場合、パターン3601は不規則に投影される領域を含まない。従って、投影可能領域決定部312は、投影面1601上でプロジェクタ160が画像を投影できる最大の領域を投影可能領域3607aに設定する。プロジェクタ制御部313は、この投影可能領域3607aに、記事1〜6を含む電子新聞3609a(他にも、電子書籍、Webページなどどのようなものであってもよい)を表示させる。
一方、図24Bの例では、投影面1601上にオブジェクト3603が配置されていることによって、領域3605(第1の領域)でパターン3601が不規則に歪んでいる。この場合、投影可能領域決定部312は、上記の第1の例とは異なり、投影可能領域3607bから領域3605を切り抜く。プロジェクタ制御部313は、プロジェクタ160を制御して、この投影可能領域3607bに合わせて編集された、記事1〜5を含む電子新聞3609bを表示させる。電子新聞3609bでは、記事5の領域が第1の領域3605にかからないように変形され、その代わりに記事6が省略されている。
さらに、図24Cの例では、投影可能領域決定部312が、領域3605でパターン3601が不規則に歪んでいることに加えて、オブジェクト3603の平坦な表面にあたる領域3611(第2の領域)でパターン3601が規則的に投影されていることを検出する。これに基づいて、投影可能領域決定部312は、領域3605を含まない第1の投影可能領域3607bと、領域3611に対応する第2の投影可能領域3607cとを含む投影可能領域3607を決定する。プロジェクタ制御部313は、プロジェクタ160を制御して、上記のような投影可能領域3607に合わせて編集された、記事1〜5,7を含む電子新聞3609cを表示させる。ここで、電子新聞3609cは、図24Bに示した電子新聞3609bに、第2の投影可能領域3607dに表示される記事7を加えたものである。
(第3の表示例)
図25は、本開示の第3の実施形態における第3の表示例を示す図である。図25A〜〜図25Cは、カメラモジュール150による撮像画像におけるパターンのサイズに応じて、プロジェクタ160によって投影される画像の情報量が変化する例が示されている。この例では、プロジェクタ160によって、投影面1601に、音楽プレーヤ3613の画像が表示される。
図25Aは、撮像画像におけるパターン3601のサイズが比較的小さい場合の例である。この場合、ユーザが視認している音楽プレーヤ3613aの画像が比較的小さいと推定されることから、プロジェクタ制御部313は、音楽プレーヤ3613aの画像を、コントロールボタン3615(再生、一時停止、早送り、および巻き戻し)と、楽曲名およびアーティスト名3617とを含むシンプルな画像にする。
図25Bは、撮像画像におけるパターン3601のサイズが中程度である場合の例である。この場合、ユーザが視認している音楽プレーヤ3613bの画像が中程度であると推定されることから、プロジェクタ制御部313は、音楽プレーヤ3613bの画像を、図25Aに示した音楽プレーヤ3613aの要素に加えて、再生中の楽曲に対応した画像3619と、楽曲リスト3621とを含む画像にする。
図25Cは、撮像画像におけるパターン3601のサイズが比較的大きい場合の例である。この場合、ユーザが視認している音楽プレーヤ3613cの画像が比較的大きいと推定されることから、プロジェクタ制御部313は、音楽プレーヤ3613cの画像を、図25Bに示した音楽プレーヤ3613bの要素に加えて、ライブラリに格納された他の楽曲に対応した画像3623を含む充実した画像にする。
(第4の表示例)
図26は、本開示の第3の実施形態における第4の表示例を示す図である。図26を参照すると、プロジェクタ160によって、投影面1601に同心矩形状のパターン3601が投影されている。パターン3601は、投影面1601上のテクスチャ変化部分のために、領域3605(第1の領域)において不規則にテクスチャが変化して表示されている。このような場合、システム30では、画像取得部311が、領域3605において不規則にテクスチャが変化したパターン3601を含む撮像画像をカメラモジュール150から取得する。
さらに、上記の例において、投影可能領域決定部312は、領域3605でパターン3601のテクスチャが不規則に変化していることに加えて、領域3605の内部では、テクスチャが規則的に変化しており(または、変化しておらず)、領域3605ほど視認性は高くないものの投影された画像を視認することが可能であることを検出する。これに基づいて、投影可能領域決定部312は、領域3605を含まない第1の投影可能領域3607bと、領域3605に対応する第2の投影可能領域3607cとを含む投影可能領域3607を決定する。
ここで、図示された例では、プロジェクタ制御部313がプロジェクタ160を制御して表示させようとしている動画プレーヤ3625の画像が、コンテンツ画像3627と、コントロールボタン3629とを含む。プロジェクタ制御部313は、コンテンツ画像3627を第1の投影可能領域3607bに配置し、コントロールボタン3629を第2の投影可能領域3607cに配置する。これによって、投影された画像の視認性がより高い投影可能領域3607bにコンテンツ画像3627を表示するとともに、視認性がやや低いもののアイコンは十分に視認可能な第2の投影可能領域3607cにコントロールボタン3629を配置することによって、投影可能領域3607全体を無駄なく利用し、コンテンツ画像3627をより大きく表示させることができる。
上記の例を応用すれば、ユーザが投影面1601上に意図的にオブジェクトを配置することによって、投影される画像の内容をコントロールすることが可能である。例えば、電子メールのようなテキスト入力を受け付けるアプリケーションの画像がテーブル上の投影面1601に投影されている場合、ユーザは、投影面1601上にテーブルのテクスチャとは異なるテクスチャ(色や模様など)の紙を配置することで、その紙の上にオンスクリーンキーボードなどを表示させることが可能である。
なお、上記の本実施形態の図および説明では、パターン3601として同心矩形状のパターンを例示しているが、本開示の実施形態はこのような例には限られない。パターン3601は、形状および/またはテクスチャの変化を検出可能な図形であり、必要に応じて図形の間隔などによってサイズを計測することが可能なものであればどのようなものであってもよい。一例として、パターン3601は、格子状や同心円状、矩形以外の同心多角形状などであってもよい。また、例えば、図24Bに示したような状態から、オブジェクト3603が取り除かれたことが検出された場合、図24Aに示したように記事6を省略しない形での再描画が実行されてもよい。
(4.ハードウェア構成)
最後に、図27を参照して、本開示の実施形態に係る情報処理装置のより具体的なハードウェア構成例について説明する。図27は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、単体で、または組み合わせによって、上記の各実施形態に係るシステムを実現する。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行時のパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、またはスイッチなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドホンなどの音声出力装置などでありうる。出力装置917は、情報処理装置900の処理結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(5.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得する画像取得部と、
前記撮像画像に基づいて前記投影面における投影可能領域を決定する投影可能領域決定部と、
前記投影可能領域に画像を投影するように前記プロジェクタを制御するプロジェクタ制御部と
を備える情報処理装置。
(2)前記画像取得部は、前記投影面内の第1の領域で不規則に投影された前記パターンを含む前記撮像画像を取得する、前記(1)に記載の情報処理装置。
(3)前記投影可能領域決定部は、前記第1の領域を含まないように前記投影可能領域を縮小する、前記(2)に記載の情報処理装置。
(4)前記投影可能領域決定部は、前記投影可能領域から前記第1の領域を切り抜く、前記(2)に記載の情報処理装置。
(5)前記画像取得部は、前記第1の領域に囲まれた第2の領域では規則的に投影された前記パターンを含む前記撮像画像を取得し、
前記投影可能領域決定部は、前記第1の領域を含まない第1の投影可能領域と、前記第2の領域に対応する第2の投影可能領域とを含むように前記投影可能領域を決定する、前記(2)に記載の情報処理装置。
(6)前記画像取得部は、前記第1の領域で不規則に歪んだ前記パターンを含む前記撮像画像を取得する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記画像取得部は、前記第1の領域で不規則にテクスチャが変化する前記パターンを含む前記撮像画像を取得する、前記(2)に記載の情報処理装置。
(8)前記投影可能領域決定部は、前記第1の領域を含まない第1の投影可能領域と、前記第1の領域に対応する第2の投影可能領域とを含むように前記投影可能領域を決定し、
前記プロジェクタ制御部は、前記第1の投影可能領域と前記第2の投影可能領域とで異なる種類の画像が投影されるように前記プロジェクタを制御する、前記(7)に記載の情報処理装置。
(9)前記プロジェクタ制御部は、前記撮像画像に含まれる前記パターンのサイズに応じて前記画像の情報量が変更されるように前記プロジェクタを制御する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)前記プロジェクタ制御部は、前記画像の投影を開始するときに前記パターンを投影するように前記プロジェクタを制御する、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記プロジェクタ制御部は、前記画像の投影中に所定の間隔で前記パターンを投影するように前記プロジェクタを制御する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記プロジェクタ制御部は、不可視光を用いて前記パターンを投影するように前記プロジェクタを制御する、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)情報処理装置に含まれるプロセッサが、、
プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得することと、
前記撮像画像に基づいて前記投影面における投影可能領域を決定することと、
前記投影可能領域に画像を投影するように前記プロジェクタを制御することと
を含む情報処理方法。
(14)プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得する機能と、
前記撮像画像に基づいて前記投影面における投影可能領域を決定する機能と、
前記投影可能領域に画像を投影するように前記プロジェクタを制御する機能と
をコンピュータに実現させるためのプログラム。
10,20,30 システム
110 プロセッサ
111,211 表示制御部
112 操作取得部
113,213 領域検出部
114 メタデータ共有処理部
120 メモリ
130 タッチパネル
132 ディスプレイ
134 タッチセンサ
140 通信モジュール
150 カメラモジュール
160 プロジェクタ
311 画像取得部
312 投影可能領域決定部
313 プロジェクタ制御部
1601 投影面
1603 射影
1605,2605 アイコン
1607,2607 領域
1609,2609 重複領域
2603 画面
3601 パターン
3607 投影可能領域

Claims (14)

  1. プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得する画像取得部と、
    前記撮像画像に基づいて前記投影面における投影可能領域を決定する投影可能領域決定部と、
    前記投影可能領域に画像を投影するように前記プロジェクタを制御するプロジェクタ制御部と
    を備える情報処理装置。
  2. 前記画像取得部は、前記投影面内の第1の領域で不規則に投影された前記パターンを含む前記撮像画像を取得する、請求項1に記載の情報処理装置。
  3. 前記投影可能領域決定部は、前記第1の領域を含まないように前記投影可能領域を縮小する、請求項2に記載の情報処理装置。
  4. 前記投影可能領域決定部は、前記投影可能領域から前記第1の領域を切り抜く、請求項2に記載の情報処理装置。
  5. 前記画像取得部は、前記第1の領域に囲まれた第2の領域では規則的に投影された前記パターンを含む前記撮像画像を取得し、
    前記投影可能領域決定部は、前記第1の領域を含まない第1の投影可能領域と、前記第2の領域に対応する第2の投影可能領域とを含むように前記投影可能領域を決定する、請求項2に記載の情報処理装置。
  6. 前記画像取得部は、前記第1の領域で不規則に歪んだ前記パターンを含む前記撮像画像を取得する、請求項2に記載の情報処理装置。
  7. 前記画像取得部は、前記第1の領域で不規則にテクスチャが変化する前記パターンを含む前記撮像画像を取得する、請求項2に記載の情報処理装置。
  8. 前記投影可能領域決定部は、前記第1の領域を含まない第1の投影可能領域と、前記第1の領域に対応する第2の投影可能領域とを含むように前記投影可能領域を決定し、
    前記プロジェクタ制御部は、前記第1の投影可能領域と前記第2の投影可能領域とで異なる種類の画像が投影されるように前記プロジェクタを制御する、請求項7に記載の情報処理装置。
  9. 前記プロジェクタ制御部は、前記撮像画像に含まれる前記パターンのサイズに応じて前記画像の情報量が変更されるように前記プロジェクタを制御する、請求項1に記載の情報処理装置。
  10. 前記プロジェクタ制御部は、前記画像の投影を開始するときに前記パターンを投影するように前記プロジェクタを制御する、請求項1に記載の情報処理装置。
  11. 前記プロジェクタ制御部は、前記画像の投影中に所定の間隔で前記パターンを投影するように前記プロジェクタを制御する、請求項1に記載の情報処理装置。
  12. 前記プロジェクタ制御部は、不可視光を用いて前記パターンを投影するように前記プロジェクタを制御する、請求項1に記載の情報処理装置。
  13. 情報処理装置に含まれるプロセッサが、、
    プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得することと、
    前記撮像画像に基づいて前記投影面における投影可能領域を決定することと、
    前記投影可能領域に画像を投影するように前記プロジェクタを制御することと
    を含む情報処理方法。
  14. プロジェクタによって投影面に投影されたパターンの少なくとも一部を含む撮像画像を取得する機能と、
    前記撮像画像に基づいて前記投影面における投影可能領域を決定する機能と、
    前記投影可能領域に画像を投影するように前記プロジェクタを制御する機能と
    をコンピュータに実現させるためのプログラム。
JP2013187428A 2013-09-10 2013-09-10 情報処理装置、情報処理方法およびプログラム Pending JP2015056687A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013187428A JP2015056687A (ja) 2013-09-10 2013-09-10 情報処理装置、情報処理方法およびプログラム
US14/469,986 US9591226B2 (en) 2013-09-10 2014-08-27 Information processing apparatus, information processing method, and program
CN201410444651.XA CN104427282B (zh) 2013-09-10 2014-09-03 信息处理装置,信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013187428A JP2015056687A (ja) 2013-09-10 2013-09-10 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2015056687A true JP2015056687A (ja) 2015-03-23

Family

ID=52625254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013187428A Pending JP2015056687A (ja) 2013-09-10 2013-09-10 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US9591226B2 (ja)
JP (1) JP2015056687A (ja)
CN (1) CN104427282B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6252229B2 (ja) * 2014-02-19 2017-12-27 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
KR20150100113A (ko) * 2014-02-24 2015-09-02 삼성전자주식회사 영상 처리 장치 및 이의 영상 처리 방법
TWI528247B (zh) * 2014-12-03 2016-04-01 緯創資通股份有限公司 觸控點感測方法及光學觸控系統
US20160179351A1 (en) * 2014-12-20 2016-06-23 Smart Technologies Ulc Zones for a collaboration session in an interactive workspace
CN104796678A (zh) * 2015-04-28 2015-07-22 联想(北京)有限公司 信息处理方法及电子设备
WO2017054115A1 (zh) * 2015-09-28 2017-04-06 神画科技(深圳)有限公司 具有增强现实效果的投影方法及系统
CN106488208B (zh) * 2017-01-03 2020-03-31 京东方科技集团股份有限公司 一种显示装置及显示方法
CN107888892B (zh) * 2017-11-07 2019-08-02 歌尔股份有限公司 Vr设备的视场测试方法及系统
DE112018007292T5 (de) * 2018-03-16 2020-12-31 Sony Corporation Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und aufzeichnungsmedium

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3497805B2 (ja) * 2000-08-29 2004-02-16 オリンパス株式会社 画像投影表示装置
JP4055010B2 (ja) * 2003-09-26 2008-03-05 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
CN100498893C (zh) * 2005-06-27 2009-06-10 精工爱普生株式会社 投影图像的位置调整方法
CN101322402B (zh) * 2005-12-22 2010-09-15 松下电器产业株式会社 图像投影装置、控制方法以及半导体装置
JP4553046B2 (ja) * 2008-02-13 2010-09-29 セイコーエプソン株式会社 プロジェクタ、マルチスクリーンシステム、プロジェクタ制御方法、プロジェクタ制御プログラム、情報記憶媒体
JP2009200683A (ja) * 2008-02-20 2009-09-03 Seiko Epson Corp 画像処理装置、プロジェクタ、歪み補正方法
JP2009229752A (ja) * 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
JP5520517B2 (ja) * 2009-02-25 2014-06-11 京セラ株式会社 携帯電子機器
JP5440250B2 (ja) * 2010-02-26 2014-03-12 セイコーエプソン株式会社 補正情報算出装置、画像処理装置、画像表示システム、および画像補正方法
JP2012065246A (ja) 2010-09-17 2012-03-29 Sony Corp 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2015055913A (ja) * 2013-09-10 2015-03-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
CN104427282A (zh) 2015-03-18
US9591226B2 (en) 2017-03-07
US20150070558A1 (en) 2015-03-12
CN104427282B (zh) 2019-01-29

Similar Documents

Publication Publication Date Title
US11163419B2 (en) Information processing apparatus and information processing method for imaging display
JP2015056687A (ja) 情報処理装置、情報処理方法およびプログラム
US10209513B2 (en) Wearable device and control method thereof
EP3136705B1 (en) Mobile terminal and method for controlling the same
CN103729157B (zh) 多显示设备及其控制方法
EP3125524A1 (en) Mobile terminal and method for controlling the same
US20120102438A1 (en) Display system and method of displaying based on device interactions
AU2014315789B2 (en) Image forming apparatus and control method thereof
KR102431712B1 (ko) 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
US9495064B2 (en) Information processing method and electronic device
JP4912377B2 (ja) 表示装置、表示方法、ならびに、プログラム
JP5220157B2 (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
US20150193911A1 (en) Display control device, display control system, and display control method
JP2015005902A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020170453A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6314564B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR102150905B1 (ko) 와이파이 다이렉트 기반의 촬영 방법 및 이를 수행하는 전자 장치
TWI386840B (zh) 可體現電子檔案翻頁效果的電子裝置及其方法
US10983656B2 (en) Image processing system and image processing method for playback of content
JP7289208B2 (ja) プログラム、情報処理装置、および方法
JP7342501B2 (ja) 表示装置、表示方法、プログラム
JP7331578B2 (ja) 表示装置、画像表示方法、プログラム
KR20170027634A (ko) 이동 단말기
JP2022137023A (ja) プログラム、情報処理装置、および方法
JP6630468B2 (ja) コンテンツ再生制御装置及びコンテンツ再生システム並びにコンテンツ再生方法及びコンテンツ再生プログラム