JP2010086014A - 情報処理装置およびプログラム - Google Patents

情報処理装置およびプログラム Download PDF

Info

Publication number
JP2010086014A
JP2010086014A JP2008250949A JP2008250949A JP2010086014A JP 2010086014 A JP2010086014 A JP 2010086014A JP 2008250949 A JP2008250949 A JP 2008250949A JP 2008250949 A JP2008250949 A JP 2008250949A JP 2010086014 A JP2010086014 A JP 2010086014A
Authority
JP
Japan
Prior art keywords
image
information
window
user
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008250949A
Other languages
English (en)
Other versions
JP5304148B2 (ja
Inventor
Yuji Teraoka
祐次 寺岡
Hidehiko Kawanishi
秀彦 河西
Shinichi Kagaya
真一 加賀谷
Yuichiro Kondo
雄一郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008250949A priority Critical patent/JP5304148B2/ja
Publication of JP2010086014A publication Critical patent/JP2010086014A/ja
Application granted granted Critical
Publication of JP5304148B2 publication Critical patent/JP5304148B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

【課題】低コストで部屋の内観を変更すること。
【解決手段】情報処理装置は、部屋の壁に設けられた窓の位置および形状を特定する窓情報を取得する窓情報取得手段と、前記窓情報により特定される窓と、前記窓の枠を通して見える位置に画像を形成する画像形成装置とを対応させる対応情報を取得する対応情報取得手段と、前記部屋の中に設置されたセンサから、前記部屋の中にいるユーザがあらかじめ決められた第1の状態にあるか前記第1の状態とは異なる第2の状態にあるかを示すユーザ情報を取得するユーザ情報取得手段と、前記ユーザが前記第1の状態にあるときは第1の画像データを取得し、前記ユーザが前記第2の状態にあるときは第2の画像データを取得する第1の画像取得手段と、前記第1の画像取得手段により取得された画像データを、前記対応情報により特定された、前記窓に対応する画像形成装置に出力する出力手段とを有する。
【選択図】図2

Description

本発明は、情報処理装置およびプログラムに関する。
レストランのような飲食店やパチンコ店のような遊技場において、内装の改装は新たな顧客を吸引する効果がある。しかし一方で改装にはコストがかかるという問題があった。そこで、改装する代わりに壁にかける絵を変更することが行われている。
ここで、例えば特許文献1には、3次元仮想空間内で任意の画像を抽出するシステムが、特許文献2には、スクリーンに全体画像を投影する際に複数の部分画像に分けて投影する技術が開示されている。
特開平9−212686号公報 特開2004−349984号公報
特許文献1および2に記載された技術によっても、店舗等の部屋の内観を変更することはできなかった。
これに対し本発明は、より低コストで店舗等の部屋の内観を変更する技術を提供する。
本発明は、部屋の壁に設けられた窓の位置および形状を特定する窓情報を取得する窓情報取得手段と、前記窓情報により特定される窓と、前記窓の枠を通して見える位置に画像を形成する画像形成装置とを対応させる対応情報を取得する対応情報取得手段と、前記部屋の中に設置されたセンサから、前記部屋の中にいるユーザがあらかじめ決められた第1の状態にあるか前記第1の状態とは異なる第2の状態にあるかを示すユーザ情報を取得するユーザ情報取得手段と、前記ユーザが前記第1の状態にあるときは第1の画像データを取得し、前記ユーザが前記第2の状態にあるときは第2の画像データを取得する第1の画像取得手段と、前記第1の画像取得手段により取得された画像データを、前記対応情報により特定された、前記窓に対応する画像形成装置に出力する出力手段とを有する情報処理装置を提供する。
この情報処理装置によれば、ユーザの状態に応じて画像が切り替えられる。
好ましい態様において、この情報処理装置は、前記窓と所定の位置関係にある仮想スクリーン上に描かれる画像を示す画像データを取得する第2の画像取得手段と、前記部屋の中にある特定点の位置を特定する特定点情報を取得する特定点情報取得手段と、前記第2の画像取得手段により取得された画像データにより示される画像に対して前記特定点を光源としたときの前記窓における射影を示す画像を抽出する画像抽出手段とを有し、前記第1の画像取得手段は、前記画像抽出手段により抽出された画像を示す画像データを取得してもよい。
この情報処理装置によれば、ユーザの状態に応じて、仮想スクリーン上に描かれた画像から抽出される画像が切り替えられる。
別の好ましい態様において、この情報処理装置は、前記ユーザの位置を示す位置情報を取得する位置情報取得手段を有し、前記第2の画像取得手段により取得される画像データにより示される画像が、重ねて表示される第3の画像および第4の画像を含み、前記第3の画像が、複数のオブジェクトを含み、前記第2の画像データにより示される画像は、前記複数のオブジェクトが、前記位置情報により特定された位置に向かって移動する画像であってもよい。
この情報処理装置によれば、ユーザの状態に応じて、オブジェクトがユーザに向かって移動する画像が形成される。
さらに別の好ましい態様において、前記ユーザ情報が前記位置情報を含み、前記位置情報取得手段は、前記ユーザ情報取得手段により取得されたユーザ情報から、前記位置情報を取得してもよい。
さらに別の好ましい態様において、前記第1の画像データおよび前記第2の画像データを記憶する記憶手段を有し、前記第1の画像データは、有限の再生時間の動画を示し、前記第2の画像データは、前記第1の画像データにより示される動画の、再生時間軸上の所定のタイミングに対応する動画を示す、複数のサブデータを含み、前記第1の画像取得手段は、前記記憶手段から画像データを取得し、前記ユーザの状態が前記第2の状態にある場合、前記複数のサブデータのうち、前記ユーザの状態が前記第1の状態から前記第2の状態に切り替わったタイミングに対応するサブデータを取得してもよい。
さらに別の好ましい態様において、前記センサがマイクであり、前記第2の状態が、前記ユーザが所定の音量以上の音を発生している状態であってもよい。
さらに別の好ましい態様において、前記センサがカメラであり、前記第2の状態が、前記ユーザ所定の動作を行っている状態であってもよい。
さらに、本発明は、コンピュータ装置に、部屋の壁に設けられた窓の位置および形状を特定する窓情報を取得するステップと、前記窓情報により特定される窓と、前記窓の枠を通して見える位置に画像を形成する画像形成装置とを対応させる対応情報を取得するステップと、前記部屋の中に設置されたセンサから、前記部屋の中にいるユーザがあらかじめ決められた第1の状態にあるか前記第1の状態とは異なる第2の状態にあるかを示すユーザ情報を取得するステップと、前記ユーザが前記第1の状態にあるときは第1の画像データを取得し、前記ユーザが前記第2の状態にあるときは第2の画像データを取得するステップと、前記取得された画像データを、前記対応情報により特定された、前記窓に対応する画像形成装置に出力するステップとを実行させるためのプログラムを提供する。
このプログラムによれば、ユーザの状態に応じて画像が切り替えられる。
1.構成
図1は、本発明の一実施形態に係る画像形成システム1の構成を示すブロック図である。画像形成システム1は、いわゆるデジタルサイネージシステムである。画像形成システム1は、店舗等の所定の部屋の中に画像を形成する。画像形成システム1は、複数の画像形成装置40(画像形成装置40−1、画像形成装置40−2、画像形成装置40−3、画像形成装置40−4、画像形成装置40−5、画像形成装置40−6、画像形成装置40−7)と、複数のスクリーン50(スクリーン50−1、スクリーン50−2、スクリーン50−3)と、複数のセンサ60(センサ60−1、センサ60−2、センサ60−3)と、複数の外部装置70(外部装置70−1、外部装置70−2、外部装置70−3)と、情報処理装置10と、サーバ20とを有する。
画像形成装置40およびスクリーン50は、レストランの店舗等の所定の部屋の中(室内)に設置されている。n個(nは、n≧1を満たす自然数)の画像形成装置40が、1つのスクリーン50に対応している。情報処理装置10とサーバ20とは、ネットワーク30(例えばインターネット)を介して接続されている。この例で、部屋の壁に設けられた室窓がスクリーン50として用いられる。
1−1.情報処理装置10
図2は、情報処理装置10の機能構成を示す図である。情報処理装置10は、複数の画像形成装置40を制御する、画像処理装置の一例である。窓情報取得手段11は、窓情報を取得する。「窓情報」とは、ある部屋に存在する窓の位置および形状を特定する情報をいう。対応情報取得手段12は、対応情報を取得する。「対応情報」とは、窓と画像形成装置とを対応させる情報をいう。画像形成装置40は、窓の枠を通して見える位置に画像を形成する。「窓の枠を通して見える位置に画像を形成する」とは、部屋の内部から窓を見たときに、画像形成装置40により形成される画像の少なくとも一部が、窓の枠の中に形成されることをいう。ユーザ情報取得手段13は、部屋の中に設置されたセンサから、ユーザ情報を取得する。「ユーザ情報」とは、店舗等の部屋の中にいるユーザ(室内にいる客)があらかじめ決められた第1の状態にあるか第1の状態とは異なる第2の状態にあるかを示す情報をいう。画像取得手段14は、ユーザが第1の状態にあるときは第1の画像データを取得し、ユーザが第2の状態にあるときは第2の画像データを取得する。出力手段15は、画像取得手段14により取得された画像データを、対応情報により特定された窓に対応することが示される画像形成装置40に出力する。
画像取得手段16は、窓と所定の位置関係にある仮想スクリーン上に描かれる画像を示す画像データを取得する。特定点情報取得手段17は、特定点情報を取得する。「特定点情報」とは、部屋の中にある特定点の位置を特定する情報であり、この例では、店舗内における客の目の位置(より詳細には、2つの目の中点の位置)をいう。画像抽出手段18は、画像取得手段16により取得された画像データにより示される画像から射影画像を抽出する。「射影画像」とは、仮想スクリーン上に描かれる画像に対して特定点を光源としたときの窓における射影を示す画像をいう。ここで、画像取得手段16は、画像抽出手段18により抽出された画像を示す画像データを取得する。
位置情報取得手段19は、ユーザ位置情報を取得する。「ユーザ位置情報」とは、ユーザの位置を示す情報をいう。ここで、画像取得手段16により取得される画像データにより示される画像は、前景画像および背景画像を含む。前景画像は、複数のオブジェクト(または要素)を含む。この例で、第2の画像データにより示される画像は、複数のオブジェクトが、ユーザ位置情報に対応する位置に向かって移動する画像である。
この例で、ユーザ位置情報は、ユーザ情報に含まれる。位置情報取得手段19は、ユーザ情報取得手段13により取得されたユーザ情報から、ユーザ位置情報を取得する。記憶手段S1は、システムの動作に用いられるプログラムやデータを記憶する。
また、図2には示してないが、情報処理装置10は、以下の機能を有する。特定点情報取得手段は、室内に設けられたセンサ60から特定点情報を取得する。画像抽出手段は、特定点情報により示される特定点の位置が変化すると、射影画像を抽出する。特定点情報は、特定点を基準とする向きを示す情報を含んでおり、画像抽出手段は、窓の位置が特定点およびその向きと所定の条件を満たす場合に、射影画像を抽出する。
さらにこの例で、画像生成手段は、仮想スクリーン上に描かれる画像を生成する。画像抽出手段は、前記画像生成手段により生成された画像から、射影画像を抽出する。通信手段は、ネットワーク30を介した通信を行う。
図3は、情報処理装置10のハードウェア構成を示す図である。この例で、情報処理装置10はいわゆるパーソナルコンピュータである。CPU(Central Processing Unit)110は、情報処理装置10の構成要素を制御する制御装置である。ROM(Read Only Memory)120は、情報処理装置10の起動に必要なデータおよびプログラムを記憶する記憶装置である。RAM(Random Access Memory)130は、CPU110がプログラムを実行する際の作業領域として機能する記憶装置である。I/F(Interface)140は、種々の入出力装置や記憶装置との間でデータおよび制御信号の入出力をするインターフェースである。HDD(Hard Disk Drive)150は、各種プログラムおよびデータを記憶する記憶装置である。キーボード・マウス160は、ユーザが情報処理装置10に対して指示入力を行うのに用いられる入力装置である。ディスプレイ170は、データの内容あるいは処理の状況などを表示する出力装置である。ネットワークIF180は、ネットワーク30を介して接続された他の装置との間でデータの送受信を行うためのインターフェースである。USB(Universal Serial Bus)−IF185は、USB規格に従ったインターフェースである。バス190は、データの伝送路である。CPU110、ROM120、RAM130、およびI/F140は、バス190を介して接続されている。
情報処理装置10は、USB−IF185を介して画像形成装置40と接続されている。情報処理装置10は、USB−IF185を介して、画像形成装置40にデータおよび制御信号を出力する。
HDD150は、情報処理装置10を制御する制御プログラムを記憶している。CPU110が制御プログラムを実行することにより、図2に示される機能が情報処理装置10に実装される。この例で、制御プログラムを実行しているCPU110は、窓情報取得手段11、対応情報取得手段12、ユーザ情報取得手段13、画像取得手段14、画像取得手段16、特定点情報取得手段17、画像抽出手段18、および位置情報取得手段19の一例である。制御プログラムは複数のプログラムモジュールまたはサブルーチンを有し、各プログラムモジュールまたはサブルーチンが、各機能構成要素に対応する。CPU110と共働しているUSB−IF185は、出力手段15の一例である。ROM120、RAM130、およびHDD150は、記憶手段S1の一例である。ネットワークIF180は、通信手段の一例である。
1−2.サーバ20
図4は、サーバ20の機能構成を示す図である。記憶手段S2は、全体画像の生成に用いられるデータを記憶している。「全体画像の生成に用いられるデータ」とは、全体画像そのもの、あるいは、全体画像の素材を示すデータ(以下、「素材データ」という)である。「全体画像の素材」は、背景画像および前景画像を含む。「前景画像」は複数のオブジェクトを含む。例えば、背景画像は海の中の風景(海底、岩、海水など)を示す画像であり、前景画像は、海の中で動いているもの(魚、海藻など)を示す画像である。「画像」は静止画および動画を含む概念である。選択手段22は、あらかじめ決められたアルゴリズムに従って、選択手段22に記憶されているデータの中から、情報処理装置10に出力するデータを選択する。このアルゴリズムは、例えば、情報処理装置10のリクエストに応じてデータを選択するものである。あるいは、このアルゴリズムは、情報処理装置10の属性(情報処理装置10が設置されている場所、設置されている部屋の大きさまたは用途、情報処理装置10が設置されている場所の時刻など)に応じてデータを選択するものである。出力手段23は、選択手段22により選択されたデータを情報処理装置10に出力する。
図5は、サーバ20のハードウェア構成を示す図である。CPU210は、サーバ20の構成要素を制御する制御装置である。ROM220は、サーバ20の起動に必要なデータおよびプログラムを記憶する記憶装置である。RAM230は、CPU210がプログラムを実行する際の作業領域として機能する記憶装置である。I/F240は、種々の入出力装置や記憶装置との間でデータおよび制御信号の入出力をするインターフェースである。HDD250は、各種プログラムおよびデータを記憶する記憶装置である。キーボード・マウス260は、ユーザがサーバ20に対して指示入力を行うのに用いられる入力装置である。ディスプレイ270は、データの内容あるいは処理の状況などを表示する出力装置である。ネットワークIF280は、ネットワーク30を介して接続された他の装置との間でデータの送受信を行うためのインターフェースである。バス290は、データの伝送路である。CPU210、ROM220、RAM230、およびI/F240は、バス290を介して接続されている。
HDD250は、サーバ20を制御する制御プログラムを記憶している。CPU210が制御プログラムを実行することにより、図4に示される機能がサーバ20に実装される。この例で、制御プログラムを実行しているCPU210は、選択手段22、および出力手段23の一例である。ROM220、RAM230、およびHDD250は、記憶手段S2の一例である。制御プログラムは複数のプログラムモジュールまたはサブルーチンを有し、各プログラムモジュールまたはサブルーチンが、各機能構成要素に対応する。
1−3.画像形成装置40
画像形成装置40は、スクリーン50に画像を形成する装置である。この例で、画像形成装置40は、スクリーン50に映像を投射するプロジェクタである。画像形成装置40はUSB−IF185を介して情報処理装置10に接続されている。情報処理装置10は、形成する画像を示すデータを、USB−IF185を介して画像形成装置40に供給する。
図6は、画像形成装置40とスクリーン50との位置関係を例示する図である。この例で、部屋は壁71により仕切られている。壁71の内部にはさらに壁72が設けられている。壁72には、窓枠73が設けられている。壁71は窓枠73の外側に位置し、スクリーン50として機能する。画像形成装置40は、壁71と壁72の間に設置されている。このような配置により、室内にいるユーザから画像形成装置40が見えない(あるいは見えにくい)状態になり、室内の美観が損なわれない。
1−4.センサ60
センサ60は、室内の状態をセンシングする装置である。この例で、センサ60はカメラすなわち画像センサである。センサ60は、室内の所定の位置に複数設置されている。センサ60はUSB−IF185を介して情報処理装置10に接続されている。情報処理装置10は、カメラが取得した画像を、USB−IF185を介して取得する。
1−5.外部装置70
外部装置70は、情報処理装置10からの制御信号に従って動作する装置である。この例で、外部装置70は風を発生させる装置すなわち送風機である。外部装置70はUSB−IF185を介して情報処理装置10に接続されている。情報処理装置10は、USB−IF185を介して、外部装置70に制御信号を出力する。
2.動作
2−1.画像形成
続いて、画像形成システム1の動作を説明する。ここでは、部屋がレストランの店舗であり、店舗内の窓に映像を投影する例について説明する。また、この例で仮想スクリーンは半球のドーム状の形状を有している。この半球は、中心が店舗の床の重心と一致するように設定されている。
図7は、画像形成システム1のうち、特に情報処理装置10の動作を示すフローチャートである。図7のフローは、例えばユーザが情報処理装置10に対し制御プログラムの実行を指示したことを契機として開始される。CPU110が制御プログラムを実行することにより、以下の処理が行われる。
ステップS100において、CPU110は、全体画像を取得する。この例で、制御プログラムは、全体画像を生成するモジュールを有しており、CPU110は、このモジュールを実行した結果得られるデータを全体画像として取得する。
全体画像を生成するモジュールの機能は以下のとおりである。CPU110は、サーバ20から、全体画像の素材データを取得する。素材データは、背景画像のデータおよび前景画像のデータを含んでいる。いま、背景画像として海中の風景の画像が、前景画像として魚の画像が用いられる例について説明する。
HDD150は、仮想スクリーンの位置および大きさを特定するパラメータ(例えば、球の中心の座標および球の半径)を記憶している。CPU110は、このパラメータをHDD150から読み出す。CPU110は、読み出したパラメータにより特定される仮想スクリーンに相当する記憶領域を、RAM130上に確保する。この記憶領域は、背景用記憶領域、前景用記憶領域および合成用記憶領域を含んでいる。CPU110は、背景用記憶領域に背景画像のデータを書き込み、前景用記憶領域に前景画像のデータを書き込む。この例で、前景画像は動画である。また、前景画像は、複数のオブジェクト(例えば、複数の魚の画像)を含む。前景画像はオブジェクトを単位として更新される。すなわち、複数の魚が1匹づつ異なる動きをするように、前景画像が更新される。オブジェクトの変化のさせ方(例えば魚の動き)は、あらかじめプログラムされている。CPU110は、所定の時間間隔で、前景画像を書き替える。これにより、例えば魚が泳いで移動する様子が表現される。CPU110は、前景画像と背景画像を合成した画像のデータを合成用記憶領域に書き込む。こうして、全体画像が生成される。
ステップS110において、CPU110は、窓情報を取得する。この例で、窓情報はHDD150にあらかじめ記憶されており、CPU110は、HDD150から窓情報を読み出すことにより、窓情報を取得する。
図8は、窓情報を例示する図である。この例で、窓情報は、窓を特定する識別子(窓ID)と、窓枠の頂点の座標とを含む。
再び図7を参照する。ステップS120において、CPU110は、対応情報を取得する。この例で、対応情報はHDD150にあらかじめ記憶されており、CPU110は、HDD150から対応情報を読み出すことにより、対応情報を取得する。
図9は、対応情報を例示する図である。この例で、対応情報は、窓IDと、その窓に画像を形成する画像形成装置40の識別子(画像形成装置ID)とを含む。すなわち、対応情報は、複数の画像形成装置40と複数の窓とを一対一に対応させる情報を含む。
再び図7を参照する。ステップS130において、CPU110は、特定点情報を取得する。この例で、特定点情報として、カメラ(センサ60)により取得された画像を示す画像データが用いられる。また、この例で、制御プログラムは、画像データを用いて特定点の座標を算出するモジュールを有しており、CPU110は、このモジュールを実行した結果から特定点の座標を取得する。
図10は、特定点の座標を算出する処理を示すフローチャートである。ステップS131において、CPU110は、カメラから画像データを取得する。画像データの取得は、所定のタイミングで(例えば、所定の時間間隔、あるいは所定のイベントをトリガとして)行われる。CPU110は、カメラを特定する識別子(カメラID)とともに、得られた画像データをRAM130に記憶する。カメラはアングルが固定されており、店内の所定の座席に座っている客を撮影できる位置に設置されている。その座席に客が座っていれば、客の顔の画像が取得される。その座席が空席であれば、得られた画像に人間は写っていない。
ステップS132において、CPU110は、取得した画像に対して顔認識処理を行う。顔認識処理には、公知のアルゴリズムが用いられる。座席に客が座っていた場合、顔認識処理により、その客の目の位置が特定される。ステップS133において、CPU110は、顔認識処理の結果を用いて、店舗内における客の目の位置(より詳細には、2つの目の中点の位置)の座標を算出する。HDD150は、カメラIDとカメラにより撮影される領域の座標(例えば、カメラのフレームの端点または中心の座標)を対応させる情報をあらかじめ記憶している。CPU110は、HDD150からこの情報を読み出し、顔認識処理の結果とあわせて、店舗内における客の目の位置を、特定点の座標として算出する。CPU110は、算出した特定点の座標を現在の特定点の座標としてRAM130に記憶する。さらに、CPU110は、1サイクル前に算出した特定点の座標を前回の特定点の座標としてRAM130に記憶する。
ステップS134において、CPU110は、顔における目の位置に基づいて、視線の向きを算出する。すなわち、画像データは、目の位置を基準として視線の向きを示す方向ベクトルを算出する。このように画像から視線の向きが算出されるので、画像データは、特定点を基準とする向きを示す情報を含んでいるといえる。CPU110は、算出した方向ベクトルをRAM130に記憶する。
再び図7を参照する。ステップS140において、CPU110は、現在の特定点の位置と前回の特定点の位置の差が所定の範囲(誤差の範囲)を超えたか、すなわち特定点の位置が変化したか判断する。特定点の位置が変化したと判断された場合(S140:YES)、CPU110は、処理をステップS150に移行する。特定点の位置が変化していないと判断された場合(S140:NO)、CPU110は、処理をステップS130に移行する。ステップS150で説明する射影画像の抽出は、所定の時間間隔で繰り返し行われるが、それに加えて特定点が変化したというような特定のイベントが起こったときにも、射影画像の抽出が行われる。
ステップS150において、CPU110は、全体画像から射影画像を抽出する。射影画像の抽出は、窓を単位として、すなわち窓毎に行われる。詳細には以下のとおりである。まず、CPU110は、あらかじめ決められたアルゴリズムに従って、処理対象となる窓(以下「対象窓」という)を特定する。この例で、CPU110は、まず、特定点および方向ベクトルに対して所定の位置関係を満たす窓、より具体的には、特定点を基準とし、方向ベクトルとなす角度が所定の角度(例えば、人間の視野角に相当する角度)内にある窓を対象窓の候補として特定する。さらに、CPU110は、対象窓の候補として絞り込んだ窓の中から、特定点を基準とし、方向ベクトルとなす角度が小さい窓から1つずつ順番に対象窓を特定する。CPU110は、特定点を光源とし、仮想スクリーン上に対象窓を射影したときの射影の頂点の座標を算出する。
図11は、特定点を光源とし、仮想スクリーン上への対象窓の射影を例示する図である。特定点PSから対象窓Wの窓枠の頂点の座標を結ぶ直線と仮想スクリーンが交わる点P1、P2、P3、およびP4が、射影の頂点の座標である。CPU110は、仮想スクリーン上において射影により切り取られる画像を、対象窓にマッピングする。マッピングにより得られた画像が、射影画像である。
再び図7を参照する。ステップS160において、CPU110は、得られた射影画像を、対象窓に対応する画像形成装置40に出力する。さらに、CPU110は、射影画像の出力と同期して、外部装置70に制御信号を出力する。対象窓に対応する画像形成装置40は、対応情報により特定される。特に図7には示していないが、前景画像または背景画像が動画である場合に、ステップS130−160の処理は、所定の時間間隔で繰り返し行われる。
図12は、ステップS160における射影画像を画像形成装置40に出力する処理の詳細を示すフローチャートである。ステップS161において、CPU110は、装置情報を取得する。この例で、装置情報は、あらかじめHDD150に記憶されている。CPU110は、HDD150から読み出すことにより、装置情報を取得する。CPU110は、読み出した装置情報をRAM130に記憶する。
図13は、装置情報を例示する図である。装置情報は、外部装置70と画像形成装置40との対応関係を示す情報と、スクリーン50と画像形成装置40との位置関係を示す情報とを含んでいる。具体的には、装置情報は、外部装置IDと、画像形成装置IDと、画像形成装置の位置情報とを含んでいる。外部装置IDは、複数の外部装置70の中から1つの外部装置70を特定する識別子である。画像形成装置の位置情報は、スクリーン50との相対位置を示す情報である。図13の例で、外部装置IDがF1の外部装置70は、画像形成装置IDがP1およびP2の画像形成装置40と対応することが示されている。また、外部装置IDがF2の外部装置70は、画像形成装置IDがP3およびP4の画像形成装置40と対応することが示されている。画像形成装置IDがP5の画像形成装置40と対応する外部装置は、存在しない。画像形成装置IDがP1の画像形成装置40は、窓IDがW1の窓の右上の領域と対応することが示されている。以下、窓IDがWxの窓を単に「窓Wx」という。「窓W1」は窓IDがW1の窓を指す。
装置情報はさらに、画像形成装置40とスクリーン50との位置関係を詳細に特定する情報として、画像形成装置40の代表点(例えば、レンズの中心)の座標と、画像形成装置の向き(例えば、レンズの向き)を示す方向ベクトルとを含んでいる。図13の例で、画像形成装置IDがP1の画像形成装置40は、座標系上において点(x1a,y1a,z1a)に位置し、ベクトル(x1b,y1b,z1b)で規定される方向を向いている。ここで用いられる座標系は、図8の窓情報に用いられた座標系と同じものである。したがって、窓情報を併用することにより、画像形成装置40とスクリーン50との詳細な位置関係が特定される。
再び図12を参照する。ステップS162において、CPU110は、画像データに対して、装置情報に応じた加工をする。詳細には以下のとおりである。まず、CPU110は、あらかじめ決められたアルゴリズムに従って、処理対象となる射影画像を特定する。このアルゴリズムは、例えば、窓IDに従って1つずつ順番に処理対象となる射影画像を特定するものである。ここでは、窓W1に対応する射影画像が処理対象となった場合を例に説明する。
次に、CPU110は、処理対象の射影画像を、n個に分割する。分割の数および方法は、装置情報に基づいて定められる。図13の例によれば、窓W1に対応する窓の数は4つ、すなわちn=4であることが示されている。また、窓W1は、右上、右下、左上、左下の4つの領域に分割されることが示されている。したがって、CPU110は、射影画像を、上下方向に2分割、左右方向に2分割し、合計4つの領域に分割する。
次に、CPU110は、分割された射影画像に対し、台形補正処理を行う。CPU110は、装置情報により示される、画像形成装置40とスクリーン50との詳細な位置関係から、台形補正のパラメータを算出する(この例で、装置情報はレンズの投射角等、台形補正に必要な情報も含んでいる)。CPU110は、分割された射影画像を、算出されたパラメータを用いて変形させることにより、台形補正処理をする。すなわち、CPU110は、スクリーン50と画像形成装置40(より正確には、画像形成装置40のレンズの光軸)とがなす角度に応じて前記分割された画像を変形する。
ステップS163において、CPU110は、加工された画像データを、画像形成装置40に出力する。加工された画像データと画像形成装置40とは、一対一に対応している。CPU110は、各画像データを、対応する画像形成装置40に出力する。
ステップS164において、CPU110は、外部装置に制御信号を出力する。サーバ20から送られてくる画像データは、外部装置70の制御に用いられるパラメータを含んでいる。この例で、外部装置の制御に用いられるパラメータは、対象となる外部装置を特定する情報、並びに風を発生させるタイミングおよび風の強さを示す情報を含んでいる。外部装置を特定する情報は、例えば、「右」や「上」など、スクリーン50との相対的位置関係を示す情報である。例えば、外部装置を特定する情報として「右」が与えられると、CPU110は、図13の装置情報を参照し、窓W1のうち「右」に対応する外部装置として、外部装置IDがF1(「右上」および「右下」という位置情報に対応)の外部装置70を特定する。別の例で、外部装置を特定する情報として「左下」が与えられると、CPU110は、図13の装置情報を参照し、窓W1のうち「左下」に対応する外部装置として、外部装置IDがF2の外部装置70を特定する。CPU110は、画像データからこれらのパラメータを抽出し、抽出したパラメータに従って制御信号を生成する。CPU110は、生成した制御信号を、USB−IF185を介して外部装置70に出力する。
CPU110は、対象となる射影画像を順次更新して、図12のフローを繰り返し実行する。
図14は、画像形成システム1により形成される画像を例示する図である。この例で、窓と窓の間には壁がある。仮想スクリーンには海の中を魚が泳いでいる画像が描かれ、窓には客の視点から見た射影画像が形成される。したがって、客から見ると窓にはあたかも自分が海中にいるような画像が形成される。例えば魚が窓と窓の間を泳いでいる途中では壁に隠れて魚の姿が見えなくなるので、店舗の内部によりリアルな画像が提供される。レストランやパチンコ店の改装にはコストと時間がかかるが、画像形成システム1によればコストと時間をかけずに、店の内観を変えることができる。
2−2.画像切り替え
本実施形態において、情報処理装置10は、ユーザの状態に応じて、第1の画像から第2の画像へ(または、その逆)画像を切り替える機能を有する。以下、背景画像として海中の画像を、前景として海中を泳ぐ魚の画像を含む画像(動画)が形成(表示)される例を説明する。以下の例において、第1の画像は、魚が海中を自由に泳ぎまわる画像であり、第2の画像は、魚がユーザのそばに集まってくる画像である。ユーザの状態は、ユーザが発声している音に基づいて定められる。ユーザが静かにしている状態が第1の状態であり、あらかじめ決められたしきい値以上の音量の音を発生している状態が第2の状態である。この例で、センサ60はマイク付きのカメラであり、マイクから出力される音声信号がユーザ情報を含む。すなわち、情報処理装置10は、センサ60からユーザ情報を取得する。
図15は、画像切り替え処理を示すフローチャートである。図15のフローは、例えば、図7のフローにより射影画像が出力されたことを契機として開始される。この例で、図15のフローは、図7のフローと並列で実行される。すなわち、情報処理装置10は、画像形成装置40に出力する画像を更新しつつ、ユーザの状態を監視し、ユーザの状態に応じて画像を切り替える。いま、図15のフローの開始時点において、ユーザの状態が第1の状態である場合を例に説明する。
ステップS200において、CPU110は、ユーザ情報を取得する。詳細には次のとおりである。CPU110は、センサ60から出力された音声信号から、音量を示す情報を、所定の時間間隔で算出する。CPU110は、算出した音量を示すデータ(以下「音量データ」という)を、RAM130に記憶する。RAM130には、所定のデータ量(例えば、過去10回分)の音量データの記憶に用いられる記憶領域が設定されている。
ステップS210において、CPU110は、ユーザの状態が変化したか、すなわち、画像の切り替え条件が満たされたか判断する。詳細には次のとおりである。CPU110は、RAM130に記憶された音量データに基づいて、切り替え条件が満たされたか判断する。切り替え条件は、例えば、直近の音量が、あらかじめ決められたしきい値を超えたというものである。あるいは、切り替え条件として、音量がしきい値を超えた状態が所定回数(例えば5回)継続したという条件や、過去の所定回数の音量の平均値がしきい値を超えたという条件が用いられてもよい。画像の切り替え条件が満たされていない、すなわちユーザの状態が変化していないと判断された場合(S210:NO)、CPU110は、処理をステップS200に移行する。ユーザの状態が変化したと判断された場合(S210:YES)、CPU110は、処理をステップS220に移行する。
ステップS220において、CPU110は、画像形成装置40に出力する画像を第2の画像に切り替える。詳細には次のとおりである。この例で、制御プログラムは、ステップS100における前景画像を更新するアルゴリズム(すなわちオブジェクトの動きを規定するアルゴリズム)として、2通りのアルゴリズムを含んでいる。第1のアルゴリズムは、第1の画像の生成に用いられるものである。第1のアルゴリズムは、オブジェクト(魚)をランダムに移動させるアルゴリズムである。第2のアルゴリズムは、第2の画像の生成に用いられるものである。オブジェクトに、基準点を基準とした運動をさせるアルゴリズムである。「基準点を基準とした運動」とは、例えば、基準点に近づく動きをいう。CPU110は、前景画像を更新するアルゴリズムを、第1のアルゴリズムから第2のアルゴリズムに切り替える。これにより、それまではランダムに動いていたオブジェクトが、基準点を基準とした運動をするように変化する。
この例で、基準点として、ステップS130で取得される特定点、すなわちユーザの位置が用いられる。したがって、ユーザが手を叩いたり、大声を出したりすることにより、しきい値以上の音量の音を発生させれば、それまでランダムに泳いでいた魚がユーザに向かって移動する画像が形成される。
ステップS230において、CPU110は、復帰条件が満たされたか判断する。「復帰条件」とは、形成させる画像を第2の画像から第1の画像へ変化させることのトリガとして用いられる条件をいう。復帰条件としては、例えば、第1の画像から第2の画像への切り替えが行われてから所定の時間が経過したという条件が用いられる。あるいは、復帰条件として、センサ60から出力される音声信号により示される音量がしきい値以下になったという条件が用いられてもよい。この場合は、ステップS230においてもユーザ情報を取得する必要がある。
復帰条件が満たされていないと判断された場合(S230:NO)、CPU110は、復帰条件が満たされるまで待機する。この間、第2の画像が形成され続ける。復帰条件が満たされたと判断された場合(S230:YES)、CPU110は、処理をステップS240に移行する。
ステップS240において、CPU110は、形成させる画像を第2の画像から第1の画像へ切り替える。すなわち、前景画像の更新に用いられるアルゴリズムを第1のアルゴリズムに切り替える。
第1の画像への切り替えが完了すると、CPU110は、図15のフローを再び実行する。このフローは、画像の形成が行われている間は繰り返し実行される。
図16は、第2の画像を例示する図である。ユーザの周りに魚が集まってくる画像が形成されている。画像形成システム1によれば、ユーザが手を叩くなど所定の条件が満たされれば、第1の画像(図14)から第2の画像(図16)への切り替えが行われるので、ユーザの興味をひくことができる。
3.他の実施形態
本発明は上述の実施形態に限定されるものではなく、これ以外の態様でも実施が可能である。以下、変形例をいくつか説明する。以下で説明する変形例のうち2つ以上のものが組み合わせて用いられてもよい。以下において、上述の実施形態と共通する事項については説明を省略し、また、共通する要素には共通の参照符号を用いて説明する。
3−1.変形例1
第1の画像と第2の画像を切り替える方法は、実施形態で説明したものに限定されない。例えば、以下の構成としてもよい。記憶手段S1は、第1の画像データおよび第2の画像データを記憶している。第1の画像データは、第1の画像として、有限の再生時間(例えば5分間)の動画を示す。この動画は、例えば、魚が部屋の中を1周する画像である。この動画が繰り返し再生されることにより、第1の画像が形成される。第2の画像データは、複数のサブデータを含む。複数のサブデータは、第1の画像データにより示される動画の、再生時間軸上の所定のタイミング(例えば、10秒おき)に対応する動画を示す。画像取得手段14は、記憶手段S1から画像データを取得する。具体的には、ユーザの状態が第2の状態にある場合、画像取得手段14は、複数のサブデータのうち、ユーザの状態が第1の状態から第2の状態に切り替わったタイミングに対応するサブデータを取得する。例えば、第1の画像データの再生時間軸の1分58秒の時点で、第1の状態から第2の状態に切り替わった場合、画像取得手段14は、複数のサブデータのうち、再生時間2分00秒に対応するサブデータ(1分58秒に最も近い再生時間に対応するサブデータ)を取得する。
3−2.変形例2
ユーザの状態は、音に関するものに限定されない。例えば、ユーザの動作に関する情報がユーザ情報として用いられてもよい。この場合、ユーザ情報取得手段13は、センサ60からユーザ情報として映像信号を取得する。情報処理装置10は、取得した映像信号を解析し、ユーザの動き(例えば、ユーザの手の動き)を示す情報を取得する。情報処理装置10は、この情報に基づいてユーザの状態が変化したか判断する。
3−3.変形例3
第2の画像における特定点を基準とした動きは、実施形態で説明したものに限定されない。特定点から所定の範囲内を移動する動き、特定点を中心として回転する動き、特定点を起点として離散していく動き等、特定点を動作の基準とするものであれば、どのようなものであってもよい。
3−4.変形例4
画像形成装置40に出力する画像を生成(抽出)する処理は図7で説明したものに限定されない。例えば図7のフローにおいて、特定点の変化を検出する処理(ステップS130およびS140)は省略されてもよい。すなわち、特定点は固定されていてもよい。
あるいは、全体画像から射影画像を抽出するのではなく、各画像形成装置40に出力すべき画像データを独立に生成または記憶し、これを各画像形成装置40に出力してもよい。
3−5.変形例5
ステップS162における画像の加工は、実施形態で説明したものに限定されない。n個の画像形成装置40に対応する画像データを生成するものであれば、サイズの変更、色空間の変更、解像度の変更、変形、画像の合成、分割、切り取りまたは抽出、もしくはこれらの組み合わせなどどのような処理が行われてもよい。
実施形態では、隣接する2つの画像形成装置40に出力される画像データが示す画像は、重なっている部分が無かった。しかし、隣接する2つの画像形成装置40に出力される画像データが示す画像は、オーバーラップする部分を有していてもよい。
3−6.変形例6
情報処理装置10は、全体画像を生成する機能、すなわち画像生成手段を有していなくてもよい。この場合、情報処理装置10は、通信手段を介して、サーバ20から全体画像を取得する。またこの場合、サーバ20は、全体画像を生成する機能を有する。サーバ20は、情報処理装置10に対していわゆるストリーミング配信の技術を用いて、全体画像を送信する。
3−7.変形例7
変形例6の場合において、情報処理装置10は、全体画像のうち一部のみをサーバ20から取得してもよい。この場合、まず情報処理装置10は、窓情報をサーバ20に送信する。サーバ20は、受信した窓情報を記憶する。サーバ20は、全体情報から、窓情報により特定される窓の位置に応じて全体画像の一部を切り出し、切り出した部分を情報処理装置10に送信する。
窓の位置に応じて全体画像から一部を切り出すアルゴリズムとしては、例えば、窓との距離が所定の範囲内にある部分を切り出すアルゴリズムが採用される。実際に画像形成装置40により形成されるのは窓の部分の画像だけであるから、窓の近傍の画像だけを送信すれば、ネットワークのトラフィックおよび処理すべきデータ量が削減される。
3−8.変形例8
特定点情報は向きを示す情報を含んでいなくてもよい。あるいは、特定点情報が向きを示す情報を含んでいた場合でも、情報処理装置10は、向きを示す情報に応じた処理をしなくてもよい。すなわち、図10のステップS134の処理は省略されてもよい。この場合、CPU110は、視線の向きに応じた対象窓の絞り込みを行わなくてもよい。
3−9.変形例9
射影画像の抽出を行うタイミングは、実施形態で説明したものに限定されない。図7のステップS140の割り込み判定が行わなくてもよい。この場合、射影画像は、所定の時間間隔で定期的に抽出される。
3−10.変形例10
情報処理装置10に特定点情報を供給するセンサ60は、実施形態で説明したカメラに限定されない。特定点情報を供給できるものであれば、どのようなセンサが用いられてもよい。例えば、センサ60としてRFID(Radio Frequency IDentification)リーダが用いられてもよい。この場合、客はRFIDタグを身に付ける。RFIDリーダをレストランのフロアやテーブルに一定の間隔で配置することにより、客の位置を特定することができる。その他、光センサ、温度センサ、タッチセンサ、静電センサなどが用いられてもよい。
また、センサの配置は、特定点の位置を、システムが要求する精度で特定できるものであれば、どのような配置であってもよい。例えば、一つのテーブルを囲むように複数のカメラを配置してもよいし、スクリーン50の周辺に1台のカメラを配置してもよい。
3−11.変形例11
特定点情報の取得元は、センサ60に限定されない。特定点情報取得手段は、RAM130等の記憶手段S1から特定点情報を取得してもよい。この場合、店員が特定点情報として客の位置を情報処理装置10にマニュアルで入力し、情報処理装置10のCPU110は、入力された特定点情報をRAM130に記憶する。図7のステップS130において、CPU110は、RAM130から特定点情報を読み出すことにより、特定点情報を取得する。別の例で、特定点の位置は、システムの設計上ある位置に固定されていてもよい。この場合、特定点情報は、システムのパラメータとしてHDD150に記憶されている。CPU110は、HDD150から特定点情報を読み出すことにより、特定点情報を取得する。
3−12.変形例12
仮想スクリーンは、実施形態で説明したものに限定されない。あらかじめ決められた大きさおよび形状を有し、部屋(窓)との位置関係が規定されているものであれば、どのような仮想スクリーンが用いられてもよい。例えば、仮想スクリーンの形状は半球でなく、球、直方体、多角形、またはこれらの組み合わせなど、どのような形状でもよい。また、図11では仮想スクリーンが部屋の外側にある例を説明したが、仮想スクリーンはその一部または全部が部屋の中にあってもよい。
3−13.変形例13
画像形成装置40とスクリーン50の位置関係は、図6で説明したものに限定されない。店舗の壁が一枚であり、店舗内にある画像形成装置40から窓に画像を投射する構成としてもよい。あるいは、壁や窓以外のものがスクリーン50として用いられてもよい。
3−14.変形例14
画像形成装置40はプロジェクタに限定されない。スクリーン50に画像を形成できるのであれば、どのような装置であってもよい。また、画像形成装置40は、スクリーン50を内蔵していてもよい。例えば、画像形成装置40は、リアプロジェクションディスプレイ、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、プラズマディスプレイであってもよい。
3−15.変形例15
本稿でいう「窓」は、現実および仮想の窓の双方を含む。「現実の窓」とは、物理的な構造体としての窓をいう。この場合、図6のように窓枠とスクリーン50とが異なる面に形成される構造であってもよいし、スクリーン50が窓枠と同じ面(すなわち窓枠の中)に形成される構造であってもよい。「仮想の窓」とは、物理的な構造体としての窓ではないスクリーン50に窓枠も含めた画像を形成したもの、すなわち壁に窓枠も含めた画像を形成したものをいう。
3−16.変形例16
窓情報の取得元は、HDD150に限定されない。窓情報取得手段11は、情報処理装置10以外の他の装置から窓情報を取得してもよい。特に、仮想の窓が用いられ、窓の位置が変化する場合に、窓の位置を検出する装置から窓情報を取得してもよい。また、窓情報の形式は、図8に例示されるものに限定されない。例えば、窓の形状があらかじめ決められたものに限定されている場合、その形状に応じたパラメータが窓情報として用いられる。具体的には、窓の形状が円であれば、中心の座標および半径が窓情報として用いられる。あるいは、窓の形状が長方形であれば、対角線の端点の座標が窓情報として用いられる。
さらに、装置情報の取得元も、HDD150に限定されない。装置情報取得手段は、情報処理装置10以外の他の装置から窓情報を取得してもよい。
3−17.変形例17
全体画像、窓情報、対応情報、および特定点情報を取得する順番は図7に示されるものに限定されない。射影画像を抽出する時点で処理に用いられる情報が取得できていれば、これらの情報がどのような順番で取得されてもよい。
また、画像データおよび制御信号を出力する順番は図12に示されるものに限定されない。画像形成装置40に画像データを、外部装置70に制御信号を出力するものであれば、これらのデータ、信号がどのような順番で出力されてもよい。
3−18.変形例18
外部装置70は、実施形態で説明したものに限定されない。情報処理装置10からの制御信号に従って動作するものであれば、どのような装置が外部装置70として用いられてもよい。例えば、窓近傍の物理状態(風量、温度、光量、湿度、音など)を変化させるもの(扇風機、エアコン、照明器具、スピーカーなど)が用いられてもよい。
3−19.他の変形例
情報処理装置10のハードウェア構成は図3で示されるものに限定されない。必要な機能構成を実現できるものであれば、どのようなハードウェア構成を有する装置が用いられてもよい。また、情報処理装置10の機能構成とハードウェア構成の対応関係は、実施形態で説明したものに限定されない。例えば上述の実施形態では、制御プログラムを実行しているCPU110が、窓情報取得手段11、対応情報取得手段12、ユーザ情報取得手段13、画像取得手段14、出力手段15、画像取得手段16、特定点情報取得手段17および画像抽出手段18、位置情報取得手段19としての機能を兼ね備えていたが、これらのうち1つ以上の機能が、CPU110以外のプロセッサにより実装されてもよい。また、各機能構成要素は、汎用プロセッサとプログラムの協働により実装されてもよいし、ASIC(Application Specific Integrated Circuit)のように特定の機能を有するプロセッサとして実装されてもよい。あるいは、物理的に別体の複数のプロセッサが協働して、これらの要素として機能してもよい。サーバ20についても同様である。
画像形成装置40が、情報処理装置10としての機能を兼ね備えていてもよい。
実施形態では部屋に複数の窓が存在する例について説明したが、部屋の窓の数はひとつであってもよい。
上述の実施形態においてCPU110またはCPU210によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))など)、光記録媒体(光ディスク(CD(Compact Disk)、DVD(Digital Versatile Disk))など)、光磁気記録媒体、半導体メモリ(フラッシュROMなど)などのコンピュータ読取り可能な記録媒体に記憶した状態で提供されてもよい。また、このプログラムは、インターネットのようなネットワーク経由でダウンロードされてもよい。
一実施形態に係る画像形成システム1の構成を示すブロック図である。 情報処理装置10の機能構成を示す図である。 情報処理装置10のハードウェア構成を示す図である。 サーバ20の機能構成を示す図である。 サーバ20のハードウェア構成を示す図である。 画像形成装置40とスクリーン50との位置関係を例示する図である。 画像形成システム1の動作を示すフローチャートである。 窓情報を例示する図である。 対応情報を例示する図である。 特定点の座標を算出する処理を示すフローチャートである。 仮想スクリーン上への対象窓の射影を例示する図である。 射影画像を出力する処理の詳細を示すフローチャートである。 装置情報を例示する図である。 画像形成システム1により形成される画像を例示する図である。 画像切り替え処理を示すフローチャートである。 第2の画像を例示する図である。
符号の説明
S1…記憶手段、1…画像形成システム、S2…記憶手段、10…情報処理装置、11…窓情報取得手段、12…対応情報取得手段、13…ユーザ情報取得手段、14…画像取得手段、15…出力手段、16…画像取得手段、17…特定点情報取得手段、18…画像抽出手段、19…位置情報取得手段、20…サーバ、22…選択手段、23…出力手段、30…ネットワーク、40…画像形成装置、50…スクリーン、60…センサ、70…外部装置、110…CPU、120…ROM、130…RAM、140…I/F、150…HDD、160…キーボード・マウス、170…ディスプレイ、180…ネットワークIF、185…USB−IF、190…バス、210…CPU、220…ROM、230…RAM、240…I/F、250…HDD、260…キーボード・マウス、270…ディスプレイ、280…ネットワークIF、290…バス

Claims (8)

  1. 部屋の壁に設けられた窓の位置および形状を特定する窓情報を取得する窓情報取得手段と、
    前記窓情報により特定される窓と、前記窓の枠を通して見える位置に画像を形成する画像形成装置とを対応させる対応情報を取得する対応情報取得手段と、
    前記部屋の中に設置されたセンサから、前記部屋の中にいるユーザがあらかじめ決められた第1の状態にあるか前記第1の状態とは異なる第2の状態にあるかを示すユーザ情報を取得するユーザ情報取得手段と、
    前記ユーザが前記第1の状態にあるときは第1の画像データを取得し、前記ユーザが前記第2の状態にあるときは第2の画像データを取得する第1の画像取得手段と、
    前記第1の画像取得手段により取得された画像データを、前記対応情報により特定された、前記窓に対応する画像形成装置に出力する出力手段と
    を有する情報処理装置。
  2. 前記窓と所定の位置関係にある仮想スクリーン上に描かれる画像を示す画像データを取得する第2の画像取得手段と、
    前記部屋の中にある特定点の位置を特定する特定点情報を取得する特定点情報取得手段と、
    前記第2の画像取得手段により取得された画像データにより示される画像に対して前記特定点を光源としたときの前記窓における射影を示す画像を抽出する画像抽出手段と
    を有し、
    前記第1の画像取得手段は、前記画像抽出手段により抽出された画像を示す画像データを取得する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記ユーザの位置を示す位置情報を取得する位置情報取得手段を有し、
    前記第2の画像取得手段により取得される画像データにより示される画像が、重ねて表示される第3の画像および第4の画像を含み、
    前記第3の画像が、複数のオブジェクトを含み、
    前記第2の画像データにより示される画像は、前記複数のオブジェクトが、前記位置情報により特定された位置に向かって移動する画像である
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記ユーザ情報が前記位置情報を含み、
    前記位置情報取得手段は、前記ユーザ情報取得手段により取得されたユーザ情報から、前記位置情報を取得する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記第1の画像データおよび前記第2の画像データを記憶する記憶手段を有し、
    前記第1の画像データは、有限の再生時間の動画を示し、
    前記第2の画像データは、前記第1の画像データにより示される動画の、再生時間軸上の所定のタイミングに対応する動画を示す、複数のサブデータを含み、
    前記第1の画像取得手段は、前記記憶手段から画像データを取得し、
    前記ユーザの状態が前記第2の状態にある場合、前記複数のサブデータのうち、前記ユーザの状態が前記第1の状態から前記第2の状態に切り替わったタイミングに対応するサブデータを取得する
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記センサがマイクであり、
    前記第2の状態が、前記ユーザが所定の音量以上の音を発生している状態である
    ことを特徴とする請求項1−5のいずれかの項に記載の情報処理装置。
  7. 前記センサがカメラであり、
    前記第2の状態が、前記ユーザが所定の動作を行っている状態である
    ことを特徴とする請求項1−5のいずれかの項に記載の情報処理装置。
  8. コンピュータ装置に、
    部屋の壁に設けられた窓の位置および形状を特定する窓情報を取得するステップと、
    前記窓情報により特定される窓と、前記窓の枠を通して見える位置に画像を形成する画像形成装置とを対応させる対応情報を取得するステップと、
    前記部屋の中に設置されたセンサから、前記部屋の中にいるユーザがあらかじめ決められた第1の状態にあるか前記第1の状態とは異なる第2の状態にあるかを示すユーザ情報を取得するステップと、
    前記ユーザが前記第1の状態にあるときは第1の画像データを取得し、前記ユーザが前記第2の状態にあるときは第2の画像データを取得するステップと、
    前記取得された画像データを、前記対応情報により特定された、前記窓に対応する画像形成装置に出力するステップと
    を実行させるためのプログラム。
JP2008250949A 2008-09-29 2008-09-29 情報処理装置およびプログラム Expired - Fee Related JP5304148B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008250949A JP5304148B2 (ja) 2008-09-29 2008-09-29 情報処理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008250949A JP5304148B2 (ja) 2008-09-29 2008-09-29 情報処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2010086014A true JP2010086014A (ja) 2010-04-15
JP5304148B2 JP5304148B2 (ja) 2013-10-02

Family

ID=42249962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008250949A Expired - Fee Related JP5304148B2 (ja) 2008-09-29 2008-09-29 情報処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP5304148B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010091728A (ja) * 2008-10-07 2010-04-22 Seiko Epson Corp 情報処理装置およびプログラム
JP2014048748A (ja) * 2012-08-29 2014-03-17 Sharp Corp 制御装置、制御装置の制御方法及び制御プログラム
JP2015519624A (ja) * 2012-02-24 2015-07-09 トーマス ジェイ モスカリッロMOSCARILLO, Thomas, J. ジェスチャー認識装置及び方法
WO2021106614A1 (ja) * 2019-11-29 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0584732U (ja) * 1992-04-20 1993-11-16 株式会社大林組 疑似窓
JPH10340061A (ja) * 1997-04-07 1998-12-22 Masahiko Hayashi 映像鑑賞施設
JP2001036897A (ja) * 1999-07-16 2001-02-09 Sega Corp 映像表示システム
JP2002163344A (ja) * 2000-11-24 2002-06-07 Matsushita Electric Ind Co Ltd 店舗情報表示システム
JP2005157135A (ja) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> 情報表示方法及びシステム及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0584732U (ja) * 1992-04-20 1993-11-16 株式会社大林組 疑似窓
JPH10340061A (ja) * 1997-04-07 1998-12-22 Masahiko Hayashi 映像鑑賞施設
JP2001036897A (ja) * 1999-07-16 2001-02-09 Sega Corp 映像表示システム
JP2002163344A (ja) * 2000-11-24 2002-06-07 Matsushita Electric Ind Co Ltd 店舗情報表示システム
JP2005157135A (ja) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> 情報表示方法及びシステム及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010091728A (ja) * 2008-10-07 2010-04-22 Seiko Epson Corp 情報処理装置およびプログラム
JP2015519624A (ja) * 2012-02-24 2015-07-09 トーマス ジェイ モスカリッロMOSCARILLO, Thomas, J. ジェスチャー認識装置及び方法
US11009961B2 (en) 2012-02-24 2021-05-18 Thomas J. Moscarillo Gesture recognition devices and methods
JP2014048748A (ja) * 2012-08-29 2014-03-17 Sharp Corp 制御装置、制御装置の制御方法及び制御プログラム
WO2021106614A1 (ja) * 2019-11-29 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
JP5304148B2 (ja) 2013-10-02

Similar Documents

Publication Publication Date Title
JP6511386B2 (ja) 情報処理装置および画像生成方法
JP6246914B2 (ja) 未知の対象物に対する拡張現実コンテンツの生成
US10725297B2 (en) Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US10539797B2 (en) Method of providing virtual space, program therefor, and recording medium
US20200225737A1 (en) Method, apparatus and system providing alternative reality environment
US9723293B1 (en) Identifying projection surfaces in augmented reality environments
JP7073481B2 (ja) 画像表示システム
CN102591016A (zh) 用于扩展现实显示的优化聚焦区
CN102566756A (zh) 用于扩展现实显示的基于理解力和意图的内容
KR20140014160A (ko) 실감형 디스플레이 경험
US20200342671A1 (en) Information processing apparatus, information processing method, and program
JP6126271B1 (ja) 仮想空間を提供する方法、プログラム及び記録媒体
WO2018113759A1 (zh) 基于定位系统和ar/mr的探测系统及探测方法
JP5304148B2 (ja) 情報処理装置およびプログラム
JP2019012443A (ja) ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置
US11855742B2 (en) Near field communication antenna system for a playset
CN114915827A (zh) 动态图像分发系统及其方法和记录介质
WO2021124920A1 (ja) 情報処理装置、情報処理方法、および記録媒体
KR20220011152A (ko) 룸 모드의 로컬 효과를 통합하기 위한 음향 필터 결정
JP2022097850A (ja) 表示システム、表示装置、及びプログラム
US20200125398A1 (en) Information processing apparatus, method for processing information, and program
JP6126272B1 (ja) 仮想空間を提供する方法、プログラム及び記録媒体
JP5181980B2 (ja) 情報処理装置およびプログラム
JP5120181B2 (ja) 画像処理装置およびプログラム
US11918928B2 (en) Virtual presentation of a playset

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130610

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees