JP2010086014A - 情報処理装置およびプログラム - Google Patents
情報処理装置およびプログラム Download PDFInfo
- Publication number
- JP2010086014A JP2010086014A JP2008250949A JP2008250949A JP2010086014A JP 2010086014 A JP2010086014 A JP 2010086014A JP 2008250949 A JP2008250949 A JP 2008250949A JP 2008250949 A JP2008250949 A JP 2008250949A JP 2010086014 A JP2010086014 A JP 2010086014A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- window
- user
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
Abstract
【解決手段】情報処理装置は、部屋の壁に設けられた窓の位置および形状を特定する窓情報を取得する窓情報取得手段と、前記窓情報により特定される窓と、前記窓の枠を通して見える位置に画像を形成する画像形成装置とを対応させる対応情報を取得する対応情報取得手段と、前記部屋の中に設置されたセンサから、前記部屋の中にいるユーザがあらかじめ決められた第1の状態にあるか前記第1の状態とは異なる第2の状態にあるかを示すユーザ情報を取得するユーザ情報取得手段と、前記ユーザが前記第1の状態にあるときは第1の画像データを取得し、前記ユーザが前記第2の状態にあるときは第2の画像データを取得する第1の画像取得手段と、前記第1の画像取得手段により取得された画像データを、前記対応情報により特定された、前記窓に対応する画像形成装置に出力する出力手段とを有する。
【選択図】図2
Description
ここで、例えば特許文献1には、3次元仮想空間内で任意の画像を抽出するシステムが、特許文献2には、スクリーンに全体画像を投影する際に複数の部分画像に分けて投影する技術が開示されている。
これに対し本発明は、より低コストで店舗等の部屋の内観を変更する技術を提供する。
この情報処理装置によれば、ユーザの状態に応じて画像が切り替えられる。
この情報処理装置によれば、ユーザの状態に応じて、仮想スクリーン上に描かれた画像から抽出される画像が切り替えられる。
この情報処理装置によれば、ユーザの状態に応じて、オブジェクトがユーザに向かって移動する画像が形成される。
このプログラムによれば、ユーザの状態に応じて画像が切り替えられる。
図1は、本発明の一実施形態に係る画像形成システム1の構成を示すブロック図である。画像形成システム1は、いわゆるデジタルサイネージシステムである。画像形成システム1は、店舗等の所定の部屋の中に画像を形成する。画像形成システム1は、複数の画像形成装置40(画像形成装置40−1、画像形成装置40−2、画像形成装置40−3、画像形成装置40−4、画像形成装置40−5、画像形成装置40−6、画像形成装置40−7)と、複数のスクリーン50(スクリーン50−1、スクリーン50−2、スクリーン50−3)と、複数のセンサ60(センサ60−1、センサ60−2、センサ60−3)と、複数の外部装置70(外部装置70−1、外部装置70−2、外部装置70−3)と、情報処理装置10と、サーバ20とを有する。
図2は、情報処理装置10の機能構成を示す図である。情報処理装置10は、複数の画像形成装置40を制御する、画像処理装置の一例である。窓情報取得手段11は、窓情報を取得する。「窓情報」とは、ある部屋に存在する窓の位置および形状を特定する情報をいう。対応情報取得手段12は、対応情報を取得する。「対応情報」とは、窓と画像形成装置とを対応させる情報をいう。画像形成装置40は、窓の枠を通して見える位置に画像を形成する。「窓の枠を通して見える位置に画像を形成する」とは、部屋の内部から窓を見たときに、画像形成装置40により形成される画像の少なくとも一部が、窓の枠の中に形成されることをいう。ユーザ情報取得手段13は、部屋の中に設置されたセンサから、ユーザ情報を取得する。「ユーザ情報」とは、店舗等の部屋の中にいるユーザ(室内にいる客)があらかじめ決められた第1の状態にあるか第1の状態とは異なる第2の状態にあるかを示す情報をいう。画像取得手段14は、ユーザが第1の状態にあるときは第1の画像データを取得し、ユーザが第2の状態にあるときは第2の画像データを取得する。出力手段15は、画像取得手段14により取得された画像データを、対応情報により特定された窓に対応することが示される画像形成装置40に出力する。
図4は、サーバ20の機能構成を示す図である。記憶手段S2は、全体画像の生成に用いられるデータを記憶している。「全体画像の生成に用いられるデータ」とは、全体画像そのもの、あるいは、全体画像の素材を示すデータ(以下、「素材データ」という)である。「全体画像の素材」は、背景画像および前景画像を含む。「前景画像」は複数のオブジェクトを含む。例えば、背景画像は海の中の風景(海底、岩、海水など)を示す画像であり、前景画像は、海の中で動いているもの(魚、海藻など)を示す画像である。「画像」は静止画および動画を含む概念である。選択手段22は、あらかじめ決められたアルゴリズムに従って、選択手段22に記憶されているデータの中から、情報処理装置10に出力するデータを選択する。このアルゴリズムは、例えば、情報処理装置10のリクエストに応じてデータを選択するものである。あるいは、このアルゴリズムは、情報処理装置10の属性(情報処理装置10が設置されている場所、設置されている部屋の大きさまたは用途、情報処理装置10が設置されている場所の時刻など)に応じてデータを選択するものである。出力手段23は、選択手段22により選択されたデータを情報処理装置10に出力する。
画像形成装置40は、スクリーン50に画像を形成する装置である。この例で、画像形成装置40は、スクリーン50に映像を投射するプロジェクタである。画像形成装置40はUSB−IF185を介して情報処理装置10に接続されている。情報処理装置10は、形成する画像を示すデータを、USB−IF185を介して画像形成装置40に供給する。
センサ60は、室内の状態をセンシングする装置である。この例で、センサ60はカメラすなわち画像センサである。センサ60は、室内の所定の位置に複数設置されている。センサ60はUSB−IF185を介して情報処理装置10に接続されている。情報処理装置10は、カメラが取得した画像を、USB−IF185を介して取得する。
外部装置70は、情報処理装置10からの制御信号に従って動作する装置である。この例で、外部装置70は風を発生させる装置すなわち送風機である。外部装置70はUSB−IF185を介して情報処理装置10に接続されている。情報処理装置10は、USB−IF185を介して、外部装置70に制御信号を出力する。
2−1.画像形成
続いて、画像形成システム1の動作を説明する。ここでは、部屋がレストランの店舗であり、店舗内の窓に映像を投影する例について説明する。また、この例で仮想スクリーンは半球のドーム状の形状を有している。この半球は、中心が店舗の床の重心と一致するように設定されている。
本実施形態において、情報処理装置10は、ユーザの状態に応じて、第1の画像から第2の画像へ(または、その逆)画像を切り替える機能を有する。以下、背景画像として海中の画像を、前景として海中を泳ぐ魚の画像を含む画像(動画)が形成(表示)される例を説明する。以下の例において、第1の画像は、魚が海中を自由に泳ぎまわる画像であり、第2の画像は、魚がユーザのそばに集まってくる画像である。ユーザの状態は、ユーザが発声している音に基づいて定められる。ユーザが静かにしている状態が第1の状態であり、あらかじめ決められたしきい値以上の音量の音を発生している状態が第2の状態である。この例で、センサ60はマイク付きのカメラであり、マイクから出力される音声信号がユーザ情報を含む。すなわち、情報処理装置10は、センサ60からユーザ情報を取得する。
第1の画像への切り替えが完了すると、CPU110は、図15のフローを再び実行する。このフローは、画像の形成が行われている間は繰り返し実行される。
本発明は上述の実施形態に限定されるものではなく、これ以外の態様でも実施が可能である。以下、変形例をいくつか説明する。以下で説明する変形例のうち2つ以上のものが組み合わせて用いられてもよい。以下において、上述の実施形態と共通する事項については説明を省略し、また、共通する要素には共通の参照符号を用いて説明する。
第1の画像と第2の画像を切り替える方法は、実施形態で説明したものに限定されない。例えば、以下の構成としてもよい。記憶手段S1は、第1の画像データおよび第2の画像データを記憶している。第1の画像データは、第1の画像として、有限の再生時間(例えば5分間)の動画を示す。この動画は、例えば、魚が部屋の中を1周する画像である。この動画が繰り返し再生されることにより、第1の画像が形成される。第2の画像データは、複数のサブデータを含む。複数のサブデータは、第1の画像データにより示される動画の、再生時間軸上の所定のタイミング(例えば、10秒おき)に対応する動画を示す。画像取得手段14は、記憶手段S1から画像データを取得する。具体的には、ユーザの状態が第2の状態にある場合、画像取得手段14は、複数のサブデータのうち、ユーザの状態が第1の状態から第2の状態に切り替わったタイミングに対応するサブデータを取得する。例えば、第1の画像データの再生時間軸の1分58秒の時点で、第1の状態から第2の状態に切り替わった場合、画像取得手段14は、複数のサブデータのうち、再生時間2分00秒に対応するサブデータ(1分58秒に最も近い再生時間に対応するサブデータ)を取得する。
ユーザの状態は、音に関するものに限定されない。例えば、ユーザの動作に関する情報がユーザ情報として用いられてもよい。この場合、ユーザ情報取得手段13は、センサ60からユーザ情報として映像信号を取得する。情報処理装置10は、取得した映像信号を解析し、ユーザの動き(例えば、ユーザの手の動き)を示す情報を取得する。情報処理装置10は、この情報に基づいてユーザの状態が変化したか判断する。
第2の画像における特定点を基準とした動きは、実施形態で説明したものに限定されない。特定点から所定の範囲内を移動する動き、特定点を中心として回転する動き、特定点を起点として離散していく動き等、特定点を動作の基準とするものであれば、どのようなものであってもよい。
画像形成装置40に出力する画像を生成(抽出)する処理は図7で説明したものに限定されない。例えば図7のフローにおいて、特定点の変化を検出する処理(ステップS130およびS140)は省略されてもよい。すなわち、特定点は固定されていてもよい。
あるいは、全体画像から射影画像を抽出するのではなく、各画像形成装置40に出力すべき画像データを独立に生成または記憶し、これを各画像形成装置40に出力してもよい。
ステップS162における画像の加工は、実施形態で説明したものに限定されない。n個の画像形成装置40に対応する画像データを生成するものであれば、サイズの変更、色空間の変更、解像度の変更、変形、画像の合成、分割、切り取りまたは抽出、もしくはこれらの組み合わせなどどのような処理が行われてもよい。
情報処理装置10は、全体画像を生成する機能、すなわち画像生成手段を有していなくてもよい。この場合、情報処理装置10は、通信手段を介して、サーバ20から全体画像を取得する。またこの場合、サーバ20は、全体画像を生成する機能を有する。サーバ20は、情報処理装置10に対していわゆるストリーミング配信の技術を用いて、全体画像を送信する。
変形例6の場合において、情報処理装置10は、全体画像のうち一部のみをサーバ20から取得してもよい。この場合、まず情報処理装置10は、窓情報をサーバ20に送信する。サーバ20は、受信した窓情報を記憶する。サーバ20は、全体情報から、窓情報により特定される窓の位置に応じて全体画像の一部を切り出し、切り出した部分を情報処理装置10に送信する。
特定点情報は向きを示す情報を含んでいなくてもよい。あるいは、特定点情報が向きを示す情報を含んでいた場合でも、情報処理装置10は、向きを示す情報に応じた処理をしなくてもよい。すなわち、図10のステップS134の処理は省略されてもよい。この場合、CPU110は、視線の向きに応じた対象窓の絞り込みを行わなくてもよい。
射影画像の抽出を行うタイミングは、実施形態で説明したものに限定されない。図7のステップS140の割り込み判定が行わなくてもよい。この場合、射影画像は、所定の時間間隔で定期的に抽出される。
情報処理装置10に特定点情報を供給するセンサ60は、実施形態で説明したカメラに限定されない。特定点情報を供給できるものであれば、どのようなセンサが用いられてもよい。例えば、センサ60としてRFID(Radio Frequency IDentification)リーダが用いられてもよい。この場合、客はRFIDタグを身に付ける。RFIDリーダをレストランのフロアやテーブルに一定の間隔で配置することにより、客の位置を特定することができる。その他、光センサ、温度センサ、タッチセンサ、静電センサなどが用いられてもよい。
特定点情報の取得元は、センサ60に限定されない。特定点情報取得手段は、RAM130等の記憶手段S1から特定点情報を取得してもよい。この場合、店員が特定点情報として客の位置を情報処理装置10にマニュアルで入力し、情報処理装置10のCPU110は、入力された特定点情報をRAM130に記憶する。図7のステップS130において、CPU110は、RAM130から特定点情報を読み出すことにより、特定点情報を取得する。別の例で、特定点の位置は、システムの設計上ある位置に固定されていてもよい。この場合、特定点情報は、システムのパラメータとしてHDD150に記憶されている。CPU110は、HDD150から特定点情報を読み出すことにより、特定点情報を取得する。
仮想スクリーンは、実施形態で説明したものに限定されない。あらかじめ決められた大きさおよび形状を有し、部屋(窓)との位置関係が規定されているものであれば、どのような仮想スクリーンが用いられてもよい。例えば、仮想スクリーンの形状は半球でなく、球、直方体、多角形、またはこれらの組み合わせなど、どのような形状でもよい。また、図11では仮想スクリーンが部屋の外側にある例を説明したが、仮想スクリーンはその一部または全部が部屋の中にあってもよい。
画像形成装置40とスクリーン50の位置関係は、図6で説明したものに限定されない。店舗の壁が一枚であり、店舗内にある画像形成装置40から窓に画像を投射する構成としてもよい。あるいは、壁や窓以外のものがスクリーン50として用いられてもよい。
画像形成装置40はプロジェクタに限定されない。スクリーン50に画像を形成できるのであれば、どのような装置であってもよい。また、画像形成装置40は、スクリーン50を内蔵していてもよい。例えば、画像形成装置40は、リアプロジェクションディスプレイ、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、プラズマディスプレイであってもよい。
本稿でいう「窓」は、現実および仮想の窓の双方を含む。「現実の窓」とは、物理的な構造体としての窓をいう。この場合、図6のように窓枠とスクリーン50とが異なる面に形成される構造であってもよいし、スクリーン50が窓枠と同じ面(すなわち窓枠の中)に形成される構造であってもよい。「仮想の窓」とは、物理的な構造体としての窓ではないスクリーン50に窓枠も含めた画像を形成したもの、すなわち壁に窓枠も含めた画像を形成したものをいう。
窓情報の取得元は、HDD150に限定されない。窓情報取得手段11は、情報処理装置10以外の他の装置から窓情報を取得してもよい。特に、仮想の窓が用いられ、窓の位置が変化する場合に、窓の位置を検出する装置から窓情報を取得してもよい。また、窓情報の形式は、図8に例示されるものに限定されない。例えば、窓の形状があらかじめ決められたものに限定されている場合、その形状に応じたパラメータが窓情報として用いられる。具体的には、窓の形状が円であれば、中心の座標および半径が窓情報として用いられる。あるいは、窓の形状が長方形であれば、対角線の端点の座標が窓情報として用いられる。
全体画像、窓情報、対応情報、および特定点情報を取得する順番は図7に示されるものに限定されない。射影画像を抽出する時点で処理に用いられる情報が取得できていれば、これらの情報がどのような順番で取得されてもよい。
また、画像データおよび制御信号を出力する順番は図12に示されるものに限定されない。画像形成装置40に画像データを、外部装置70に制御信号を出力するものであれば、これらのデータ、信号がどのような順番で出力されてもよい。
外部装置70は、実施形態で説明したものに限定されない。情報処理装置10からの制御信号に従って動作するものであれば、どのような装置が外部装置70として用いられてもよい。例えば、窓近傍の物理状態(風量、温度、光量、湿度、音など)を変化させるもの(扇風機、エアコン、照明器具、スピーカーなど)が用いられてもよい。
情報処理装置10のハードウェア構成は図3で示されるものに限定されない。必要な機能構成を実現できるものであれば、どのようなハードウェア構成を有する装置が用いられてもよい。また、情報処理装置10の機能構成とハードウェア構成の対応関係は、実施形態で説明したものに限定されない。例えば上述の実施形態では、制御プログラムを実行しているCPU110が、窓情報取得手段11、対応情報取得手段12、ユーザ情報取得手段13、画像取得手段14、出力手段15、画像取得手段16、特定点情報取得手段17および画像抽出手段18、位置情報取得手段19としての機能を兼ね備えていたが、これらのうち1つ以上の機能が、CPU110以外のプロセッサにより実装されてもよい。また、各機能構成要素は、汎用プロセッサとプログラムの協働により実装されてもよいし、ASIC(Application Specific Integrated Circuit)のように特定の機能を有するプロセッサとして実装されてもよい。あるいは、物理的に別体の複数のプロセッサが協働して、これらの要素として機能してもよい。サーバ20についても同様である。
Claims (8)
- 部屋の壁に設けられた窓の位置および形状を特定する窓情報を取得する窓情報取得手段と、
前記窓情報により特定される窓と、前記窓の枠を通して見える位置に画像を形成する画像形成装置とを対応させる対応情報を取得する対応情報取得手段と、
前記部屋の中に設置されたセンサから、前記部屋の中にいるユーザがあらかじめ決められた第1の状態にあるか前記第1の状態とは異なる第2の状態にあるかを示すユーザ情報を取得するユーザ情報取得手段と、
前記ユーザが前記第1の状態にあるときは第1の画像データを取得し、前記ユーザが前記第2の状態にあるときは第2の画像データを取得する第1の画像取得手段と、
前記第1の画像取得手段により取得された画像データを、前記対応情報により特定された、前記窓に対応する画像形成装置に出力する出力手段と
を有する情報処理装置。 - 前記窓と所定の位置関係にある仮想スクリーン上に描かれる画像を示す画像データを取得する第2の画像取得手段と、
前記部屋の中にある特定点の位置を特定する特定点情報を取得する特定点情報取得手段と、
前記第2の画像取得手段により取得された画像データにより示される画像に対して前記特定点を光源としたときの前記窓における射影を示す画像を抽出する画像抽出手段と
を有し、
前記第1の画像取得手段は、前記画像抽出手段により抽出された画像を示す画像データを取得する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記ユーザの位置を示す位置情報を取得する位置情報取得手段を有し、
前記第2の画像取得手段により取得される画像データにより示される画像が、重ねて表示される第3の画像および第4の画像を含み、
前記第3の画像が、複数のオブジェクトを含み、
前記第2の画像データにより示される画像は、前記複数のオブジェクトが、前記位置情報により特定された位置に向かって移動する画像である
ことを特徴とする請求項2に記載の情報処理装置。 - 前記ユーザ情報が前記位置情報を含み、
前記位置情報取得手段は、前記ユーザ情報取得手段により取得されたユーザ情報から、前記位置情報を取得する
ことを特徴とする請求項3に記載の情報処理装置。 - 前記第1の画像データおよび前記第2の画像データを記憶する記憶手段を有し、
前記第1の画像データは、有限の再生時間の動画を示し、
前記第2の画像データは、前記第1の画像データにより示される動画の、再生時間軸上の所定のタイミングに対応する動画を示す、複数のサブデータを含み、
前記第1の画像取得手段は、前記記憶手段から画像データを取得し、
前記ユーザの状態が前記第2の状態にある場合、前記複数のサブデータのうち、前記ユーザの状態が前記第1の状態から前記第2の状態に切り替わったタイミングに対応するサブデータを取得する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記センサがマイクであり、
前記第2の状態が、前記ユーザが所定の音量以上の音を発生している状態である
ことを特徴とする請求項1−5のいずれかの項に記載の情報処理装置。 - 前記センサがカメラであり、
前記第2の状態が、前記ユーザが所定の動作を行っている状態である
ことを特徴とする請求項1−5のいずれかの項に記載の情報処理装置。 - コンピュータ装置に、
部屋の壁に設けられた窓の位置および形状を特定する窓情報を取得するステップと、
前記窓情報により特定される窓と、前記窓の枠を通して見える位置に画像を形成する画像形成装置とを対応させる対応情報を取得するステップと、
前記部屋の中に設置されたセンサから、前記部屋の中にいるユーザがあらかじめ決められた第1の状態にあるか前記第1の状態とは異なる第2の状態にあるかを示すユーザ情報を取得するステップと、
前記ユーザが前記第1の状態にあるときは第1の画像データを取得し、前記ユーザが前記第2の状態にあるときは第2の画像データを取得するステップと、
前記取得された画像データを、前記対応情報により特定された、前記窓に対応する画像形成装置に出力するステップと
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008250949A JP5304148B2 (ja) | 2008-09-29 | 2008-09-29 | 情報処理装置およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008250949A JP5304148B2 (ja) | 2008-09-29 | 2008-09-29 | 情報処理装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010086014A true JP2010086014A (ja) | 2010-04-15 |
JP5304148B2 JP5304148B2 (ja) | 2013-10-02 |
Family
ID=42249962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008250949A Expired - Fee Related JP5304148B2 (ja) | 2008-09-29 | 2008-09-29 | 情報処理装置およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5304148B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010091728A (ja) * | 2008-10-07 | 2010-04-22 | Seiko Epson Corp | 情報処理装置およびプログラム |
JP2014048748A (ja) * | 2012-08-29 | 2014-03-17 | Sharp Corp | 制御装置、制御装置の制御方法及び制御プログラム |
JP2015519624A (ja) * | 2012-02-24 | 2015-07-09 | トーマス ジェイ モスカリッロMOSCARILLO, Thomas, J. | ジェスチャー認識装置及び方法 |
WO2021106614A1 (ja) * | 2019-11-29 | 2021-06-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0584732U (ja) * | 1992-04-20 | 1993-11-16 | 株式会社大林組 | 疑似窓 |
JPH10340061A (ja) * | 1997-04-07 | 1998-12-22 | Masahiko Hayashi | 映像鑑賞施設 |
JP2001036897A (ja) * | 1999-07-16 | 2001-02-09 | Sega Corp | 映像表示システム |
JP2002163344A (ja) * | 2000-11-24 | 2002-06-07 | Matsushita Electric Ind Co Ltd | 店舗情報表示システム |
JP2005157135A (ja) * | 2003-11-27 | 2005-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 情報表示方法及びシステム及びプログラム |
-
2008
- 2008-09-29 JP JP2008250949A patent/JP5304148B2/ja not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0584732U (ja) * | 1992-04-20 | 1993-11-16 | 株式会社大林組 | 疑似窓 |
JPH10340061A (ja) * | 1997-04-07 | 1998-12-22 | Masahiko Hayashi | 映像鑑賞施設 |
JP2001036897A (ja) * | 1999-07-16 | 2001-02-09 | Sega Corp | 映像表示システム |
JP2002163344A (ja) * | 2000-11-24 | 2002-06-07 | Matsushita Electric Ind Co Ltd | 店舗情報表示システム |
JP2005157135A (ja) * | 2003-11-27 | 2005-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 情報表示方法及びシステム及びプログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010091728A (ja) * | 2008-10-07 | 2010-04-22 | Seiko Epson Corp | 情報処理装置およびプログラム |
JP2015519624A (ja) * | 2012-02-24 | 2015-07-09 | トーマス ジェイ モスカリッロMOSCARILLO, Thomas, J. | ジェスチャー認識装置及び方法 |
US11009961B2 (en) | 2012-02-24 | 2021-05-18 | Thomas J. Moscarillo | Gesture recognition devices and methods |
JP2014048748A (ja) * | 2012-08-29 | 2014-03-17 | Sharp Corp | 制御装置、制御装置の制御方法及び制御プログラム |
WO2021106614A1 (ja) * | 2019-11-29 | 2021-06-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5304148B2 (ja) | 2013-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6511386B2 (ja) | 情報処理装置および画像生成方法 | |
JP6246914B2 (ja) | 未知の対象物に対する拡張現実コンテンツの生成 | |
US10725297B2 (en) | Method and system for implementing a virtual representation of a physical environment using a virtual reality environment | |
US10539797B2 (en) | Method of providing virtual space, program therefor, and recording medium | |
US20200225737A1 (en) | Method, apparatus and system providing alternative reality environment | |
US9723293B1 (en) | Identifying projection surfaces in augmented reality environments | |
JP7073481B2 (ja) | 画像表示システム | |
CN102591016A (zh) | 用于扩展现实显示的优化聚焦区 | |
CN102566756A (zh) | 用于扩展现实显示的基于理解力和意图的内容 | |
KR20140014160A (ko) | 실감형 디스플레이 경험 | |
US20200342671A1 (en) | Information processing apparatus, information processing method, and program | |
JP6126271B1 (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
WO2018113759A1 (zh) | 基于定位系统和ar/mr的探测系统及探测方法 | |
JP5304148B2 (ja) | 情報処理装置およびプログラム | |
JP2019012443A (ja) | ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置 | |
US11855742B2 (en) | Near field communication antenna system for a playset | |
CN114915827A (zh) | 动态图像分发系统及其方法和记录介质 | |
WO2021124920A1 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
KR20220011152A (ko) | 룸 모드의 로컬 효과를 통합하기 위한 음향 필터 결정 | |
JP2022097850A (ja) | 表示システム、表示装置、及びプログラム | |
US20200125398A1 (en) | Information processing apparatus, method for processing information, and program | |
JP6126272B1 (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
JP5181980B2 (ja) | 情報処理装置およびプログラム | |
JP5120181B2 (ja) | 画像処理装置およびプログラム | |
US11918928B2 (en) | Virtual presentation of a playset |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130610 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |