JP6396070B2 - 画像融合システム、情報処理装置、情報端末、および情報処理方法 - Google Patents

画像融合システム、情報処理装置、情報端末、および情報処理方法 Download PDF

Info

Publication number
JP6396070B2
JP6396070B2 JP2014091795A JP2014091795A JP6396070B2 JP 6396070 B2 JP6396070 B2 JP 6396070B2 JP 2014091795 A JP2014091795 A JP 2014091795A JP 2014091795 A JP2014091795 A JP 2014091795A JP 6396070 B2 JP6396070 B2 JP 6396070B2
Authority
JP
Japan
Prior art keywords
image
real object
information processing
display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014091795A
Other languages
English (en)
Other versions
JP2015210379A (ja
Inventor
山岸 建
建 山岸
圭司 外川
圭司 外川
岡 正昭
正昭 岡
伸次 高嶋
伸次 高嶋
洋一 西牧
洋一 西牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2014091795A priority Critical patent/JP6396070B2/ja
Priority to PCT/JP2015/055412 priority patent/WO2015162991A1/ja
Publication of JP2015210379A publication Critical patent/JP2015210379A/ja
Application granted granted Critical
Publication of JP6396070B2 publication Critical patent/JP6396070B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds

Description

本発明は、情報処理による画像表示を利用した画像融合システム、当該情報処理を行う情報処理装置、情報端末、およびその情報処理方法に関する。
携帯型のゲーム機やPDA(Personal Digital Assistant)等の情報処理装置が普及している。近年では、多くの情報処理装置が通信機能を搭載し、またスマートフォンのように、携帯電話やPDA等の機能を一つにまとめた多機能型の情報処理装置も登場している。このような情報処理装置は大容量のメモリおよび高速プロセッサを搭載しており、ユーザは、アプリケーションプログラムを情報処理装置にインストールすることで、様々なアプリケーションを楽しめるようになっている。
例えば情報処理装置に備えたカメラによって実写した画像に3次元グラフィックスにより描画したオブジェクトを重畳させて表示画像とすることにより、現実世界と仮想世界を融合させた拡張現実(AR:Augmented Reality)の技術も提案されている(例えば特許文献1参照)。
特開2013−92964号公報
ARの技術の利用は、ユーザの動き認識に基づく仮想世界の構築とは異なるアプローチによって現実世界と仮想世界を融合させているといえる。これらの技術は、単に見た目の楽しさを提供するばかりでなく、直感的かつ容易に装置を操作したり出力結果を理解したりするのに有益と考えられる。しかしながら一般的なARは、表示装置の画面という限られた領域における2次元画像であるため、臨場感や迫力といった観点では物足りなさを感じることもあった。
本発明はこのような課題に鑑みてなされたものであり、その目的は、表示画像を利用してより臨場感のある世界を構築できる技術を提供することにある。
上記課題を解決するために、本発明のある態様は画像融合システムに関する。この画像融合システムは、表示装置に画像を表示させる情報処理装置と、表示装置に表示された画像を反射させるとともに背後に存在する実物体の像を透過させる半透過鏡と、半透過鏡の反射面と表示装置の画面とを所定の角度に保つ支持機構と、を備え、情報処理装置は、半透過鏡において反射する画像と、透過する実物体の像とが融合して見えるように、実物体の状態に応じた画像を表示装置に表示させる表示画像生成部を備えることを特徴とする特徴とする。
本発明の別の態様は情報処理装置に関する。この情報処理装置は、接続した表示装置に画像を表示させる情報処理装置であって、表示装置が支持機構によって支持された状態において、当該表示装置の画面と所定の角度をなすように位置する半透過鏡の背後に存在する実物体の状態を検出する状態認識部と、半透過鏡に表示画像が反射した際、当該半透過鏡を透過する実物体の像と融合して見えるように、実物体の状態に応じた前記表示画像を生成する表示画像生成部と、を備えることを特徴とする。
本発明のさらに別の態様は情報処理方法に関する。この情報処理方法は、情報処理装置が、接続された表示装置に画像を表示させる情報処理方法であって、表示装置が支持機構によって支持された状態において、当該表示装置の画面と所定の角度をなすように位置する半透過鏡の背後に存在する実物体の状態を検出するステップと、半透過鏡に表示画像が反射した際、当該半透過鏡を透過する前記実物体の像と融合して見えるように、実物体の状態に応じた前記表示画像を生成するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によると、表示画像を用いてより臨場感のある世界を構築することができる。
本実施の形態のシステム構成例を示す図である。 図1で示したシステム構成をより詳細に説明するための図である。 (a)は情報処理装置の前面を示す図であり、(b)は情報処理装置の背面を示す図である。 (a)は情報処理装置の上面を示す図であり、(b)は情報処理装置の下面を示す図であり、(c)は情報処理装置の左側面を示す図である。 情報処理装置の回路構成を示す図である。 本実施の形態における情報処理装置の機能ブロックを示す図である。 本実施の形態において凸部分を設けた場合の支持機構の構造例を示す図である。 本実施の形態においてコンテンツデータ記憶部に格納される、実世界の状況に合わせて表示画像を決定するためのデータの構造例を示す図である。 本実施の形態における表示形態の一例を示す図である。 本実施の形態における表示形態の別の例を示す図である。 本実施の形態における実物体に動作機能を設けたうえで表示画像と連動させる態様における実物体の機能ブロックを示す図である。 本実施の形態において動作パターン記憶部に格納するデータの構造例を示す図である。 本実施の形態の表示画像と実物体を連動させる態様において、投影器の前方から見た状態の変化例を示す図である。 図13の上段および下段の状態において表示される画像を示す図である。 本実施の形態において実物体室を内部に設けない構造の投影器の構成例を示す図である。 図15で示した態様をより詳細に説明するための図である。 本実施の形態の変形例において、情報処理装置と実物体室との間に別のレンズを導入する場合の投影器の構造を示す図である。
本実施の形態では入射光の一部を反射し一部を透過させるハーフミラー(半透過鏡)を利用して、人形、ロボット、フィギュア、立体造形物など実世界に存在する物と、ディスプレイに表示させた画像とを実世界において融合する。表示画像と融合させる実世界の対象物の形状、種類、大きさは特に限定されないが、以後の説明では「実物体」と総称する。図1は本実施の形態のシステム構成例を示している。画像融合システム2は、情報処理装置10と投影器112を含む。投影器112は、実物体(同図では猫のフィギュア)114を置く空間を構成する実物体室3と、画面が実物体室3に対し所定の角度を維持するように情報処理装置10を支持する支持機構116を含む。
図1の場合、投影器112は机などの水平面に置かれた略箱形の形状を有するため、支持機構116は、情報処理装置10の画面を下向きに置くことのできる天板で構成している。ただし実物体室3や支持機構116の形状はこれに限らない。またそれらの形状や実現する機能に応じて情報処理装置10に傾斜が求められる場合、支持機構116には情報処理装置10を固定する器具を設けるなどしてもよい。また同図において情報処理装置10は、表示装置と一体的に構成される携帯端末である。一方、情報処理装置10本体を表示装置と無線または有線で接続した別の個体としてもよい。この場合、支持機構116は表示装置を支持することになる。
図1の例において投影器112の前面は、情報処理装置10が表示する画像を前方に反射させると同時に、実物体室3の内部を視認できるハーフミラー118で構成する。すなわち支持機構116である天板と鋭角をなすようにハーフミラー118を設置することにより、情報処理装置10の画面に表示された画像が投影器112の前方から見えるようにする。そして、ハーフミラー118の背後にある実物体室3内部に置かれた実物体114とハーフミラー118に映る画像とが重畳されて見えるようにすることにより、実物体114と表示画像とを実世界で融合させる。
図1の例では、実物体114であるフィギュアの頭部近傍に「こんにちは!」と記載された吹き出し120a、フィギュアの胸にマーク120bが表示されている。これらは、情報処理装置10が表示している画像である。図示するように支持機構116を天板とする場合、当該天板を透明度の高い樹脂やガラスなどで構成することにより、情報処理装置10からの光をハーフミラー118に少ない損失で透過させることが望ましい。ただし支持機構116を、情報処理装置10の両端で支持する構造とした場合などは、必ずしも画面とハーフミラー118の間に板等を設けなくてもよい。
ハーフミラー118で反射した像は、前方から見ると、実物体室3内の物の表面に重畳して見えるため、背景や別のキャラクタなどをフィギュアの背後にあるように表示する場合は、投影器112の背面122は、透過性の低い素材や不透明な素材で構成する。投影器112の側面は、樹脂板などで構成し密閉空間を形成してもよいし、開口部としてユーザが実物体114を自由に動かせるようにしてもよい。
投影器112の底面124は、透明、不透明に関わらず一般的な板としてもよいし、情報処理装置10と接続したタッチパッドとしてもよい。後者の場合、当該タッチパッドに対する接触部分を検知することにより、実物体室3における実物体114の位置を取得できる。あるいは底面124を、情報処理装置10と接続した別の表示装置としてもよい。この場合、実物体114の底面に光学センサを設ければ、情報処理装置10から実物体114への信号を輝度変化などを利用して伝達することができる。または底面124を、透明なタッチパッドとその下に設けた表示装置からなるタッチパネルとし、上記の機能を同時に実現できるようにしてもよい。
図2は、図1で示した態様をより詳細に説明するための図である。まず同図左側は、投影器112を右側面から見た状態を示している。上述したように、投影器112のハーフミラー118と背面122の間の実物体室3に、実物体114が置かれる。また支持機構116である天板上に情報処理装置10が画面を下向きにして載置される。すると情報処理装置10で表示された画像は太線矢印で示すように、ハーフミラー118で反射して前方にあるユーザの視点126に到達する。
このときハーフミラー118を介して実物体114も同時に見えるため、図1に示すように、ユーザには実物体114に吹き出しやマークが付されているように見える。表示画像がハーフミラー118に反射することにより見える画像127は、図2の右下に示すように、吹き出し120aおよびマーク120bで構成される。なおこれらの画像と実物体114との位置関係から、吹き出し120aは投影器112の背面122に、マーク120bは実物体114に、それぞれ重畳して見えることになる。このような画像127を視認させるため、情報処理装置10は画面129を生成する。
すなわち情報処理装置10の画面とハーフミラー118前面のなす角度をθ、ハーフミラー118を正面から見たときの視野座標系の原点を、図示するようにハーフミラー118の左上端とすると、座標(x,y)の位置に見える点は、情報処理装置10の画面129上の位置座標(X,Y)=(x,y/tanθ)の位置に表示すればよい。なお情報処理装置10の画面129上の位置座標は、図示するように、投影器112に載置した状態の情報処理装置10において後側に位置する辺の左端を原点としている。例えば角度θが45°であれば、反射させて見せるべき画像を上下反転した画像を表示すればよいことになる。
次に情報処理装置10の外観構成例および回路構成例を説明する。ただしここで示す情報処理装置は一例であり、他の種類の電子機器、端末装置であってもよい。図3(a)は、情報処理装置10の前面を示す。情報処理装置10は、横長の筐体により形成され、ユーザが把持する左右の領域は、円弧状の外郭を有している。情報処理装置10の前面には、矩形のタッチパネル50が設けられる。タッチパネル50は、表示装置20と、表示装置20の表面を覆う透明な前面タッチパッド21から構成される。表示装置20は有機EL(Electro-Liminescence)パネルであり、画像を表示する。なお表示装置20は液晶パネルなどの表示手段であってもよい。前面タッチパッド21は、同時にタッチされた複数ポイントの検出機能をもつマルチタッチパッドであって、タッチパネル50はマルチタッチスクリーンとして構成される。
タッチパネル50の右側には、菱形の頂点にそれぞれ位置する△ボタン22a、○ボタン22b、×ボタン22c、□ボタン22d(以下、総称する場合には「操作ボタン22」とよぶ)が設けられ、タッチパネル50の左側には、上キー23a、左キー23b、下キー23c、右キー23d(以下、総称する場合には「方向キー23」とよぶ)が設けられる。ユーザは方向キー23を操作して、上下左右および斜方の8方向を入力できる。
方向キー23の下側には左スティック24aが設けられ、また操作ボタン22の下側には右スティック24bが設けられる。ユーザは左スティック24aまたは右スティック24b(以下、総称する場合には「アナログスティック24」とよぶ)を傾動して、方向および傾動量を入力する。筐体の左右頂部には、Lボタン26a、Rボタン26bが設けられる。操作ボタン22、方向キー23、アナログスティック24、Lボタン26a、Rボタン26bは、ユーザが操作する操作手段を構成する。
操作ボタン22の近傍に、前面カメラ30が設けられる。左スティック24aの左側および右スティック24bの右側には、それぞれ音声を出力する左スピーカ25aおよび右スピーカ25b(以下、総称する場合には「スピーカ25」とよぶ)が設けられる。また左スティック24aの下側にHOMEボタン27が設けられ、右スティック24bの下側にSTARTボタン28およびSELECTボタン29が設けられる。
図3(b)は、情報処理装置10の背面を示す。情報処理装置10の背面には、背面カメラ31および背面タッチパッド32が設けられる。背面タッチパッド32は、前面タッチパッド21と同様に、マルチタッチパッドとして構成される。情報処理装置10は、前面および背面において、2つのカメラおよびタッチパッドを搭載している。
図4(a)は、情報処理装置10の上面を示す。既述したように、情報処理装置10の上面の左右端側に、Lボタン26a、Rボタン26bがそれぞれ設けられる。Lボタン26aの右側には電源ボタン33が設けられ、ユーザは、電源ボタン33を押下することで、電源をオンまたはオフする。なお情報処理装置10は、操作手段が操作されない時間(無操作時間)が所定時間続くと、サスペンド状態に遷移する電力制御機能を有している。情報処理装置10がサスペンド状態に入ると、ユーザは電源ボタン33を押下することで、情報処理装置10をサスペンド状態からアウェイク状態に復帰させることができる。
ゲームカードスロット34は、ゲームカードを差し込むための差込口であり、この図では、ゲームカードスロット34がスロットカバーにより覆われている状態が示される。なおゲームカードスロット34の近傍に、ゲームカードがアクセスされているときに点滅するLEDランプが設けられてもよい。アクセサリ端子35は、周辺機器(アクセサリ)を接続するための端子であり、この図ではアクセサリ端子35が端子カバーにより覆われている状態が示される。アクセサリ端子35とRボタン26bの間には、ボリュームを調整するための−ボタン36aと+ボタン36bが設けられている。
図4(b)は、情報処理装置10の下面を示す。メモリカードスロット37は、メモリカードを差し込むための差込口であり、この図では、メモリカードスロット37が、スロットカバーにより覆われている状態が示される。情報処理装置10の下面において、音声入出力端子38、マイク39およびマルチユース端子40が設けられる。マルチユース端子40はUSB(Universal Serial Bus)に対応し、USBケーブルを介して他の機器と接続できる。
図4(c)は、情報処理装置10の左側面を示す。情報処理装置10の左側面には、SIMカードの差込口であるSIMカードスロット41が設けられる。
図5は、情報処理装置10の回路構成を示す。各構成はバス92によって互いに接続されている。無線通信モジュール71はIEEE802.11b/g等の通信規格に準拠した無線LANモジュールによって構成され、無線アクセスポイントなどを介してインターネットなどの外部ネットワークに接続する。なお無線通信モジュール71は、ブルートゥース(登録商標)プロトコルの通信機能を有してもよい。携帯電話モジュール72は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT−2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応し、携帯電話網4に接続する。SIMカードスロット41には、携帯電話の電話番号を特定するための固有のID番号が記録されたSIMカード74が挿入される。SIMカード74がSIMカードスロット41に挿入されることで、携帯電話モジュール72は、携帯電話網4との間で通信可能となる。
CPU(Central Processing Unit)60は、メインメモリ64にロードされたプログラムなどを実行する。GPU(Graphics Processing Unit)62は、画像処理に必要な計算を実行する。メインメモリ64は、RAM(Random Access Memory)などにより構成され、CPU60が使用するプログラムやデータなどを記憶する。ストレージ66は、NAND型フラッシュメモリ(NAND-type flash memory)などにより構成され、内蔵型の補助記憶装置として利用される。
モーションセンサ67は、情報処理装置10の動きを検出し、地磁気センサ68は、3軸方向の地磁気を検出する。GPS制御部69は、GPS衛星からの信号を受信し、現在位置を算出する。前面カメラ30および背面カメラ31は、画像を撮像し、画像データを入力する。前面カメラ30および背面カメラ31は、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)によって構成される。表示装置20は、有機EL表示装置であり、陰極および陽極に電圧を印加することで発光する発光素子を有する。なお表示装置20はバックライトを備えた液晶パネル表示装置であってもよい。
インタフェース90において、操作部70は、情報処理装置10における各種操作手段を含み、具体的には、操作ボタン22、方向キー23、アナログスティック24、Lボタン26a、Rボタン26b、HOMEボタン27、STARTボタン28、SELECTボタン29、電源ボタン33、−ボタン36a、+ボタン36bを含む。前面タッチパッド21および背面タッチパッド32は、マルチタッチパッドであり、前面タッチパッド21は、表示装置20の表面に重ね合わせて配置される。スピーカ25は、情報処理装置10の各機能により生成される音声を出力し、マイク39は、情報処理装置10の周辺の音声を入力する。音声入出力端子38は、外部のマイクからステレオ音声を入力し、外部のヘッドホンなどへステレオ音声を出力する。
ゲームカードスロット34には、ゲームファイルを記録したゲームカード76が差し込まれる。ゲームカード76は、データの書込可能な記録領域を有しており、ゲームカードスロット34に装着されると、メディアドライブにより、データの書込み/読出しが行われる。メモリカードスロット37には、メモリカード78が差し込まれる。メモリカード78は、メモリカードスロット37に装着されると、外付け型の補助記憶装置として利用される。マルチユース端子40は、USB端子として利用でき、USBケーブル80を接続されて、他のUSB機器とデータの送受信を行う。アクセサリ端子35には、周辺機器が接続される。
図6は、情報処理装置10の機能ブロックを示す。この図では特に、図5のCPU60、GPU62、メインメモリ64、ストレージ66によって実現される機能を制御部130として示している。制御部130に含まれる各機能ブロックは、ハードウェア的には、上記のとおりCPU60、GPU62、メインメモリ64などで構成することができ、ソフトウェア的には、情報処理装置10内の各種記憶装置や装着された記録媒体からメインメモリ64にロードしたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
制御部130は、情報処理装置10に対するユーザ操作を受け付けるユーザ操作受付部132、実物体を含む実世界の状態を認識する状態認識部134、表示装置20に表示する画像を生成する表示画像生成部138、表示画像の生成に用いる各種データを格納するコンテンツデータ記憶部136を含む。後述するように実物体を動作可能に構成する場合、制御部130はさらに、実物体と表示画像との動きの同期処理を行う実物体同期処理部140を含む。
ユーザ操作受付部132は、図5に示した操作部70、前面タッチパッド21、および背面タッチパッド32の少なくともいずれかを介したユーザ操作を受け付ける。例えば情報処理装置10が投影器112に置かれる前に、表示すべき画像やコンテンツを選択するユーザ操作を、操作部70もしくは前面タッチパッド21を介して受け付ける。選択された画像やコンテンツに係る情報は表示画像生成部138に通知される。あるいは、投影器112に置かれた状態で画像を表示している段階で、背面タッチパッド32に対するタッチ操作を受け付ける。この場合もユーザ操作受付部132が、当該操作がなされたことを表示画像生成部138に通知することにより、タッチ操作に応じた変化を表示中の画像に与える。
ここでタッチ操作として、タッチされたか否かのほか、タッチされた位置、タッチされた領域の形状(タッチが指先でなされたか手のひらでなされたかなどに依存)、タッチポイントの個数、タッチ時間、タッチポイントの移動先、タッチポイントの移動速度、などを判別し、その判別結果によって表示画像生成部138の処理を変化させてもよい。
状態認識部134は、図5に示した前面カメラ30、前面タッチパッド21、モーションセンサ67、地磁気センサ68の少なくともいずれかから、実世界の状態、あるいは状態変化を取得する。例えば情報処理装置10が投影器112に置かれた状態で、前面カメラ30が実物体室3を撮影した画像から、実物体の種類、置かれている位置、ポーズなどを特定する。具体的には、前面カメラ30の撮影画像中の像と、あらかじめ登録された実物体の形状とを比較することにより、一致度の高い像を検出してその位置を特定するとともに、登録情報からその実物体の種類やポーズを特定する。特定した情報は表示画像生成部138に通知する。
このような構成により、実物体の位置、種類、ポーズ等によって表示画像に変化を与えることができる。結果として、表示画像を限定したり、ユーザがあらかじめ選択したりせずとも、実物体の種類やポーズなどに応じて臨機応変に画像を変化させることができる。実物体の種類や位置を高精度に特定するため、上面など前面カメラ30のレンズに向く実物体の面にバーコードなどのマーカーを装着しておき、撮影画像から検出し登録情報と照合してもよい。あるいは支持機構116の天板上面に、情報処理装置10の前面タッチパッド21への部分的な接触を発生させる凸部分を設け、その位置によって表示する画像やコンテンツを変化させてもよい。
図7はその場合の支持機構116の構造例を示している。支持機構116のうち領域150は、情報処理装置10を載置した際、前面タッチパッド21が対向する領域である。当該領域150における所定の位置に、支持機構116である天板の上面から部分的に突出した凸部分152を設ける。これにより、情報処理装置10が置かれた状態において、状態認識部134は前面タッチパッド21を介して当該凸部分152の位置を特定し、表示画像生成部138に通知する。
凸部分152の位置と表示すべき画像やコンテンツをあらかじめ対応づけておくことにより、表示画像生成部138は、実際の凸部分152の位置に応じた画像やコンテンツを表示する。なお凸部分152は、ハーフミラー118への画像投影の妨げにならないよう、領域150の縁近傍に設けることが望ましいが、その形状やサイズは特に限定されない。形状やサイズによって表示すべき画像やコンテンツを区別してもよい。
このように凸部分152を設けることにより表示画像を切り替える場合、凸部分152の位置が異なる天板を複数用意し、表示させたい画像によって天板ごと取り替えられるようにしてもよいし、凸部分152の部品を1枚の天板の複数の位置に取り付け可能に構成してもよい。例えば凸部分152をネジの頭部とし、天板に複数のネジ穴を設けてもよい。凸部分152の裏面を接着部材で構成し、天板表面に接着できるようにしてもよい。
図6に戻り、状態認識部134はさらに、モーションセンサ67や地磁気センサ68から、情報処理装置10の動きや傾きを特定し、表示画像生成部138に通知する。例えば支持機構116により情報処理装置10を投影器112に固定する構造とした場合、情報処理装置10の動きや傾きは、投影器112自体の動きや傾きを表している。したがってユーザが投影器112を傾けて置いたり、画像表示中に傾けたり振ったりした場合、その状態や動きをモーションセンサ67や地磁気センサ6を介して検出し、それに応じて画像を変化させる。
モーションセンサ67や地磁気センサ68のほか、情報処理装置10には温度センサ、照度センサ、時計など何らかの物理量を検出するセンサのいずれかを設け、それらの検出値に応じて表示を変化させてもよい。情報処理装置10のマイク39が取得した周囲の音声に基づき表示を変化させてもよい。また上述のように投影器112の底面をタッチパッドで構成した場合、状態認識部134は、実物体の置かれた位置を当該タッチパッドを介して取得する。これにより、前面カメラ30による撮影画像以外の手段で実物体の位置を特定できることになる。また実物体の底面の形状や接地点の位置関係を、実物体の種類やポーズによって独特なものとすれば、底面のタッチパッドへの接触形状に基づき、実物体の種類やポーズも特定できる。
表示画像生成部138は、ユーザ操作受付部132および状態認識部134から通知された情報に従い、表示すべき画像、例えば図2の画面129のような画像のデータを生成し、表示装置20に出力する。ここで生成する画像は、静止画像でも動画像でもよいし、それらが画面内で混在していてもよい。コンテンツデータ記憶部136には、通知された情報に応じて表示すべき画像やコンテンツ、表示すべき位置、画像の変化のさせ方などに係る規則を格納しておく。例えば上述のように、実物体の種類、ポーズ、凸部分152の位置などによって表示画像を異ならせる場合、それらの識別情報と表示すべき画像とを対応づけたテーブルを格納しておく。
また前面カメラ30の撮影画像から実物体の種類やポーズを特定する場合は、パターンマッチングに用いる基準画像やマーカーなどの情報も、実物体の種類やポーズに対応させて格納しておく。画像を表示中に背面タッチパッド32のタッチ操作がなされた場合や、モーションセンサ67による検出値が変化した場合などに応じて画像に与える変化の内容についても格納しておく。さらに、表示すべき画像のデータ自体も格納しておく。
実物体同期処理部140は、実物体を動くように構成した場合に、画像と実物体とを同期させる処理を行う。ここで実物体は、情報処理装置10からの要求に従い動いてもよいし、情報処理装置10とは独立した要因により動いてもよい。後者の例として、ユーザが実物体に触れて移動させたりポーズを変化させたりしてもよいし、実物体を、別途用意したリモートコントローラにより動くロボットとしてもよい。あるいはネジ巻き人形のようにユーザの初期操作によって自動で動くようにしてもよい。情報処理装置10が投影器112に置かれたこと自体を初期操作として実物体が自動で動くようにしてもよい。この場合、投影器112に荷重センサを設けたり光学センサを設けたりして、投影器にかかる重さの変化や画面から発する光に基づき、情報処理装置10が置かれたことを検知する。
情報処理装置10からの要求に従い実物体を動かす場合とは、あらかじめ組まれたプログラム通りに表示画像と実物体を動かす場合や、情報処理装置10へのユーザ操作によって表示画像と実物体を動かす場合などである。このとき実物体同期処理部140は、表示画像生成部138が生成する画像と連動するような動きを実物体に与えるための制御信号を、無線通信モジュール71を介して送信する。情報処理装置10とは独立した要因により実物体を動かす場合、実物体同期処理部140は、無線通信モジュール71を介して実物体からその動きに係る情報を受信し、表示画像生成部138に通知する。いずれにしろこれらの態様においては、情報処理装置10と実物体とは無線により通信を確立する。あるいは有線によって通信を確立してもよい。
ただし情報処理装置10/実物体間の情報の送受は、このような通信回線を利用したものに限らない。例えば上述のように、投影器112の底面に別途表示装置を設けるとともに、実物体の底面に光学センサを設ければ、当該表示装置における輝度変化を、情報処理装置10から実物体への信号として利用することができる。あるいは実物体に、情報処理装置10の画面の所定の領域を撮影するカメラを設ければ、当該領域に情報に応じたバーコードなどのマーカーを表示することで、情報を伝達することができる。これらの態様において実物体同期処理部140は、投影器112の底面の表示装置に輝度変化を与えたり、情報処理装置10の画面の所定領域に所定のマーカーを表示するよう、表示画像生成部138に要求する。
一方、通信回線を用いずに実物体から情報処理装置10へ動きの情報を伝達する手法としては次のようなものが考えられる。すなわち、上述のように前面カメラ30が実物体を含む空間を撮影することにより、一般的なパターンマッチングや視覚追跡の技術を用いてポーズの変化や移動を追跡する。あるいは投影器112の底面を上述のようにタッチパッドで構成することにより、実物体のポーズの変化や移動を、接触点の変化によって特定することもできる。これらの態様においては、状態認識部134が実物体同期処理部140を兼ねることになる。
なお本実施の形態において表示装置と連動させる実物体の「動き」とは、実物体がポーズや向きを変化させたり移動したりしている最中の連続的な変化であってもよいし、そのような経過時間の前後における離散的な時点でのポーズ、向き、位置などの変化であってもよい。すなわち実物体が動いている最中に、表示画像を微少時間ごとに、それに合わせて変化させてもよいし、実物体が動き終わった時点で、そのときの状態に合わせて表示画像を一気に変化させてもよい。
図8は、コンテンツデータ記憶部136に格納される、実世界の状況に合わせて表示画像を決定するためのデータの構造例を示している。表示画像設定テーブル300は、凸部分欄302、実物体欄304、ポーズ欄306、表示画像欄308、表示位置欄310を含む。この例では、図7で示した天板の凸部分152の位置、実物体の種類、ポーズによって、表示する画像を決定する。そのため凸部分欄302には天板における凸部分の位置座標を、実物体欄304およびポーズ欄306には、撮影画像などから取得できる実物体の種類やポーズの識別情報をそれぞれ格納し、それらの組み合わせに従い表示すべき画像の識別情報と表示位置を、表示画像欄308、表示位置欄310に格納する。
例えば表示画像設定テーブル300の2行目、3行目は、凸部分が位置座標(X1,Y1)にあり、実物体が「猫」のフィギュアの「直立」したポーズであったとき、「こんにちは」なる吹き出しをフィギュアの頭部近傍に表示し、「マーク」をフィギュアの「胸」に表示することが設定されている。これにより図1で示したような表示形態を実現できる。4〜6行目の、凸部分が位置座標(X2,Y2)にある場合は、「猫」のフィギュアに対しては「マーク」をフィギュアの「胸」に、「テレビ」のミニチュアに対しては、「テレビ番組A」なる動画をミニチュアの「画面」に表示する。さらに実物体室の背面には、その「全面」に「壁紙A」の画像を表示する。このように、実物体室内の実物体ごとに表示すべき画像を設定することもできる。
なお表示位置欄310の記載は、同図では平易な表現としているが、実際には上述のとおり、実物体の各部位の位置を実世界で特定し、その位置にあるように見せるための画面上での位置を決定するため、同欄には、当該処理に必要な情報を格納する。その他の欄の記載形式も図示するものに限らない。また、表示画像を決定づける要素は図示する組み合わせに限らず、凸部分の位置を除いたり、温度や季節など別の要因を加えたりしてもよい。コンテンツデータ記憶部136にはさらに、上述のように画像表示中の状態変化やユーザ操作に応じた表示画像の変化についても、同様に対応づけて格納しておく。
図9は上記構成による表示形態の一例を示しており、上段は情報処理装置10の画面に表示される画像、下段は図1で示した形状の投影器112の前方から見た状態である。なお下段において投影器112の支持機構およびその上面に置かれている情報処理装置10は図示を省略している。この例では実物体として猫のフィギュア160に加え、ミニチュアのテレビ162が投影器112内の実物体室に置かれているとする。
そして情報処理装置10の画面には、猫のフィギュア160の胸部分に対応する位置にマーク164、ミニチュアのテレビ162の画面に対応する位置にテレビ画像166、背面に壁紙の模様168を表示する。この形態は、図8に示した表示画像設定テーブル300の4〜6行目の記載に対応する。テレビ画像166を動画とすることにより、ミニチュアのテレビ162で実際にテレビ番組を見ているような状況を作り出せる。また壁紙の模様168は、猫のフィギュア160やミニチュアのテレビ162の背後にあるため、図9上段に示すように、マーク164やテレビ画像166を表示する領域を含む、猫のフィギュア160およびミニチュアのテレビ162に対応する領域には表示しない。
これにより、本来は見えない壁紙の模様が猫の体やテレビの枠部分に映り込み、それらの位置関係が混沌とするのを防止する。猫のフィギュア160およびミニチュアのテレビの162を固定とした場合、コンテンツデータ記憶部136には、あらかじめ、それらに対応する領域をマスクした壁紙の画像データを格納しておけばよい。実物体をユーザが自由に配置できる形態とした場合は、上述のように、前面カメラ30の撮影画像などに基づきその位置を特定し、表示画像生成部138がマスク領域を決定する。
マスク領域を正確に決定するため、および実物体に対し適切な位置およびサイズでマーク164やテレビ画像166などの画像を表示するため、コンテンツデータ記憶部136には、各実物体の詳細な形状およびサイズを登録しておくことが望ましい。これにより、パターンマッチングなどにより特定された実物体の位置に基づき、前方からの見かけ上のサイズおよび形状を精度よく導出できる。なお図9では背景全面に貼られた壁紙を例示したが、実物体の背後に別の生き物や物を表す場合も同様に、実物体の背後にある部分をマスクする。
なお実物体を固定とした場合であっても、投影器112の支持機構116を単なる天板とするような場合は特に、前面カメラ30の撮影画像などを用いて、情報処理装置10に対する実物体の位置を正確に取得してもよい。これにより、情報処理装置10を無造作に天板に置くなどして、情報処理装置10の画面と実物体室の位置関係がその都度ずれても、実物体に対し正確な位置に画像を表示できる。また、情報処理装置10の上下のどちらが天板の手前側に置かれたかが判明するため、置かれた向きに応じて画面上の表示画像の天地を適切に切り替えることができる。
ただし情報処理装置10がどのように置かれたかを特定する手段はこれに限らず、図7で示した、支持機構116の凸部分152を利用してもよい。すなわち情報処理装置10の前面タッチパッド21に対する凸部分152の位置を取得することにより、情報処理装置10の画面と投影器112の実物体室の位置関係を特定でき、ひいては情報処理装置10の置かれた位置や向きによらず画像を適切に表示できる。なおどのような位置にあっても情報処理装置10の筐体を構成する画面の縁部分がハーフミラー118に映り込まないよう、当該縁部分は黒色とすることが望ましい。
図10は、同様の形状を有する投影器112による別の表示形態例を示している。この例では、ハーフミラー118背後の実物体室3を密閉空間として水170を封入する。すなわち水170が実物体である。そして情報処理装置10は、水170上に浮かぶアヒル172a、172b、172cを表示する。この状態でユーザが投影器112を傾けると、水面は投影器112の底面と平行でなくなる。水面は基本的に水平を維持し、投影器112の底面の傾きは情報処理装置10の傾きと一致するため、底面に対する水面の角度はモーションセンサ67あるいは地磁気センサ68からの出力値により判明する。
したがって状態認識部134は、当該角度をセンサの出力値に基づき逐次取得し、表示画像生成部138に通知する。表示画像生成部138は、どのような傾きであっても水170の水面に対応する平面上にアヒル172a、172b、172cが存在するよう、画像を変化させる。例えば表示画像生成部138は、ワールド座標系の水平面に配置させたアヒル172a、172b、172cのオブジェクトに対するカメラ座標系を、情報処理装置10の傾きに応じて傾斜させたうえでオブジェクトを描画する。
投影器112を傾けたときの水面の揺らぎを想定し、情報処理装置10を傾ける速度などをセンサ出力値から取得して、それに応じてアヒル172a、172b、172cも所定の規則で揺らぐように表示してもよい。外部の圧力変化や空気の流れを検知できるセンサを用いれば、投影器112の傾きがなくとも、実際の水面の揺れを検知して、アヒル172a、172b、172cの揺れをより厳密に表現できる。さらに、実物体室3の側壁に当たったアヒルが跳ね返る様子を表示させたりすることにより、より臨場感のある表示を実現できる。これらの処理には、既存の3次元グラフィックスの技術を適宜利用できる。
さらにこの表示形態では、情報処理装置10の背面をユーザがタップすることにより、新たなアヒル172dが上から落ちてくるように表示する。この場合、情報処理装置10のユーザ操作受付部132が、背面タッチパッド32がタップされたことを検知し、表示画像生成部138に通知する。これにより表示画像生成部138は、新たなアヒル172dを表示対象に加え、実物体室3の上端から落下する様子を動画で表現する。
なお図示するように投影器112が傾いている場合は、鉛直方向に落下するように見せるため、情報処理装置10における画面上では、アヒル172dが斜めに移動するように表示する。上記では実物体として、投影器112に水170を封入したが、投影器112の傾きによって変化が生じる物であれば水に限らず、砂、球体、車などでもよい。表示する画像も、封入する物によって様々なバリエーションが考えられる。また画像表示中に情報処理装置10の背面を操作することで画像に変化を与える態様は、実物体を封入する場合でなくても適用できる。例えば図9で示した表示形態において、ミニチュアのテレビ162の画面にスノーノイズの動画を表示させておき、情報処理装置10の背面がタップされたらテレビ番組の動画表示へ切り替える。この態様により、調子の悪いテレビが、叩くことで回復したような状況を演出できる。
図10で示した形態は、実物体である水の状態変化に応じて表示画像を変化させる態様であったが、上述のように情報処理装置10と実物体との情報伝達によって、さらに細かい動きでも連動させることが可能である。図11は、実物体に動作機能を設けたうえで表示画像と連動させる態様における実物体の機能ブロックを示している。実物体180は、情報処理装置10の表示画像との動きの同期処理を行う画像同期処理部182、実物体180を実際に動かす動作部184、状況に応じた動作のパターンを格納する動作パターン記憶部186を含む。
この態様において実物体180は、上述のとおり、情報処理装置10からの要求に従い動く場合と、情報処理装置10とは独立した要因により動く場合とが考えられる。実物体180は双方の態様を実現可能に構成してもよいし、いずれか一方の態様のみを実現できるようにしてもよい。実現させる態様によって、以下に述べる実物体180の機能の一部は適宜省略できる。
まず実物体180を情報処理装置10からの要求に従い動かす場合、画像同期処理部182は、情報処理装置10の無線通信モジュール71と通信を確立する通信機構を含む。そして実物体同期処理部140から、実物体180がなすべき動きを規定する制御信号を受信する。あるいは画像同期処理部182に、情報処理装置10の画面の所定の領域に表示されたマーカーを撮影するカメラを含めてもよい。または、投影器112の底面を表示装置で構成した場合は、当該底面と接触する面に設けた光学センサとしてもよい。
カメラを利用する場合、情報処理装置10は画面中、当該カメラの視野内にある所定の領域に、実物体がなすべき動きを規定するマーカーを表示する。光学センサを利用する場合、情報処理装置10は、投影器112の底面を構成する表示装置の画面のうち、光学センサが接する領域の輝度を、実物体がなすべき動きに対応づけられたパターンで変化させる。なお光学センサを実物体180の上面に設け、情報処理装置10の画面における輝度変化で動きを要求してもよい。投影器112の底面を表示装置とする場合は、画面上にタッチパッドを設け、実物体180の接地領域を特定したうえでその領域の輝度を変化させることにより、光学センサが確実に輝度変化を捉えるようにすることができる。
実物体180を情報処理装置10とは独立した要因により動かす場合、画像同期処理部182は、情報処理装置10の無線通信モジュール71と通信を確立する通信機構を含み、動きに係る情報を送信する。例えば回転、右から左への移動、腕を挙げる、といった、複数の動きのパターンに対し識別情報を付与しておき、ユーザの初期操作やリモコン操作などにより発生した、実際の動きのパターンを表す識別情報を情報処理装置10に送信する。ただし上述のように、情報処理装置10の前面カメラ30による撮影画像中の像から動きを特定したり、投影器112の底面をタッチパッドで構成し、情報処理装置10が当該タッチパッドに対する接触位置から動きを特定したりする場合は、画像同期処理部182の機能を省略できる。
実物体180であるフィギュアの腕を左右に開く、足を広げる、といった単純なポーズの変化は、撮影画像のパターンマッチングによって認識が可能である。足を広げる変化はタッチパッドによっても識別可能である。それらの手段では認識が困難な細かい動きについては、通信回線によって動きのパターンに係る情報を送信することが望ましい。したがって、実物体180に許容する動作の粒度、実物体の形状、許容されるコストなどに応じて、情報処理装置10に実物体180の動きを認識させる手段を適宜選択する。
動作部184は、実物体180に設けた関節の角度を変化させたり、車輪を設ける場合は車軸を回転させたりするアクチュエータで構成する。アクチュエータによって動かせる箇所や動かす手法については、動くおもちゃや産業用ロボットなどの既存技術を利用でき、デザインや許容されるコストなどに応じて適宜選択する。動作部184としてはこのほか、振動子、発光体、ディスプレイ、音声再生機構、ブザーなどを含め、動作とともに音声や振動の発生、発光、所定の画像表示などを実施してもよい。なお実物体180の動きを、ユーザの手によるものに限定する場合は、動作部184の機能を省略できる。
動作パターン記憶部186には、情報処理装置10から要求された動きを識別したり、独立した要因による動きを情報処理装置10に伝えるためのデータを格納する。図12は、動作パターン記憶部186に格納するデータの構造例を示している。動き情報テーブル400は、識別番号欄402、動き欄404、マーカー欄406、輝度変化パターン欄408を含む。この例では動き欄404に記載されるように、「回転」、「横方向移動」、「右腕を挙げる」、といった表現で各動きを表しているが、実際には変化させる部位、速度、移動量、角度の変化量などを詳細に規定してもよい。
識別番号欄402には、各動きに付与した識別番号を記載する。通信回線を用いて、情報処理装置10から実物体180へ動きを要求する場合や、実物体180から実際の動きを情報処理装置10に伝達する場合、この識別番号を用いて動きを指定する。マーカー欄406には、情報処理装置10がマーカーを画面に表示することにより、実物体180のカメラを介して対応する動きを要求する際の、当該マーカーの識別情報を記載する。同図では「A」、「B」、「C」といった形式で識別情報を示しているが、フォーマットはマーカーの種類によって異なってよい。
輝度変化パターン欄408には、情報処理装置10が投影器112の底面などの表示装置の輝度を変化させることにより、実物体180の光学センサを介して対応する動きを要求する際の、当該輝度変化のパターンを記載する。同図では「ON/OFF/OFF/ON」・・・などの形式でパターンを表現している。これは、輝度をON/OFFの2階調とし、微少の単位時間tを設定したとき、4単位時間(4t)の期間における輝度の変化で1つの動きを表した場合である。ただしこの場合も、表現する動きのバリエーションや用いる輝度の階調などによって、フォーマットは様々考えられる。
なお動きの要求や伝達に用いる手段によって、動き情報テーブル400のうち、識別番号欄402、マーカー欄406、輝度変化パターン欄408のいずれかを選択的に有効とし、その他は設定を省略してもよい。いずれにしろ動き情報テーブル400に記載する情報は、情報処理装置10でもコンテンツデータ記憶部136などに共通に保持しておく。このような構成により、実物体180の動きを発生させる主体によらず、実物体180と表示画像とを矛盾なく連動させることができる。
図13は、表示画像と実物体を連動させる態様において、投影器112の前方から見た状態の変化例を示している。なお同図において投影器112の支持機構およびその上面に置かれている情報処理装置は図示を省略している。この例では実物体として猫のロボット190が投影器112内の実物体室に置かれている。まず同図上段に示すように、ある時刻において猫のロボット190が右手と左足を挙げている。その後、ロボット190が徐々に動き、最終的に、同図下段のように、右手を前に出し、左足の代わりに右足を挙げた状態になったとする。
このような動作は例えば、投影器112の支持機構に情報処理装置10を置いたり、別途用意したリモートコントローラの所定の操作ボタンを押下したり、といった、ユーザの初期操作によって発生させる。この場合、上述のような手段によって情報処理装置10が当該動きを認識する。そして表示画像生成部138は、ロボット190の右手の先に対応する位置にボール192、ボール192の回りに発光エフェクト194(同図では星マークで表現)などを表示する。このとき、必要に応じて前面カメラ30の撮影画像などからロボット190の位置などの情報を補う。
また背景として、山や雲などの風景画像を、ロボット190に対応する領域をマスクしたうえで表示する。その後、ロボット190の手の動きに合わせてボール192を動かし、最終的には同図下段に示すように、ボール192が飛んでいくような画像を表示する。風景画像のマスク領域も、ロボット190の動きに合わせて変化させる。このように実物体と表示画像が連動することにより、猫のロボット190が光るボールを投げる様子を実世界で表現できる。
図14は、図13の上段および下段の状態において表示される画像を示している。上述のように背景として表示する画像がロボット190に映り込まないように、ロボット190の輪郭内部は黒くマスクする。またロボット190の右手に対応する位置にボール192の画像を表示する。そしてそれらの画像をロボット190の動きに応じて徐々に変化させていくことにより、図13で示したような表示形態を実現できる。
なおロボット190を動かすためのユーザの初期操作は、上記のように情報処理装置10と独立に行うことにより、ロボット190側から情報処理装置10にその旨を通知する場合のほか、情報処理装置10の背面をタップするなど、情報処理装置10を介してなされる場合もある。この場合は、情報処理装置10からの要求によってロボット190が動くことになる。このような画像と実物体との連動は、図示したようなオブジェとしての用途以外にも、様々な場面で利用できる。例えば実物体である自分のキャラクタのロボットが、表示により発生させた敵と戦ったり、ロボットのポーズによって、保持する武器や技の表示が変化したりする戦闘ゲームなどに用いることもできる。
これまで述べた例では、投影器112の内部に実物体室を設けたが、表示画像を融合させる対象とする空間を、投影器112と分離することで、実世界にある様々な物を実物体として選択できるようにしてもよい。図15は実物体室を内部に設けない構造の投影器の構成例を示している。投影器200は、一般的な鏡である反射鏡204と、ハーフミラー206とを平行に設置し、情報処理装置10の表示画像を2回、反射させる構造を有する。ユーザは、ハーフミラー206越しに実物体210を見るように投影器200を手に持って移動させ、矢印の方向からのぞき込む。
ハーフミラー206には、そのようにして見える実物体210と、反射鏡204に反射した、情報処理装置10の表示画像が同時に見えるようにする。このため、反射鏡204の下部には、当該反射鏡204の反射面と画面とが鋭角をなすように情報処理装置10を支持するための支持機構202を設ける。投影器200の底面および上面は開口部とし、反射鏡204とハーフミラー206は両側面の板で支持する。ただし底面、上面および側面の構造はこれによらず、例えば底面および上面を透明な樹脂板等で構成してもよい。
同図の例では、実物体210はアクリル樹脂など透明性を有する箱である。そして情報処理装置10の画面に魚を表示することにより、実物体210である箱内に魚がいるように見せることができる。例えば魚が泳ぐときの動きを表示画像に与えれば、水槽の中で泳いでいる魚を観察しているような状況を作り出すことができる。
図16は、図15で示した態様をより詳細に説明するための図であり、投影器200と実物体210を右側面から見た状態を示している。上述したように、情報処理装置10は、画面を上にして支持機構に支持された状態で画像を表示する。この画像は、まず反射鏡204によりハーフミラー206の方向へ反射する(矢印a、b)。そしてハーフミラー206で再び反射して、ユーザの視点220に到達する(矢印b、c)。このときハーフミラー206を介して実物体210も同時に見えるため、図15に示すように、ユーザには実物体210の箱の中で表示画像である魚が泳いでいるように見える。
投影器200を動かして、実物体210の別の面を見ても、同様の表示画像が見えるため、実際に水槽を観察している臨場感を与えることができる。なおこの態様では、投影器200と実物体210との距離を自由に変化させることができるため、当該距離に応じて表示画像の大きさも変化させることが望ましい。つまり投影器200が実物体210に近づくほど魚などの表示画像を大きくすることで、より臨場感が増す。そのため実物体には、所定の図形やバーコードを表したマーカーを取り付けてもよい。
この場合、情報処理装置10の背面カメラ31または前面カメラ30が当該マーカーを撮影することにより、その像の大きさから、投影器200と実物体210との距離を特定する。そして当該距離に反比例するように表示画像のサイズを変化させればよい。撮影画像におけるマーカーの見え方によって、実物体210に対する投影器200の角度を特定し、それに応じて表示している対象物の角度を変化させてもよい。図15の例では、実物体210である箱を正面から見たときと、斜め前から見たときとで、表示する魚の角度を変化させることで、実在する魚を様々な方向から見るのと同様の状態を作り出せる。
さらに当該マーカーの図形を、実物体により異ならせることにより、表示画像を実物体に応じて切り替えてもよい。例えば上述のように透明な箱を実物体としたときは魚を、花のオブジェを実物体としたときは蝶を表示させるなどの規則を設定する。そして各実物体に取り付けたマーカの情報と当該規則をコンテンツデータ記憶部136に格納しておけば、投影器200を実物体に向けるのみで、適切な画像を表示し、当該実物体に融合させることができる。
以上述べた本実施の形態によれば、情報処理装置が表示した画像と実物体とを、ハーフミラーを用いて実世界で融合させる。具体的には、ハーフミラーから透過して見える実物体に合致する位置で、適切な表示画像が反射して見えるように、情報処理装置からハーフミラーへ画像を投影する。これにより、実物体では表現が困難な、物の浮遊や発生/消滅、微細な動きや色の変化などの事象を実物体と組み合わせることができ、実物体をより魅力的に見せることができるとともに、実物体の存在によって表示画像にも臨場感を与えることができる、という相乗効果を得ることができる。
また、実物体の種類、ポーズ、位置、動きなどを情報処理装置に備えたカメラ、通信機構、または接続したタッチパッドなどを利用して特定し、それに合致するように表示画像を変化させる。あるいは、情報処理装置の背面タッチパッドなどを利用したユーザ操作や、あらかじめ組まれたシナリオなどに応じて、情報処理装置が表示画像を変化させつつ実物体を連動させる。このような構成により、表示画像のみならず実物体にも様々な変化を与えることができる。結果として、上記の相乗効果をより発揮できるとともに、単に見せるだけでなく動かしてみる楽しみをユーザに与えることができる。また実物体の状態を選択する自由度が格段に増す。
また反射鏡を利用して表示画像を多段階に反射させることにより、投影器の外部にあるあらゆる物を、画像と融合させることができる。このときマーカーなどを利用して、投影器と実物体との距離や角度を特定し、それに応じて表示する対象物のサイズや向きを変化させることにより、実物体の見た目の変化と整合性のある画像を表示できる。結果として、投影器を持って動かしている、という状況に合致した臨場感のある画像表現を実現できる。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば本実施の形態では、ハーフミラーを平板としていたが、凹面形状を有する凹面ハーフミラーとしてもよい。凹面ハーフミラーと情報処理装置の画面との距離を、焦点距離に応じて調整することにより、一般的な凹面鏡と同様、反射によって形成された実像が鏡面より前にあるように見せることができる。その結果、実物体室内の実物体より前にある物を、表示画像で表現することができる。
ただしこの場合、画像として表示する対象物のサイズが大きくなるほど、実像の上下左右の歪みが視認されやすくなる。またこの歪みは、観察者の位置や角度に依存して変化する。この歪みを補正するため、次のような処理を行ってもよい。
(1)表示すべき対象物を、ハーフミラーの凹面形状による歪みを相殺するような形状を有する仮想的な曲面にテクスチャマッピングしてなる画像を表示する。
(2)別途導入したカメラにより観察者の位置を検出し、それに応じて画像の表示位置や形状を変化させる。
(3)キャリブレーションとして、情報処理装置から格子模様の画像を凹面ハーフミラーに投影し、その反射画像を前面カメラなどのカメラで撮影することにより、凹面の詳細な形状や情報処理装置との位置関係を取得し、画像の補正に用いる。
上記処理を適宜組み合わせることにより、手前側に存在する物を違和感なく表示することができる。また(2)の処理において観察者の位置に応じて画像の表示位置や形状を最適化することにより、表示画像に、より立体感を与えることができる。別の変形例として、平板のハーフミラーと凹面ハーフミラーを組み合わせてもよい。例えばハーフミラーの中央部分のみ凹面とすることにより、当該領域に反射させた画像は飛び出して見え、それ以外の領域に反射させた画像は実物体や背面に重畳して見えるようになる。結果として、実物体の前にある表示画像、実物体、実物体上の表示画像、実物体の後にある表示画像、を同時に見せることができ、表現の幅を格段に広げることができる。
さらに、情報処理装置と実物体室との間に別のレンズを導入することにより表示画像を立体視できるようにしてもよい。図17はその場合の投影器の構造を、右側面から見た状態で示している。同図において投影器250は、図2などで示した投影器112のうち、情報処理装置10の支持機構116とハーフミラー118の間に、レンズ252を加えた構成を有する。なおレンズ252は、情報処理装置10の画面と平行になるように設置する。例えばレンズ252を凸レンズとすることにより、凹面ハーフミラーと同様に、視点126側に表示画像が飛び出して見えるようにできる。
またレンズ252を、画素の発光方向を左右に振り分けることで1つの表示画像から両眼視差を作り出し立体視させるレンチキュラーレンズのようなマイクロレンズアレイとしてもよい。この場合、当該レンズ自体がハーフミラー118に映り込むため、部分的に用いるなどの工夫により、それ以外の領域から実物体114も自然に見えるようにすることが望ましい。
さらに本実施の形態では、ハーフミラーを用いて画像を融合させた実物体を観察する投影器としての機能に主眼を置いて説明したが、この機能を、それ以外の機能と組み合わせてもよい。例えば図1で示したような形状を有する充電器などのクレードルとして実現しもよい。これにより、情報処理装置を載置して充電など他の作業をしながら、実物体と表示画像との融合も同時に楽しめるようになる。当該他の作業の進捗状況に応じて表示画像を変化させるなど、さらなる要素の融合を図ってもよい。
2 画像融合システム、 10 情報処理装置、 20 表示装置、 21 前面タッチパッド、 32 背面タッチパッド、 60 CPU、 64 メインメモリ、 67 モーションセンサ、 68 地磁気センサ、 70 操作部、 71 無線通信モジュール、 112 投影器、 114 実物体、 116 支持機構、 118 ハーフミラー、 130 制御部、 132 ユーザ操作受付部、 134 状態認識部、 136 コンテンツデータ記憶部、 138 表示画像生成部、 140 実物体同期処理部、 180 実物体、 182 画像同期処理部、 184 動作部、 186 動作パターン記憶部、 200 投影器、 204 反射鏡、 206 ハーフミラー、 250 投影器、 252 レンズ。

Claims (9)

  1. 表示装置に画像を表示させる情報処理装置と、
    前記表示装置に表示された画像を反射させるとともに背後に存在する実物体の像を透過させる半透過鏡と、
    前記半透過鏡の反射面と前記表示装置の画面とを所定の角度に保つ支持機構と、
    を備え、
    前記情報処理装置は、
    前記半透過鏡において反射する画像と、透過する実物体の像とが融合して見えるように、前記実物体の状態に応じた画像を前記表示装置に表示させる表示画像生成部と、
    表示画像に合わせて前記実物体を動作させるために、当該動作に対応するマーカーを前記表示装置に表示させることにより動作の要求情報を出力する実物体同期処理部を備え、
    前記実物体は、
    前記マーカーをカメラで撮影することにより、前記要求情報を取得する画像同期処理部と、
    前記要求情報に従う動きで当該実物体を動かす動作部と、
    を備えることを特徴とする画像融合システム。
  2. 表示装置に画像を表示させる情報処理装置と、
    前記表示装置に表示された画像を反射させるとともに背後に存在する実物体の像を透過させる半透過鏡と、
    前記半透過鏡の反射面と前記表示装置の画面とを所定の角度に保つ支持機構と、
    を備え、
    前記情報処理装置は、
    前記半透過鏡において反射する画像と、透過する実物体の像とが融合して見えるように、前記実物体の状態に応じた画像を前記表示装置に表示させる表示画像生成部と、
    表示画像に合わせて前記実物体を動作させるために、前記実物体が接地する面を構成する表示装置の接地領域の輝度を、当該動作に対応するパターンで変化させることにより、動作の要求情報を出力する実物体同期処理部を備え、
    前記実物体は、
    前記輝度の変化のパターンを光学センサで特定することにより、前記要求情報を取得する画像同期処理部と、
    前記要求情報に従う動きで当該実物体を動かす動作部と、
    を備えることを特徴とする画像融合システム。
  3. 表示装置に画像を表示させる情報処理装置と、
    前記表示装置に表示された画像を反射させるとともに背後に存在する実物体の像を透過させる半透過鏡と、
    前記半透過鏡の反射面と前記表示装置の画面とを所定の角度に保つとともに、前記表示装置を支持した際、当該表示装置の画面に接触する凸部分を備えた支持機構と、
    を備え、
    前記情報処理装置は、
    前記表示装置の画面表面に設けたタッチパッドから、前記支持機構における前記凸部分の位置を取得し、前記半透過鏡において反射する画像と、透過する実物体の像とが融合して見えるように、前記凸部分の位置に応じて前記表示装置に表示させる画像を変化させる表示画像生成部を備えることを特徴とする画像融合システム。
  4. 表示装置に画像を表示させる情報処理装置と、
    前記表示装置に表示された画像を反射させるとともに背後に存在する実物体の像を透過させる半透過鏡と、
    前記半透過鏡の反射面と前記表示装置の画面とを所定の角度に保つ支持機構と、
    を備え、
    前記情報処理装置は、
    前記実物体が接地する面を構成するタッチパッドからの接触点に係る情報に基づき、前記実物体の位置を特定し、前記半透過鏡において反射する画像と、透過する前記実物体の像とが融合して見えるように、前記実物体の位置に応じて前記表示装置に表示させる画像を変化させる表示画像生成部を備えることを特徴とする画像融合システム。
  5. 前記情報処理装置は、前記実物体の動きと対応するように変化する動画像を前記表示装置に表示させることを特徴とする請求項1から4のいずれかに記載の画像融合システム。
  6. 前記情報処理装置は、前記半透過鏡の背後の空間をカメラが撮影した画像を取得し、当該撮影画像を解析することにより、前記実物体の状態を特定する状態認識部をさらに備え、
    前記表示画像生成部は、前記状態認識部が特定した実物体の状態に応じて、表示画像を生成することを特徴とする請求項1から5のいずれかに記載の画像融合システム。
  7. 前記情報処理装置は、前記半透過鏡の背後の空間に関する所定の物理量を検出するセンサの出力値から、表示画像を変化させるべき状況の発生を検知して、その旨を前記表示画像生成部に通知する状態認識部をさらに備え、
    前記表示画像生成部は、前記状態認識部からの通知に応じて、表示画像を変化させることを特徴とする請求項1から5のいずれかに記載の画像融合システム。
  8. 前記表示画像生成部は、前記実物体の背後に存在すべき表示画像の、前記半透過鏡における反射画像が、当該半透過鏡において透過する実物体の像と重なる場合、当該表示画像のうち前記実物体の像と重なる領域をマスクしたうえで前記表示装置に表示させることを特徴とする請求項1から7のいずれかに記載の画像融合システム。
  9. 前記半透過鏡の少なくとも一部の領域は視点に対し凹面の形状を有することを特徴とする請求項1から8のいずれかに記載の画像融合システム。
JP2014091795A 2014-04-25 2014-04-25 画像融合システム、情報処理装置、情報端末、および情報処理方法 Active JP6396070B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014091795A JP6396070B2 (ja) 2014-04-25 2014-04-25 画像融合システム、情報処理装置、情報端末、および情報処理方法
PCT/JP2015/055412 WO2015162991A1 (ja) 2014-04-25 2015-02-25 画像融合システム、情報処理装置、情報端末、および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014091795A JP6396070B2 (ja) 2014-04-25 2014-04-25 画像融合システム、情報処理装置、情報端末、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2015210379A JP2015210379A (ja) 2015-11-24
JP6396070B2 true JP6396070B2 (ja) 2018-09-26

Family

ID=54332163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014091795A Active JP6396070B2 (ja) 2014-04-25 2014-04-25 画像融合システム、情報処理装置、情報端末、および情報処理方法

Country Status (2)

Country Link
JP (1) JP6396070B2 (ja)
WO (1) WO2015162991A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201506450A (zh) * 2013-08-01 2015-02-16 Bandai Co 影像顯示裝置及包裝容器
JP2017183825A (ja) * 2016-03-28 2017-10-05 京セラ株式会社 ヘッドマウントディスプレイ
CN107490859A (zh) * 2016-08-31 2017-12-19 福建蓝帽子互动娱乐科技股份有限公司 一种实现虚实结合的成像装置及系统和方法
CN106453837A (zh) * 2016-09-12 2017-02-22 芜湖能盟信息技术有限公司 一种全息投影手机壳
JP2018116471A (ja) * 2017-01-18 2018-07-26 富士通株式会社 表示制御方法、装置及びプログラム
WO2018169018A1 (ja) 2017-03-17 2018-09-20 富士フイルム株式会社 画像表示システム
JP7078221B2 (ja) * 2018-03-30 2022-05-31 株式会社バンダイナムコアミューズメント 投影システム
JP7448142B2 (ja) 2020-01-23 2024-03-12 株式会社ユピテル 表示装置等
KR102411533B1 (ko) * 2020-06-25 2022-06-22 (주)네오인터넷 로봇 인터렉션 홀로그램 디스플레이 시스템 및 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3744984B2 (ja) * 1995-10-04 2006-02-15 キヤノン株式会社 情報表示装置
JP3726881B2 (ja) * 2000-12-15 2005-12-14 コナミ株式会社 スロットゲーム装置
JP4136420B2 (ja) * 2002-03-29 2008-08-20 キヤノン株式会社 情報処理方法および装置
JP3927921B2 (ja) * 2003-05-19 2007-06-13 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP2009070076A (ja) * 2007-09-12 2009-04-02 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成装置
JP4475308B2 (ja) * 2007-09-18 2010-06-09 株式会社デンソー 表示装置
JP2009136398A (ja) * 2007-12-04 2009-06-25 Daito Giken:Kk 表示機能拡張装置
JP6249817B2 (ja) * 2014-02-25 2017-12-20 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像表示方法、画像表示プログラム及び記録媒体

Also Published As

Publication number Publication date
JP2015210379A (ja) 2015-11-24
WO2015162991A1 (ja) 2015-10-29

Similar Documents

Publication Publication Date Title
JP6396070B2 (ja) 画像融合システム、情報処理装置、情報端末、および情報処理方法
JP5541974B2 (ja) 画像表示プログラム、装置、システムおよび方法
JP5602618B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP6139679B2 (ja) 情報処理端末およびゲーム装置
JP5800501B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP5739674B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5627973B2 (ja) ゲーム処理をするためのプログラム、装置、システムおよび方法
US20120135803A1 (en) Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system
JP5814532B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP5520656B2 (ja) プログラム及び画像生成装置
JP6021296B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP5586545B2 (ja) ゲームシステム、携帯型ゲーム装置、情報処理部の制御方法、および情報処理部の制御プログラム
US20120262487A1 (en) Interactive multi-display control systems
JP5718603B2 (ja) 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP5675260B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法
US10004990B2 (en) Information processing terminal, non-transitory storage medium encoded with computer readable information processing program, information processing terminal system, and information processing method
JP5514637B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP6039594B2 (ja) 情報処理装置および情報処理方法
US9049424B2 (en) Recording medium storing display control program for controlling display capable of providing stereoscopic display, display system, display control method, and display
JP2011251006A (ja) ゲームプログラム、携帯型ゲーム装置、ゲームシステム、及びゲーム方法
JP2012088777A (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法
US20180059788A1 (en) Method for providing virtual reality, program for executing the method on computer, and information processing apparatus
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP5945297B2 (ja) ゲームプログラムおよびゲーム装置
JP6332658B1 (ja) 表示制御装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180829

R150 Certificate of patent or registration of utility model

Ref document number: 6396070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250