JPWO2017154611A1 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JPWO2017154611A1
JPWO2017154611A1 JP2018504368A JP2018504368A JPWO2017154611A1 JP WO2017154611 A1 JPWO2017154611 A1 JP WO2017154611A1 JP 2018504368 A JP2018504368 A JP 2018504368A JP 2018504368 A JP2018504368 A JP 2018504368A JP WO2017154611 A1 JPWO2017154611 A1 JP WO2017154611A1
Authority
JP
Japan
Prior art keywords
information
projector
projection area
projection
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018504368A
Other languages
English (en)
Other versions
JP7052719B2 (ja
Inventor
健太郎 井田
健太郎 井田
拓也 池田
拓也 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017154611A1 publication Critical patent/JPWO2017154611A1/ja
Application granted granted Critical
Publication of JP7052719B2 publication Critical patent/JP7052719B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/147Optical correction of image distortions, e.g. keystone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/3111Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators for displaying the colours sequentially, e.g. by using sequentially activated light sources
    • H04N9/3114Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators for displaying the colours sequentially, e.g. by using sequentially activated light sources by using a sequential colour filter producing one colour at a time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning

Abstract

本技術は、プロジェクタが投影する映像の位置を安定させることができるようにする情報処理装置、情報処理方法、及び、プログラムに関する。情報処理装置は、プロジェクタの投影領域の範囲に関する情報である投影領域情報を取得する取得部と、前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御部とを備える。本技術は、例えば、駆動型プロジェクタを用いたAV(Audio Visual)システム、又は、ハンディ型プロジェクタに適用することができる。

Description

本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、プロジェクタが投影する映像の位置を安定させるようにした情報処理装置、情報処理方法、及び、プログラムに関する。
従来、パン方向(水平方向)及びチルト方向(垂直方向)に回転可能な駆動部によりプロジェクタの向きを変えることにより投影方向が可変である駆動型プロジェクタが提案されている(例えば、特許文献1参照)。
特開2010−86928号公報
例えば、駆動型プロジェクタを用いてプロジェクションマッピングを行う場合に、表示空間内において投影する映像(内のコンテンツ)の位置が予め定められているときがある。この場合、駆動型プロジェクタの向きに合わせて、投影する映像の範囲を移動させる必要がある。すなわち、駆動型プロジェクタの向きが変化し、投影領域が移動した場合、移動先の投影領域の位置に合わせて投影する映像の範囲を移動させる必要がある。このとき、投影領域の移動と投影する映像の範囲の移動との間の時間のズレが大きくなると、映像が所定の位置に定位しなくなり、映像のズレや揺れが発生する。
そこで、本技術は、プロジェクタが投影する映像の位置を安定させることができるようにするものである。
本技術の一側面の情報処理装置は、プロジェクタの投影領域の範囲に関する情報である投影領域情報を取得する取得部と、前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御部とを備える。
前記プロジェクタには、前記コンテンツの映像を構成する1つの画像に対応する第1の色の画像と、前記1つの画像に対応し、前記第1の色と異なる第2の色の画像と、を異なる時間に投影させ、前記映像制御部には、前記投影領域情報に基づいて、前記第1の色の画像又は前記第2の色の画像の位置を制御させることができる。
前記映像制御部には、前記プロジェクタの前記投影領域が移動する速さが速くなるほど、前記第1の色の画像と前記第2の色の画像との前記プロジェクタから見た位置が離れるように制御させることができる。
前記プロジェクタには、前記コンテンツの映像を構成する1つの画像に対応する第1の色の画像と、前記1つの画像に対応し、前記第1の色と異なる第2の色の画像と、を異なる時間に投影させ、前記映像制御部には、前記1つの画像に対応する前記第1の色の画像及び前記第2の色の画像の投影が完了するまでの間、前記プロジェクタの投影方向を制御する駆動部による前記プロジェクタの投影方向の移動を停止させることができる。
前記映像制御部は、前記1つの画像の投影を開始する前に、前記駆動部による前記プロジェクタの投影方向の移動を停止させ、前記1つの画像に対応する前記第1の色の画像及び前記第2の色の画像の投影が完了した後、前記駆動部による前記プロジェクタの投影方向の移動を再開させることができる。
前記投影領域情報を、前記プロジェクタの投影方向を制御する駆動部の制御情報に基づいて算出させることができる。
前記投影領域情報には、前記駆動部の制御情報及び特性に基づく前記投影領域の範囲に関する予測値を含ませることができる。
前記駆動部の制御情報に基づいて、前記投影領域情報の算出を行う算出部をさらに設けることができる。
前記プロジェクタと、前記駆動部とをさらに設けることができる。
前記投影領域情報を、前記プロジェクタの動きを検出するセンサからの情報に基づいて算出させることができる。
前記投影領域情報には、前記センサからの情報に基づく前記投影領域の範囲に関する予測値を含ませることができる。
前記センサからの情報に基づいて、前記投影領域情報の算出を行う算出部をさらに設けることができる。
前記プロジェクタと、前記センサとをさらに設けることができる。
前記投影領域情報には、前記投影領域の位置を表す情報、又は、前記投影領域の移動方向及び移動量を表す情報のうち少なくとも一方を含ませることができる。
前記投影領域の位置、又は、前記投影領域の移動方向及び移動量を、映像を投影する対象となる投影対象領域のデプス情報に基づく前記プロジェクタと前記投影領域との間の距離に基づいて算出させることができる。
前記投影対象領域のデプス情報を含むマップを生成するマップ生成部をさらに設けることができる。
前記映像制御部には、前記投影対象領域に対して予め設定されている映像の表示位置を示す映像位置情報に基づいて、前記表示映像範囲を制御させることができる。
前記映像制御部には、前記投影領域情報に基づいて、前記表示映像範囲を設定し、設定した前記表示映像範囲に対応する映像を前記プロジェクタに投影させることができる。
本技術の一側面の情報処理方法は、プロジェクタの投影領域の範囲に関する情報である投影領域情報の取得を制御する取得制御ステップと、前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御ステップとを含む。
本技術の一側面のプログラムは、プロジェクタの投影領域の範囲に関する情報である投影領域情報の取得を制御する取得制御ステップと、前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御ステップとを含む処理をコンピュータシステムに実行させる。
本技術の一側面においては、プロジェクタの投影領域の範囲に関する情報である投影領域情報が取得され、前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲が制御される。
本技術の一側面によれば、プロジェクタが投影する映像の位置を安定させることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用したAVシステムの一実施の形態を示すブロック図である。 図1のAVシステムの駆動型プロジェクタの外観の構成例を示す模式図である。 図1のAVシステムにより実行される空間マップ生成処理を説明するためのフローチャートである。 反射率の算出方法を説明するための図である。 図1のAVシステムにより実行される表示制御処理の第1の実施の形態を説明するためのフローチャートである。 表示制御処理の第1の実施の形態の具体例を説明するための図である。 投影領域の移動量の算出方法の例を説明するための図である。 投影領域と表示映像範囲の関係を示す図である。 図1のAVシステムにより実行されるカラーブレーキング対策の第1の方法を実現するための表示制御処理を説明するためのフローチャートである。 カラーブレーキング対策の第1の方法を説明するための図である。 カラーブレーキング対策の第2の方法を説明するための図である。 本技術を適用したハンディ型プロジェクタの一実施の形態を示すブロック図である。 コンピュータの構成例を示すブロック図である。
以下、発明を実施するための形態(以下、「実施形態」と記述する)について図面を用いて詳細に説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
なお、以下、コンテンツとは、映像(静止画像、動画像等)の他、キャラクタ、アイコン等のパーツを含み、映像になる前の状態(データ)を含む概念であるものとする。
<1.実施の形態>
{AVシステム10の構成例}
まず、図1及び図2を参照して、本技術を適用したAV(Audio Visual)システム10の構成例について説明する。図1は、AVシステム10の機能の構成例を示すブロック図である。図2は、AVシステム10を構成する駆動型プロジェクタ11の外観の構成例を示す模式図である。
AVシステム10は、所定の空間(以下、表示空間と称する)に映像を投影するとともに、映像に伴う音を出力するシステムである。また、AVシステム10は、表示空間内において映像の表示位置及び仮想音源の位置を自由に変更することができ、例えば、プロジェクションマッピング等に用いられる。
AVシステム10は、駆動型プロジェクタ11、センサ部12、操作部13、及び、情報処理装置14を備える。
駆動型プロジェクタ11は、反射型スピーカ31、プロジェクタ32、デプスセンサ33、及び、駆動部34を備えている。図2に示されるように、駆動型プロジェクタ11においては、駆動部34の上にデプスセンサ33が設置され、デプスセンサ33の上にプロジェクタ32が設置され、プロジェクタ32の上に反射型スピーカ31が設置されている。
反射型スピーカ31は、情報処理装置14の制御の下に、表示空間内の所望の位置に出力音を当てて反射させることにより、反射位置に仮想音源を生成するスピーカである。ユーザは、仮想音源の位置から音が出力されているように感じる。反射型スピーカ31は、反射位置に仮想音源を生成することが可能なスピーカであれば、特に方式は問わない。例えば、反射型スピーカ31は、鋭い指向性を持つ超指向性スピーカにより構成される。
なお、後述するように、反射型スピーカ31の出力音に対する反射音に基づいて、表示空間の空間マップを作成する場合、反射型スピーカ31から超音波の出力音を出力できるようにすることが望ましい。そのようなスピーカの例として、超音波からなる搬送波を所定の方式で変調した信号を出力する超音波スピーカ(パラメトリックスピーカ)等が挙げられる。
なお、以下、反射型スピーカ31が、仮想音源に向けて出力音を出力し、仮想音源において出力音を反射させることを、単に仮想音源から音を出力させると表現する場合がある。
プロジェクタ32は、情報処理装置14の制御の下に、情報処理装置14から供給される映像データに基づく映像を表示空間内の壁や物体等に投影する。なお、プロジェクタ32の方式は、特定の方式に限定されるものではなく、任意の方式を採用することが可能である。
デプスセンサ33は、情報処理装置14の制御の下に、例えば、赤外光を用いて、表示空間内の各位置の駆動型プロジェクタ11(より正確には、デプスセンサ33)からの距離を示す距離画像を撮影し、撮影した距離画像を情報処理装置14に供給する。なお、デプスセンサ33の方式には、TOF(Time of Flight)方式、パターン照射方式、ステレオカメラ方式等の任意の方式を採用することができる。
駆動部34は、情報処理装置14の制御の下に、反射型スピーカ31の出力方向、プロジェクタ32の投影方向、及び、デプスセンサ33の撮影方向を制御する。駆動部34は、パンモータ41、チルトモータ42、及び、モータ制御部43を備えている。
パンモータ41は、反射型スピーカ31、プロジェクタ32、及び、デプスセンサ33をパン方向(水平方向)に回転させるモータである。パンモータ41は、エンコーダを備えており、例えば、パンモータ41の回転速度及び回転位置の検出結果をモータ制御部43に供給する。
チルトモータ42は、反射型スピーカ31、プロジェクタ32、及び、デプスセンサ33をチルト方向(垂直方向)に回転させるモータである。チルトモータ42は、エンコーダを備えており、例えば、チルトモータ42の回転速度及び回転位置の検出結果をモータ制御部43に供給する。
モータ制御部43は、情報処理装置14の制御の下に、パンモータ41及びチルトモータ42の回転を制御する。また、モータ制御部43は、駆動部34の制御情報を情報処理装置14に供給する。駆動部34の制御情報は、例えば、パンモータ41及びチルトモータ42の回転速度及び回転位置を含む。
なお、駆動部34を、例えば、ヨー方向(映像の投影方向の主軸周り)にも回転可能な構成としてもよい。また、駆動部34は、モータや車輪等の移動機構をさらに備えていてもよい。
センサ部12は、カメラ61、魚眼カメラ62、及び、マイクロフォン63を備える。
カメラ61は、表示空間内を撮影し、撮影の結果得られた画像(以下、表示空間画像と称する)を情報処理装置14に供給する。表示空間画像は、例えば、表示空間内のユーザの位置、視線方向、ジェスチャ等の検出に用いられる。
魚眼カメラ62は、魚眼レンズを備えるカメラにより構成され、超広角の画像を撮影する。魚眼カメラ62は、撮影の結果得られた画像(以下、魚眼画像と称する)を情報処理装置14に供給する。魚眼画像は、例えば、ポインティングデバイス81から出射された赤外光の照射位置(ポインティング位置)の検出に用いられる。
マイクロフォン63は、例えば、反射型スピーカ31からの出力音に対する反射音の検出に用いられる。マイクロフォン63は、検出した音を示す音声信号を情報処理装置14に供給する。
操作部13は、ポインティングデバイス81を備える。
ポインティングデバイス81は、ユーザが所望の位置を指し示すための操作デバイスである。例えば、ポインティングデバイス81は、赤外光を照射し、赤外光によりユーザの操作に応じた位置(ポインティング位置)を指し示す。
なお、ポインティングデバイス81を、専用のデバイスにより構成してもよいし、スマートフォンやリモートコントローラ等の他の用途にも利用可能な汎用のデバイスにより構成してもよい。
情報処理装置14は、例えば、コンピュータ、或いは、CPU等のプロセッサ及びメモリ等により構成される。情報処理装置14は、主に駆動型プロジェクタ11の制御に用いられる。
情報処理装置14は、インタフェース(I/F)部101、ポインティング位置検出部102、ユーザ検出部103、マップ生成部104、記憶部105、移動量算出部106、入力部107、及び、制御部108を備える。
I/F部101は、例えば、通信デバイス、コネクタ等により構成される。I/F部101は、反射型スピーカ31、プロジェクタ32、デプスセンサ33、モータ制御部43、カメラ61、魚眼カメラ62、及び、マイクロフォン63との間でデータ等の送受信を行う。また、I/F部101は、受信したデータ等を情報処理装置14の各部に供給したり、送信するデータ等を情報処理装置14の各部から取得したりする。
なお、I/F部101の通信方式には、有線又は無線の任意の方式を採用することができる。また、I/F部101の通信方式を、通信を行う対象毎に変えてもよい。さらに、I/F部101は、例えば、各通信対象と直接通信を行うようにしてもよいし、ネットワーク等を介して通信を行うようにしてもよい。
ポインティング位置検出部102は、魚眼カメラ62により撮影された魚眼画像に基づいて、ポインティングデバイス81によるポインティング位置の検出を行う。ポインティング位置検出部102は、検出結果を制御部108に供給する。
なお、ポインティング位置検出部102の検出方法には、任意の方法を採用することができる。
ユーザ検出部103は、カメラ61により撮影された表示空間画像に基づいて、例えば、表示空間内のユーザの位置、視線方向、ジェスチャ等を検出する。ユーザ検出部103は、検出結果を制御部108に供給する。
なお、ユーザ検出部103の検出方法には、任意の方法を採用することができる。
マップ生成部104は、I/F部101を介して、デプスセンサ33及びモータ制御部43を制御して、デプスセンサ33による表示空間内の距離画像の撮影を制御する。そして、マップ生成部104は、距離画像を用いて、表示空間内の空間認識を行い、表示空間内の物体や壁等の3次元形状を示す第1空間マップを生成する。第1空間マップは、例えば、3次元の点群マップからなり、表示空間内の各位置の駆動型プロジェクタ11からの距離を示すデプス情報を含む。
また、マップ生成部104は、I/F部101を介して、反射型スピーカ31及びモータ制御部43を制御して、反射型スピーカ31からの出力音の表示空間内の走査を制御する。そして、マップ生成部104は、表示空間内に出力音を走査したときにマイクロフォン63により検出された反射音の検出結果に基づいて、表示空間内の空間認識を行い、表示空間内の物体や壁等の3次元形状を示す第2空間マップを生成する。第2空間マップは、例えば、3次元の点群マップからなり、表示空間内の各位置の駆動型プロジェクタ11からの距離を示すデプス情報、及び、各位置の反射特性(例えば、反射率、反射角等)を示す反射特性情報を含む。
さらに、マップ生成部104は、第1空間マップと第2空間マップを統合した統合空間マップを生成する。統合空間マップは、例えば、表示空間内の各位置の駆動型プロジェクタ11からの距離を示すデプス情報、各位置の反射特性を示す反射特性情報、及び、表示空間内の各位置の映像の表示の可否(映像の投影の可否)を示す表示特性情報を含む。また、統合空間マップは、例えば、表示空間に対して予め設定されている映像の表示位置を示す映像位置情報を含む。マップ生成部104は、生成した統合空間マップを記憶部105に記憶させる。
さらに、マップ生成部104は、例えば、第1空間マップに基づいて、マイクロフォン63等の位置を検出する。マップ生成部104は、検出結果を制御部108に供給する。
なお、例えば、カメラ61により撮影された表示空間画像に基づいて、マイクロフォン63等の位置を検出するようにしてもよい。
移動量算出部106は、駆動部34の制御情報に基づいて、プロジェクタ32の投影領域の移動方向及び移動量を算出又は予測する。移動量算出部106は、投影領域の移動方向及び移動量の算出結果又は予測結果を制御部108に供給する。
なお、例えば、移動量算出部106は、投影領域の移動速度又は加速度に基づいて、投影領域の移動方向及び移動量を予測することも可能である。また、例えば、移動量算出部106は、プロジェクタ32の投影方向の移動(角)速度、(角)加速度に基づいて、投影領域の移動方向及び移動量を予測することも可能である。
入力部107は、例えば、操作デバイス等により構成され、制御部108への指令やデータ(例えば、映像データ、音声データ)等の入力に用いられる。
制御部108は、映像制御部111及び音響制御部112を備える。
映像制御部111は、駆動型プロジェクタ11による映像の表示を制御する。例えば、映像制御部111は、I/F部101を介してプロジェクタ32を制御して、表示する映像の内容及び表示タイミング等を制御する。また、映像制御部111は、例えば、プロジェクタ32の投影領域の移動方向及び移動量の算出結果又は予測結果に基づいて、表示映像範囲を制御する。ここで、表示映像範囲とは、表示空間内に表示するように設定されているコンテンツのうち、投影領域内に表示されるコンテンツの範囲のことである。
また、例えば、映像制御部111は、I/F部101を介してモータ制御部43を制御して、プロジェクタ32の映像の投影方向、及び、反射型スピーカ31の出力方向を制御することにより、映像の表示位置、及び、出力音の反射位置(すなわち、仮想音源の位置)を制御する。
音響制御部112は、反射型スピーカ31による出力音の出力を制御する。例えば、音響制御部112は、I/F部101を介して反射型スピーカ31を制御して、出力音の内容、音量、及び、出力タイミング等を制御する。
なお、以下、説明を分かりやすくするために、I/F部101の記載を適宜省略する。例えば、映像制御部111が、I/F部101を介してプロジェクタ32に映像データを供給する場合、単に、映像制御部111が、プロジェクタ32に映像データを供給すると記載する。
{AVシステム10の処理}
次に、図3乃至図10を参照して、AVシステム10の処理について説明する。
(空間マップ生成処理)
まず、図3のフローチャートを参照して、AVシステム10により実行される空間マップ生成処理について説明する。
なお、この処理は、例えば、駆動型プロジェクタ11が設置されたとき、又は、駆動型プロジェクタ11の設置位置が移動したとき開始される。駆動型プロジェクタ11の設置位置の移動は、例えば、カメラ61により撮影された表示空間画像に基づいて検出したり、或いは、駆動型プロジェクタ11に加速度センサ、ジャイロセンサ等を設けることにより検出することができる。
また、例えば、カメラ61により撮影された表示空間画像に基づいて、表示空間の状態が変化したときに、空間マップ生成処理を開始するようにしてもよい。表示空間の状態の変化としては、例えば、表示空間内の可動部の移動(例えば、ドア、窓、カーテン等の開閉)、表示空間内への人の出入り等が想定される。
ステップS1において、AVシステム10は、表示空間内の測定を行う。具体的には、マップ生成部104は、モータ制御部43を制御して、駆動部34をパン方向及びチルト方向に回転させ、デプスセンサ33に表示空間内の全ての領域を走査させるとともに、反射型スピーカ31から出力される出力音(超音波信号)を表示空間内の全ての領域を走査させる。
これにより、デプスセンサ33により表示空間内の全ての領域が撮影され、各領域のデプスセンサ33からの距離を示す距離画像が得られる。デプスセンサ33は、撮影した距離画像をマップ生成部104に供給する。また、表示空間内の全ての領域からの出力音に対する反射音がマイクロフォン63により検出される。マイクロフォン63は、検出結果を示す音声信号をマップ生成部104に供給する。
ステップS2において、マップ生成部104は、空間マップを生成する。具体的には、マップ生成部104は、デプスセンサ33により撮影された距離画像に基づいて、第1空間マップを生成する。第1空間マップは、表示空間内の各位置の駆動型プロジェクタ11からの距離を示すデプス情報を含む。
なお、デプスセンサ33は、赤外光の反射を利用しているため、黒壁、コンクリート、ガラス等の赤外光の反射を利用できない領域のデプス情報が、第1空間マップにおいて欠落する。
また、マップ生成部104は、第1空間マップに基づいて、表示空間内におけるマイクロフォン63等の位置を検出する。マップ生成部104は、検出結果を制御部108に供給する。
さらに、マップ生成部104は、マイクロフォン63からの音声信号に基づいて、第2空間マップを生成する。具体的には、マップ生成部104は、出力音の出力方向、反射型スピーカ31及びマイクロフォン63の位置、並びに、出力音を出力してから反射音を受信するまでの時間に基づいて、反射型スピーカ31及びマイクロフォン63からの表示空間内の各位置までの距離を算出する。
また、マップ生成部104は、反射音の音量に基づいて、表示空間内の各位置の反射率を算出する。例えば、図4に示されるように、反射型スピーカ31から出力された出力音が反射位置Pで反射され、その反射音をマイクロフォン63により検出した場合について説明する。なお、以下、反射型スピーカ31と反射位置Pの間の距離をL1とし、反射位置Pとマイクロフォン63の間の距離をL2とする。
ここで、反射位置Pにおいて、出力音が減衰することなく全てマイクロフォン63の方向に反射されると仮定した場合(反射率100%であると仮定した場合)、マイクロフォン63により検出される反射音の出力音に対する減衰量は、距離L1+距離L2に基づいて推定することができる。以下、この場合の減衰量を基準減衰量と称する。
一方、実際には、出力音は反射位置Pにおいて拡散又は吸収されるため、マイクロフォン63の方向に反射される反射音の音量は小さくなる。そこで、マップ生成部104は、マイクロフォン63により実際に検出される反射音の出力音に対する減衰量と、基準減衰量との比率により、反射位置Pの反射率を推定する。
そして、マップ生成部104は、表示空間内の各位置の駆動型プロジェクタ11からの距離を示すデプス情報、及び、表示空間内の各位置の反射率を示す反射特性情報を含む第2空間マップを生成する。
なお、赤外光の反射が利用できず、第1空間マップにおいてデプス情報が欠落している領域であっても、出力音(超音波信号)の反射が利用できる領域であれば、その領域のデプス情報を得ることができる。
ステップS3において、マップ生成部104は、空間マップを統合する。具体的には、マップ生成部104は、第1空間マップにおいてデプス情報が欠落している領域のデプス情報を、第2空間マップのデプス情報で補う。
また、マップ生成部104は、表示空間内の各位置において映像の表示が可能であるか否かを示す表示特性情報を生成する。例えば、マップ生成部104は、第1空間マップにおいてデプス情報が得られている位置を、映像の表示が可能な位置であると判定する。一方、マップ生成部104は、第1空間マップにおいてデプス情報が欠落している位置の硬度や表面材質を、第2空間マップの反射特性情報に基づいて推定する。そして、マップ生成部104は、推定した硬度及び表面材質に基づいて、第1空間マップにおいてデプス情報が欠落している位置において映像の表示が可能であるか否かを判定する。これにより、例えば、黒壁、コンクリート、ガラス等の映像の投影が困難な位置が、映像の表示が困難な位置であると判定される。
なお、マップ生成部104は、第1空間マップにおいてデプス情報が欠落している全ての位置を、映像の表示が困難な位置であると判定するようにしてもよい。
さらに、マップ生成部104は、第2空間マップの表示空間内の各位置の反射特性情報を、そのまま統合空間マップの反射特性情報として用いる。
このようにして、マップ生成部104は、表示空間内の各位置のデプス情報、表示特性情報、及び、反射特性情報を含む統合空間マップを生成する。
また、マップ生成部104は、例えば、表示空間に対して予め設定されている映像の表示位置を示す映像位置情報を統合空間マップに追加する。映像位置情報には、例えば、表示空間の各位置において表示するように設定されている映像の内容が示されている。なお、表示空間において表示される映像が動画である場合、例えば、映像位置情報には、各位置において表示するように設定されている映像の内容が時系列により示される。
マップ生成部104は、生成した統合空間マップを記憶部105に記憶させる。
その後、空間マップ生成処理は終了する。
なお、例えば、空間マップの生成中に、空間マップを生成中である旨の情報を、画像や音声等により駆動型プロジェクタ11から出力するようにしてもよい。
(表示制御処理)
次に、図5のフローチャートを参照して、AVシステム10により実行される表示制御処理について説明する。この処理は、例えば、ユーザが、ポインティングデバイス81、情報処理装置14の入力部107、ジェスチャ、又は、視線等の任意の方法により、プロジェクタ32の投影領域の移動の指令をAVシステム10に与えたとき開始される。
なお、以下、図6に示されるように、プロジェクタ32の投影領域の移動先(目標位置)を領域P3に設定し、投影領域を領域P1から領域P3に上方向に移動させる場合を、適宜具体例として説明する。
例えば、図6のAの投影領域P1内には、家である被写体S1が表示されている。また、表示空間内における被写体S1の表示位置は固定されており、プロジェクタ32の投影領域が領域P1から領域P3に移動しても、表示空間内における被写体S1の位置は固定されたまま移動しない。この例では、被写体S1は、投影領域P3の外にあるため、投影領域が領域P3に移動した場合には、被写体S1が表示されなくなる。
なお、図6では、図を簡単にするために、駆動型プロジェクタ11の反射型スピーカ31及びデプスセンサ33の図示を省略している。
ステップS51において、映像制御部111は、プロジェクタ32の駆動を開始する。具体的には、映像制御部111は、モータ制御部43を制御して、投影領域を移動させる方向に応じて、パンモータ41及びチルトモータ42の少なくとも一方の回転を開始させる。
ステップS52において、移動量算出部106は、投影領域の移動方向及び移動量を算出する。例えば、移動量算出部106は、駆動部34の制御情報をモータ制御部43から取得する。上述したように、駆動部34の制御情報は、パンモータ41及びチルトモータ42の回転速度及び回転位置を含んでいる。そして、例えば、移動量算出部106は、パンモータ41及びチルトモータ42の回転速度及び回転位置に基づいて、前のフレームの映像を投影した後のプロジェクタ32のパン方向及びチルト方向の回転方向及び回転角を検出する。
また、移動量算出部106は、プロジェクタ32のパン方向及びチルト方向の回転方向に基づいて、投影領域の移動方向を検出する。さらに、移動量算出部106は、統合空間マップのデプス情報に基づいて、プロジェクタ32と投影領域との間の距離を求める。そして、移動量算出部106は、プロジェクタ32のパン方向及びチルト方向の回転角、並びに、プロジェクタ32と投影領域との間の距離に基づいて、投影領域のパン方向及びチルト方向の移動量を算出する。移動量算出部106は、投影領域の移動方向及び移動量の算出結果を制御部108に供給する。
ここで、図7に示されるように、投影領域が領域P1から領域P1と領域P3(図6)の間の領域P2まで移動した場合の投影領域の移動量の算出方法を例に挙げて説明する。
なお、図7では、図6と同様に、図を簡単にするために、駆動型プロジェクタ11の反射型スピーカ31及びデプスセンサ33の図示を省略している。
移動量算出部106は、チルトモータ42の回転速度及び回転位置に基づいて、プロジェクタ32の回転角θを検出する。また、移動量算出部106は、統合空間マップのデプス情報に基づいて、プロジェクタ32と投影領域P1との間の距離Lを求める。
そして、移動量算出部106は、例えば、次式(1)により、投影領域P1と投影領域P2の間の移動量Hを算出する。
H=L×tanθ ・・・(1)
なお、この例では、投影領域P1がプロジェクタ32とほぼ同じ高さにあり、投影領域P1に対するプロジェクタ32の投影方向がほぼ水平なので、次式(1)により移動量Hを算出することが可能である。一方、投影領域P1の高さによっては、式(1)とは異なる式により、移動量Hが算出される場合がある。
また、統合空間マップを用いることにより、デプスセンサ33等により距離Lを検出する処理を省略できるため、移動量算出部106は、移動量Hをより迅速に算出することができる。
なお、プロジェクタ32が、回転方向だけでなく並進方向にも移動する場合には、移動量算出部106は、その並進方向の移動も考慮して、投影領域の移動方向及び移動量を算出する。
ステップS53において、映像制御部111は、表示映像範囲を設定する。例えば、映像制御部111は、統合空間マップの映像位置情報に基づいて、算出した移動方向及び移動量だけ移動した後の投影領域に表示する映像の範囲である表示映像範囲を設定する。この表示映像範囲は、前のフレームの表示映像範囲から、算出した投影領域の移動方向と同じ方向に、投影領域の移動量と同じ量だけ移動した範囲となる。
例えば、上述した図7の例において、映像制御部111は、投影領域P2に対応する表示映像範囲を設定する。投影領域P2に対応する表示映像範囲は、投影領域P1に対応する表示映像範囲から上方向に距離Hだけ移動した範囲となる。
ステップS54において、AVシステム10は、映像を表示する。具体的には、映像制御部111は、ステップS53の処理で設定した表示映像範囲内の映像に対応する映像データをプロジェクタ32に供給する。プロジェクタ32は、映像制御部111から供給された映像データに基づく映像を投影する。
例えば、上述した図7の例において、表示映像範囲が上方向に距離Hだけ移動する。これに伴い、投影領域P2内における被写体S1の位置は、表示映像範囲の移動方向とは逆に、投影領域P1内における被写体S1の位置から下方向に距離Hだけ移動する。
ステップS55において、映像制御部111は、投影領域の移動が完了したか否かを判定する。映像制御部111は、投影領域が移動先として設定された目標位置に到達していない場合、投影領域の移動が完了していないと判定し、処理はステップS52に戻る。
その後、ステップS55において、投影領域の移動が完了したと判定されるまで、ステップS52乃至S55の処理が繰り返し実行される。
一方、ステップS55において、映像制御部111は、投影領域が目標位置に到達した場合、投影領域の移動が完了したと判定し、処理はステップS56に進む。
ステップS56において、映像制御部111は、プロジェクタ32の駆動を停止する。具体的には、映像制御部111は、モータ制御部43を制御して、パンモータ41及びチルトモータ42の回転を停止させる。
その後、表示制御処理は終了する。
このようにして、投影領域の移動に追従して表示映像範囲が移動し、表示空間内の決められた場所に決められた映像が表示される。
例えば、映像制御部111が、モータ制御部43を介してパンモータ41及びチルトモータ42の駆動を開始してから、パンモータ41及びチルトモータ42が実際に回転を開始するまでに時間を要する。さらに、パンモータ41及びチルトモータ42が回転を開始してから回転速度が安定し等速になるまでに時間を要する。従って、プロジェクタ32の投影領域も、移動を開始するまでに時間を要し、さらに投影領域の移動速度が安定し等速になるまでに時間を要する。
図8は、図6及び図7に示されるように、プロジェクタ32の投影領域を移動させた場合の投影領域と表示映像範囲の関係を示す図である。図内の上方には、投影領域と投影領域内に表示される映像が模式的に示されている。図内の下方には、投影領域及び表示映像範囲の移動速度を示すグラフが表示されている。なお、グラフの横軸は時間を示し、縦軸は移動速度を示している。
例えば、時刻t0において、映像制御部111が、モータ制御部43を介してチルトモータ42の駆動を開始した後、時刻t1においてチルトモータ42が回転を開始し、投影領域の移動が開始される。その後、チルトモータ42の回転速度が徐々に加速し、時刻t2において回転速度が安定し等速になる。そして、時刻t3において、投影領域が目標位置である領域P3に到達したとき、映像制御部111は、モータ制御部43を介して、チルトモータ42の回転を停止させる。
例えば、時刻t0と時刻t1の間の時刻taにおいて、新たなフレームの映像を投影する場合、投影領域が移動していないため、図6のAの例と同様に、投影領域P1にそのまま被写体S1が同じ位置に表示される。
次に、時刻t1と時刻t2の間の時刻tbにおいて、次のフレームの映像を投影する場合、投影領域は、領域P1から図7のBの領域P2まで移動している。これに合わせて、映像制御部111は、投影領域の移動方向と同じ方向に、時刻taと時刻tbの間の投影領域の移動量と同じ量だけ、表示映像範囲を移動させる。これにより、投影領域内において、被写体S1は、投影領域の移動方向と逆方向に投影領域の移動量と同じ量だけ移動する。その結果、投影領域の移動に関わらず、被写体S1の表示位置は、表示領域内の所定の位置に定位したまま移動しない。
次に、時刻t3の後の時刻tcにおいて、次のフレームの映像を投影する場合、投影領域は、領域P2から図6のBの領域P3まで移動している。これに合わせて、映像制御部111は、投影領域の移動方向と同じ方向に、時刻tbと時刻tcの間の投影領域の移動量と同じ量だけ、表示映像範囲を移動させる。これにより、被写体S1は、投影領域の移動方向と逆方向に投影領域の移動量と同じ量だけ移動するが、被写体S1は、投影領域P3の外に出て表示されなくなる。
このように、プロジェクタ32のパン方向及びチルト方向の回転に伴う投影領域のパン方向及びチルト方向の移動方向及び移動量が迅速に算出され、投影領域の移動に合わせて表示映像範囲が迅速に移動する。これにより、駆動開始時にパンモータ41及びチルトモータ42の動作が不安定になっても、映像が所定の位置に定位され、映像のズレや揺れ等の発生が抑制される。すなわち、プロジェクタ32が投影する映像の位置が安定する。
なお、以上の説明では、映像制御部111が、駆動部34の制御情報に基づいて、投影領域の移動方向及び移動量を算出し、算出した移動方向及び移動量に基づいて、表示映像範囲を移動させる例を示した。すなわち、プロジェクタ32のパン方向及びチルト方向の回転による投影領域の移動に追従して、表示映像範囲を移動する例を示した。
一方、例えば、駆動部34に特性を予め把握しておき、駆動部34の制御情報及び特性に基づいて、投影領域の移動方向及び移動量を予測するようにすることも可能である。ここで、駆動部34の特性として、例えば、パンモータ41及びチルトモータ42の応答特性や回転特性等が挙げられる。
例えば、図5のステップS52において、映像制御部111が、駆動部34の制御情報及び特性に基づいて、投影領域の移動方向及び移動量を予測する。そして、映像制御部111が、投影領域の移動方向及び移動量の予測値に基づいて、表示映像範囲を設定するようにしてもよい。
これにより、投影領域の移動とほぼ同時に表示映像範囲を移動させることができ、投影領域の移動に対する表示映像範囲の移動の遅れがほぼ0になるため、映像のズレや揺れ等の発生をさらに抑制することができる。すなわち、プロジェクタ32が投影する映像の位置をさらに安定させることができる。
なお、このとき、例えば、プロジェクタ32の実際の投影方向を検出し、検出結果をフィードバックし、投影領域の位置を補正することにより、プロジェクタ32が投影する映像の位置をさらに安定させることができる。
また、例えば、プロジェクタ32が、単板式のDLP(Digital Light Processing)方式のプロジェクタからなり、コンテンツの映像を構成する1つの画像に対してR(赤)、G(緑)、B(青)の各色の画像を、時分割で異なる時間に投影する場合がある。そして、ユーザは、異なる時間に投影された各色の画像を視認することにより、1つのカラーの画像を認識する。ここで、1つの画像とは、例えば、静止画像、動画像の1コマの画像等である。
この場合、上述した方法により投影領域及び表示映像領域を移動させると、カラーブレーキングが発生するおそれがある。ここで、カラーブレーキングとは、例えば、同じ1つの画像に対応する異なる色の画像が異なる位置に投影されることにより、色ずれ等が発生する現象である。
ここで、図9のフローチャートを参照して、カラーブレーキング対策の第1の方法を実現するための表示制御処理について説明する。
ステップS101において、図5のステップS51の処理と同様に、プロジェクタ32の駆動が開始される。
ステップS102において、図5のステップS56の処理と同様に、プロジェクタ32の駆動が停止される。
ステップS103において、図5のステップS52の処理と同様に、投影領域の移動方向及び移動量が算出される。
ステップS104において、図5のステップS53の処理と同様に、表示映像範囲が設定される。
ステップS105において、AVシステム10は、映像を表示する。具体的には、映像制御部111は、ステップS104の処理で設定した表示映像範囲内の映像に対応する映像データをプロジェクタ32に供給する。プロジェクタ32は、映像制御部111から供給された映像データに基づく映像を投影する。
このとき、プロジェクタ32は、例えば、図10に示されるように、表示映像範囲内の映像に対応するR、G、Bの各色の画像を、時分割で異なる時間に投影領域に投影する。
なお、図10の上のグラフの横軸は、時間を示し、R、G、Bの各色の画像を投影するタイミングを示している。
ここで、ステップS102において、プロジェクタ32の駆動が停止されており、投影領域の移動が停止している。従って、例えば、図10の被写体S2に対するR、G、Bの画像が、表示空間内の同じ位置に投影される。これにより、カラーブレーキングの発生が抑制され、被写体S2の表示位置が安定するとともに、被写体の色が忠実に再現される。
ステップS106において、図5のステップS55の処理と同様に、投影領域の移動が完了したか否かが判定される。投影領域の移動が完了していないと判定された場合、処理はステップS101に戻る。
その後、ステップS106において、投影領域の移動が完了したと判定されるまで、ステップS101乃至S106の処理が繰り返し実行される。
一方、ステップS106において、投影領域の移動が完了したと判定された場合、表示制御処理は終了する。
このように、投影領域を移動する際に、1つの画像に対応する全ての色の画像の投影が完了するまでの間、プロジェクタ32の駆動が一旦停止され、投影領域の移動が停止される。より具体的には、投影領域を移動する際に、1つの画像の投影を開始する前にプロジェクタ32の駆動が一旦停止され、投影領域の移動が一旦停止される。その後、当該1つの画像に対応する全ての色の画像の投影が完了した後、プロジェクタ32の駆動が再開され、投影領域の移動が再開される。これにより、上述したように、カラーブレーキングの発生が抑制され、映像の投影位置が安定するとともに、映像の色が忠実に再現される。
また、例えば、プロジェクタ32から投影されるR、G、Bの各色の画像の投影領域内の位置を制御することにより、カラーブレーキングの発生を抑制するようにしてもよい。
ここで、図11を参照して、カラーブレーキング対策の第2の方法について説明する。なお、図11には、プロジェクタ32の表示可能範囲Aと、Rの画像Vr、Gの画像Vg、及び、Bの画像Vbとの位置関係が示されている。表示可能範囲Aは、プロジェクタ32が映像を表示可能な範囲であり、プロジェクタ32の投影領域と等しい。プロジェクタ32は、表示可能範囲A内の任意の位置に任意の大きさの映像を表示することが可能である。従って、表示可能範囲Aより小さいサイズの映像を表示する場合、映像制御部111は、プロジェクタ32に供給する映像データにより、表示可能範囲A内の映像の位置を制御することができる。これにより、映像制御部111は、例えば、プロジェクタ32の投影方向を固定したまま、表示可能範囲A(投影領域)内で映像の位置を移動させることができる。一方、表示可能範囲Aと同じサイズの映像を表示する場合には、映像の位置は一意に定まる。
そして、映像制御部111は、表示可能範囲A内における画像Vr、画像Vg、及び、画像Vrの位置を制御することにより、投影領域の移動に伴う画像Vr、画像Vg、及び、画像Vrの位置のズレを防止する。具体的には、表示可能範囲A(=投影領域)は、プロジェクタ32の投影方向の移動とともに移動する。そこで、映像制御部111は、表示可能範囲Aの座標系における画像Vrに対する画像Vgの位置を、画像Vrを投影してから画像Vgを投影するまでの間の表示可能範囲A(投影領域)の移動を相殺する方向に、表示可能範囲Aの移動量に対応する移動量だけ移動させる。また、映像制御部111は、表示可能範囲Aの座標系における画像Vgに対する画像Vbの位置を、画像Vgを投影してから画像Vbを投影するまでの間の表示可能範囲A(投影領域)の移動を相殺する方向に、表示可能範囲Aの移動量に対応する移動量だけ移動させる。
従って、投影領域の移動速度が速くなるほど、表示可能範囲Aの座標系における画像Vr、Vg、及び、Vb間の間隔が長くなり、プロジェクタ32から見た画像Vr、Vg、及び、Vbの位置が離れる。一方、投影領域の移動速度が遅くなるほど、表示可能範囲Aの座標系における画像Vr、Vg、及び、Vb間の間隔が短くなり、プロジェクタ32から見た画像Vr、Vg、及び、Vbの位置が近づく。また、投影領域が停止している場合、表示可能範囲A内における画像Vr、Vg、及び、Vbの位置は、略一致する。
これにより、投影領域が移動していても、画像Vr、Vg及びVbが、表示空間内の略同じ位置に投影され、カラーブレーキングの発生が抑制される。
なお、映像制御部111の代わりに、プロジェクタ32が、表示可能範囲A内の各色の画像の位置を制御することも可能である。例えば、プロジェクタ32の映像制御部(不図示)が、映像制御部111から供給される映像データに含まれる各色の画像をフレームバッファに配置する位置により、表示可能範囲A内の各色の画像の位置を制御することができる。
また、表示可能範囲A内において各色の画像をシフトするための制御ベクトルは、例えば、投影領域の移動方向及び移動量に基づくベクトルに基づいて、所定の関数により算出される。
なお、上述したカラーブレーキング対策を適用可能な画像の色の組み合わせは、上述したR、G、Bに限定されるものではなく、任意である。
<2.変形例>
以下、上述した本技術の実施の形態の変形例について説明する。
{システムの構成例に関する変形例}
図1のAVシステム10の構成例は、その一例であり、必要に応じて変更することが可能である。
例えば、反射型スピーカ31を駆動型プロジェクタ11と別に設け、プロジェクタ32と別に駆動できるようにしてもよい。これにより、仮想音源の位置をより柔軟に設定することが可能になる。
また、例えば、情報処理装置14の一部又は全部を駆動型プロジェクタ11に設けたり、駆動型プロジェクタ11の一部又は全部を情報処理装置14に設けたりすることが可能である。例えば、移動量算出部106を情報処理装置14ではなく、駆動型プロジェクタ11に設けるようにしてもよい。この場合、情報処理装置14のI/F部101は、投影領域の移動方向及び移動量に関する情報を駆動型プロジェクタ11から取得し、制御部108に供給する。そして、制御部108の映像制御部111は、取得した情報に基づいて、表示映像範囲を制御する。
さらに、例えば、センサ部12の一部又は全部を、駆動型プロジェクタ11又は情報処理装置14に設けるようにしてもよい。
また、本技術は、情報処理装置14から駆動部34の制御を行わず、駆動型プロジェクタ11が、情報処理装置14の制御によらずに、投影領域を移動させる場合にも適用することができる。すなわち、この場合も、上述した方法と同様に、映像制御部111が、駆動部34の制御情報に基づいて、投影領域の移動方向及び移動量を算出又は予測し、表示映像範囲を制御することが可能である。
さらに、駆動部34の構成は、上述した例に限定されるものではなく、他の構成を採用することが可能である。他の構成を採用した場合にも、上述した実施の形態と同様に、駆動部34の制御情報や特性等に基づいて、投影領域の移動方向及び移動量を算出又は予測するようにすればよい。
また、以上の説明では、プロジェクタ32の向きを変えることにより、投影領域を移動させる例を示したが、例えば、プロジェクタ32から投影される映像をミラー等の反射体で反射し、反射体の向きを変えることにより、投影領域を移動させるようにしてもよい。この場合、例えば、移動量算出部106は、反射体を駆動する駆動部の制御情報や特性等に基づいて、投影領域の移動方向及び移動量を算出又は予測するようにすればよい。
同様に、以上の説明では、反射型スピーカ31の向きを変えることにより、仮想音源の位置を移動させる例を示したが、例えば、反射型スピーカ31から出力される出力音をミラー等の反射体で反射し、反射体の向きを変えることにより、仮想音源の位置を移動させるようにしてもよい。
さらに、例えば、デプスセンサ33以外のセンサを用いて、表示空間内のデプス情報を取得するようにしてもよい。
また、本技術は、例えば、ユーザが手に持って向きを変えることにより投影領域を移動させるハンディ型のプロジェクタにも適用することができる。
図12は、ハンディ型プロジェクタ201の構成例を示すブロック図である。
ハンディ型プロジェクタ201は、反射型スピーカ211、プロジェクタ212、センサ部213、入力部214、及び、情報処理部215を備える。
反射型スピーカ211は、図1の反射型スピーカ31と同様に、壁等に出力音を当てて反射させることにより、反射位置に仮想音源を生成するスピーカである。
プロジェクタ212は、図1のプロジェクタ32と同様に、情報処理部215から供給される映像データに基づく映像を表示空間内の壁や物体等に投影する。
センサ部213は、デプスセンサ221、カメラ222、マイクロフォン223、加速度センサ224、及び、ジャイロセンサ225を備える。
デプスセンサ221は、図1のデプスセンサ33と同様に、赤外光を用いて、デプスセンサ221からの距離を示す距離画像を撮影し、撮影した距離画像を情報処理部215に供給する。
カメラ222は、ハンディ型プロジェクタ201の周囲を撮影し、撮影の結果得られた画像を情報処理部215に供給する。カメラ222により撮影された画像は、例えば、ハンディ型プロジェクタ201の周囲のユーザの位置、視線方向、ジェスチャ等の検出に用いられる。
マイクロフォン223は、図1のマイクロフォン63と同様に、例えば、反射型スピーカ211からの出力音に対する反射音の検出に用いられる。マイクロフォン223は、検出した音を示す音声信号を情報処理部215に供給する。
加速度センサ224は、例えば、ハンディ型プロジェクタ201のX軸、Y軸、及び、Z軸の3軸方向の加速度を検出する。加速度センサ224は、検出結果を示す信号を情報処理部215に供給する。
ジャイロセンサ225は、例えば、ハンディ型プロジェクタ201のヨー軸、ピッチ軸、及び、ロール軸の3軸回りの角速度を検出する。ジャイロセンサ225は、検出結果を示す信号を情報処理部215に供給する。
入力部214は、例えば、操作デバイス等により構成され、情報処理部215の制御部236への指令やデータ(例えば、映像データ、音声データ)等の入力に用いられる。
情報処理部215は、インタフェース(I/F)部231、ユーザ検出部232、マップ生成部233、記憶部234、移動量算出部235、及び、制御部236を備える。
I/F部231は、例えば、図1のI/F部101と同様に、通信デバイス、コネクタ等により構成される。I/F部231は、反射型スピーカ211、プロジェクタ212、デプスセンサ221、カメラ222、マイクロフォン223、加速度センサ224、及び、ジャイロセンサ225との間でデータ等の送受信を行う。また、I/F部231は、受信したデータ等を情報処理部215の各部に供給したり、送信するデータ等を情報処理部215の各部から取得したりする。
ユーザ検出部232は、カメラ222により撮影された画像に基づいて、例えば、ハンディ型プロジェクタ201の周囲のユーザの位置、視線方向、ジェスチャ等を検出する。ユーザ検出部232は、検出結果を制御部236に供給する。
なお、ユーザ検出部232の検出方法には、任意の方法を採用することができる。
マップ生成部233は、図1のマップ生成部104と同様に、デプスセンサ221により撮影された距離画像、及び、マイクロフォン223により検出される、反射型スピーカ211の出力音に対する反射音の検出結果を用いて、統合空間マップを生成する。マップ生成部233は、生成した統合空間マップを記憶部234に記憶させる。
移動量算出部235は、ハンディ型プロジェクタ201の動きを検出するセンサ(例えば、加速度センサ224及びジャイロセンサ225)からの情報に基づいて、ハンディ型プロジェクタ201の姿勢や動きを検出する。さらに、移動量算出部235は、ハンディ型プロジェクタ201の姿勢や動きの検出結果に基づいて、プロジェクタ212の投影領域の移動方向及び移動量を算出する。移動量算出部235は、投影領域の移動方向及び移動量の算出結果を制御部236に供給する。
或いは、移動量算出部235は、ハンディ型プロジェクタ201の動きを検出するセンサからの情報に基づいて、ハンディ型プロジェクタ201の姿勢や動きを予測する。さらに、移動量算出部235は、ハンディ型プロジェクタ201の姿勢や動きの予測結果に基づいて、プロジェクタ212の投影領域の移動方向及び移動量を予測する。移動量算出部235は、投影領域の移動方向及び移動量の予測結果を制御部236に供給する。なお、投影領域の移動方向及び移動量を予測には、例えば、特開2015‐72534号公報に開示されている技術を用いることが可能である。
ここで、移動量算出部235は、図1の情報処理装置14の移動量算出部106と同様に、統合空間マップを用いることにより、投影領域の移動量を迅速に算出又は予測することができる。
制御部236は、映像制御部241及び音響制御部242を備える。
映像制御部241は、プロジェクタ212による映像の表示を制御する。例えば、映像制御部241は、I/F部231を介してプロジェクタ212を制御して、表示する映像の内容及び表示タイミング等を制御する。
また、映像制御部241は、図1の情報処理装置14の映像制御部111と同様に、投影領域の移動方向及び移動量の算出結果又は予測結果に基づいて、表示映像範囲を制御する。これにより、図1のAVシステム10と同様に、ハンディ型プロジェクタ201の動きに合わせて表示映像範囲が移動し、映像が所定の位置に定位され、映像のズレや揺れ等の発生が抑制される。すなわち、プロジェクタ212が投影する映像の位置が安定する。
音響制御部242は、反射型スピーカ211による出力音の出力を制御する。例えば、音響制御部242は、I/F部231を介して反射型スピーカ211を制御して、出力音の内容、音量、及び、出力タイミング等を制御する。
なお、ハンディ型プロジェクタ201(プロジェクタ212)の動きを検出するセンサとして、加速度センサ224及びジャイロセンサ225以外のセンサや、センサの組み合わせを用いるようにしてもよい。
{空間マップに関する変形例}
空間マップに含まれる情報は、上述した例に限定されるものではなく、必要に応じて変更することが可能である。例えば、カメラ61等により取得した情報に基づいて、表示空間の各位置の色情報やテクスチャ情報等を空間マップに含めるようにしてもよい。
また、空間マップは、必ずしも表示空間内全ての領域の情報を含む必要はなく、少なくとも映像を投影する対象となる投影対象領域の情報を含んでいればよい。
さらに、以上の説明では、第1空間マップと第2空間マップを統合した統合空間マップを生成し、用いる例を示したが、いずれか一方のみを生成し、用いることも可能である。
また、空間マップの一部又は全部の情報を外部から情報処理装置14や情報処理部215に与えるようにしてもよい。
{その他の変形例}
以上の説明では、表示映像範囲の制御に、投影領域の移動方向及び移動量を用いる例を示したが、プロジェクタが次に映像を投影する際の表示空間内における投影領域の範囲に関する情報(投影領域情報)であって、投影領域の移動方向及び移動量以外の情報を用いることも可能である。例えば、投影領域の移動方向及び移動量を用いずに、直接投影領域の位置を算出又は予測して、表示映像範囲の制御に用いるようにしてもよい。
また、本技術を適用する映像の種類は特に限定されるものではなく、例えば、動画、静止画、2次元映像、3次元映像等が対象となる。なお、動画の場合は、時間の経過とともに表示空間に表示される映像が変化する。従って、例えば、投影領域に対応する表示映像範囲を設定する際に、その表示映像範囲の映像を投影する時点において表示空間に表示するように設定されている映像を対象にして表示映像範囲を設定するようにすればよい。
さらに、上述したカラーブレーキング対策の第2の方法は、プロジェクタ以外の表示装置(例えば、液晶ディスプレイ、有機ELディスプレイ等)が、1つの画像に対して異なる色の画像を、時分割で異なる時間に表示することにより、ユーザに1つのカラーの画像を認識させる場合にも適用することができる。例えば、表示画面を備える表示装置が、表示画面を見るユーザに対して相対的に移動する場合、カラーブレーキング対策の第2の方法を適用することができる。具体的には、例えば、表示装置がユーザに対して移動する場合、表示装置の移動方向及び移動量に基づいて、上述した方法により、表示画面内における各色の画像の表示位置をシフトさせることにより、カラーブレーキングの発生を抑制することができる。
{コンピュータの構成例}
上述した情報処理装置14、及び、情報処理部215の一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロフォンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、複数のコンピュータが連携して上述した処理を行うようにしてもよい。そして、上述した処理を行う単数又は複数のコンピュータにより、コンピュータシステムが構成される。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、例えば、本技術は以下のような構成も取ることができる。
(1)
プロジェクタの投影領域の範囲に関する情報である投影領域情報を取得する取得部と、
前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御部と
を備える情報処理装置。
(2)
前記プロジェクタは、前記コンテンツの映像を構成する1つの画像に対応する第1の色の画像と、前記1つの画像に対応し、前記第1の色と異なる第2の色の画像と、を異なる時間に投影し、
前記映像制御部は、前記投影領域情報に基づいて、前記第1の色の画像又は前記第2の色の画像の位置を制御する
前記(1)に記載の情報処理装置。
(3)
前記映像制御部は、前記プロジェクタの前記投影領域が移動する速さが速くなるほど、前記第1の色の画像と前記第2の色の画像との前記プロジェクタから見た位置が離れるように制御する
前記(2)に記載の情報処理装置。
(4)
前記プロジェクタは、前記コンテンツの映像を構成する1つの画像に対応する第1の色の画像と、前記1つの画像に対応し、前記第1の色と異なる第2の色の画像と、を異なる時間に投影し、
前記映像制御部は、前記1つの画像に対応する前記第1の色の画像及び前記第2の色の画像の投影が完了するまでの間、前記プロジェクタの投影方向を制御する駆動部による前記プロジェクタの投影方向の移動を停止する
前記(1)に記載の情報処理装置。
(5)
前記映像制御部は、前記1つの画像の投影を開始する前に、前記駆動部による前記プロジェクタの投影方向の移動を停止させ、前記1つの画像に対応する前記第1の色の画像及び前記第2の色の画像の投影が完了した後、前記駆動部による前記プロジェクタの投影方向の移動を再開させる
前記(4)に記載の情報処理装置。
(6)
前記投影領域情報は、前記プロジェクタの投影方向を制御する駆動部の制御情報に基づいて算出される
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記投影領域情報は、前記駆動部の制御情報及び特性に基づく前記投影領域の範囲に関する予測値を含む
前記(6)に記載の情報処理装置。
(8)
前記駆動部の制御情報に基づいて、前記投影領域情報の算出を行う算出部を
さらに備える前記(6)又は(7)に記載の情報処理装置。
(9)
前記プロジェクタと、
前記駆動部と
をさらに備える前記(8)に記載の情報処理装置。
(10)
前記投影領域情報は、前記プロジェクタの動きを検出するセンサからの情報に基づいて算出される
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(11)
前記投影領域情報は、前記センサからの情報に基づく前記投影領域の範囲に関する予測値を含む
前記(10)に記載の情報処理装置。
(12)
前記センサからの情報に基づいて、前記投影領域情報の算出を行う算出部を
さらに備える前記(10)又は(11)に記載の情報処理装置。
(13)
前記プロジェクタと、
前記センサと
をさらに備える前記(12)に記載の情報処理装置。
(14)
前記投影領域情報は、前記投影領域の位置を表す情報、又は、前記投影領域の移動方向及び移動量を表す情報のうち少なくとも一方を含む
前記(1)乃至(13)のいずれかに記載の情報処理装置。
(15)
前記投影領域の位置、又は、前記投影領域の移動方向及び移動量は、映像を投影する対象となる投影対象領域のデプス情報に基づく前記プロジェクタと前記投影領域との間の距離に基づいて算出される
前記(14)に記載の情報処理装置。
(16)
前記投影対象領域のデプス情報を含むマップを生成するマップ生成部を
さらに備える前記(15)に記載の情報処理装置。
(17)
前記映像制御部は、前記投影対象領域に対して予め設定されている映像の表示位置を示す映像位置情報に基づいて、前記表示映像範囲を制御する
前記(15)又は(16)に記載の情報処理装置。
(18)
前記映像制御部は、前記投影領域情報に基づいて、前記表示映像範囲を設定し、設定した前記表示映像範囲に対応する映像を前記プロジェクタに投影させる
前記(1)乃至(17)のいずれかに記載の情報処理装置。
(19)
プロジェクタの投影領域の範囲に関する情報である投影領域情報の取得を制御する取得制御ステップと、
前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御ステップと
を含む情報処理方法。
(20)
プロジェクタの投影領域の範囲に関する情報である投影領域情報の取得を制御する取得制御ステップと、
前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御ステップと
を含む処理をコンピュータシステムに実行させるためのプログラム。
10 AVシステム, 11 駆動型プロジェクタ, 12 センサ部, 13 操作部, 14 情報処理装置, 31 反射型スピーカ, 32 プロジェクタ, 33 デプスセンサ, 34 駆動部, 41 パンモータ, 42 チルトモータ, 43 モータ制御部, 61 カメラ, 62 魚眼カメラ, 63 マイクロフォン, 81 ポインティングデバイス, 102 ポインティング位置検出部, 103 ユーザ検出部, 104 マップ生成部, 106 移動量算出部, 108 制御部, 111 映像制御部, 112 音響制御部, 201 ハンディ型プロジェクタ, 211 反射型スピーカ, 212 プロジェクタ, 213 センサ部, 215 情報処理部, 221 デプスセンサ, 222 カメラ, 223 マイクロフォン, 224 加速度センサ, 225 ジャイロセンサ, 232 ユーザ検出部, 233 マップ生成部, 235 移動量算出部, 236 制御部, 241 映像制御部, 242 音響制御部

Claims (20)

  1. プロジェクタの投影領域の範囲に関する情報である投影領域情報を取得する取得部と、
    前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御部と
    を備える情報処理装置。
  2. 前記プロジェクタは、前記コンテンツの映像を構成する1つの画像に対応する第1の色の画像と、前記1つの画像に対応し、前記第1の色と異なる第2の色の画像と、を異なる時間に投影し、
    前記映像制御部は、前記投影領域情報に基づいて、前記第1の色の画像又は前記第2の色の画像の位置を制御する
    請求項1に記載の情報処理装置。
  3. 前記映像制御部は、前記プロジェクタの前記投影領域が移動する速さが速くなるほど、前記第1の色の画像と前記第2の色の画像との前記プロジェクタから見た位置が離れるように制御する
    請求項2に記載の情報処理装置。
  4. 前記プロジェクタは、前記コンテンツの映像を構成する1つの画像に対応する第1の色の画像と、前記1つの画像に対応し、前記第1の色と異なる第2の色の画像と、を異なる時間に投影し、
    前記映像制御部は、前記1つの画像に対応する前記第1の色の画像及び前記第2の色の画像の投影が完了するまでの間、前記プロジェクタの投影方向を制御する駆動部による前記プロジェクタの投影方向の移動を停止する
    請求項1に記載の情報処理装置。
  5. 前記映像制御部は、前記1つの画像の投影を開始する前に、前記駆動部による前記プロジェクタの投影方向の移動を停止させ、前記1つの画像に対応する前記第1の色の画像及び前記第2の色の画像の投影が完了した後、前記駆動部による前記プロジェクタの投影方向の移動を再開させる
    請求項4に記載の情報処理装置。
  6. 前記投影領域情報は、前記プロジェクタの投影方向を制御する駆動部の制御情報に基づいて算出される
    請求項1に記載の情報処理装置。
  7. 前記投影領域情報は、前記駆動部の制御情報及び特性に基づく前記投影領域の範囲に関する予測値を含む
    請求項6に記載の情報処理装置。
  8. 前記駆動部の制御情報に基づいて、前記投影領域情報の算出を行う算出部を
    さらに備える請求項6に記載の情報処理装置。
  9. 前記プロジェクタと、
    前記駆動部と
    をさらに備える請求項8に記載の情報処理装置。
  10. 前記投影領域情報は、前記プロジェクタの動きを検出するセンサからの情報に基づいて算出される
    請求項1に記載の情報処理装置。
  11. 前記投影領域情報は、前記センサからの情報に基づく前記投影領域の範囲に関する予測値を含む
    請求項10に記載の情報処理装置。
  12. 前記センサからの情報に基づいて、前記投影領域情報の算出を行う算出部を
    さらに備える請求項10に記載の情報処理装置。
  13. 前記プロジェクタと、
    前記センサと
    をさらに備える請求項12に記載の情報処理装置。
  14. 前記投影領域情報は、前記投影領域の位置を表す情報、又は、前記投影領域の移動方向及び移動量を表す情報のうち少なくとも一方を含む
    請求項1に記載の情報処理装置。
  15. 前記投影領域の位置、又は、前記投影領域の移動方向及び移動量は、映像を投影する対象となる投影対象領域のデプス情報に基づく前記プロジェクタと前記投影領域との間の距離に基づいて算出される
    請求項14に記載の情報処理装置。
  16. 前記投影対象領域のデプス情報を含むマップを生成するマップ生成部を
    さらに備える請求項15に記載の情報処理装置。
  17. 前記映像制御部は、前記投影対象領域に対して予め設定されている映像の表示位置を示す映像位置情報に基づいて、前記表示映像範囲を制御する
    請求項15に記載の情報処理装置。
  18. 前記映像制御部は、前記投影領域情報に基づいて、前記表示映像範囲を設定し、設定した前記表示映像範囲に対応する映像を前記プロジェクタに投影させる
    請求項1に記載の情報処理装置。
  19. プロジェクタの投影領域の範囲に関する情報である投影領域情報の取得を制御する取得制御ステップと、
    前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御ステップと
    を含む情報処理方法。
  20. プロジェクタの投影領域の範囲に関する情報である投影領域情報の取得を制御する取得制御ステップと、
    前記投影領域情報に基づいて、前記投影領域に表示されるコンテンツの範囲である表示映像範囲を制御する映像制御ステップと
    を含む処理をコンピュータシステムに実行させるためのプログラム。
JP2018504368A 2016-03-10 2017-02-24 情報処理装置、情報処理方法、及び、プログラム Active JP7052719B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016047658 2016-03-10
JP2016047658 2016-03-10
PCT/JP2017/006993 WO2017154611A1 (ja) 2016-03-10 2017-02-24 情報処理装置、情報処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JPWO2017154611A1 true JPWO2017154611A1 (ja) 2019-01-10
JP7052719B2 JP7052719B2 (ja) 2022-04-12

Family

ID=59789446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018504368A Active JP7052719B2 (ja) 2016-03-10 2017-02-24 情報処理装置、情報処理方法、及び、プログラム

Country Status (5)

Country Link
US (1) US10620514B2 (ja)
EP (1) EP3429193A4 (ja)
JP (1) JP7052719B2 (ja)
CN (1) CN108781266B (ja)
WO (1) WO2017154611A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3058171A1 (en) * 2017-03-28 2018-10-04 Magic Leap, Inc. Augmented reality system with spatialized audio tied to user manipulated virtual object
CN110494792B (zh) 2018-03-07 2021-07-09 奇跃公司 外围设备的视觉跟踪
JP2022185342A (ja) * 2021-06-02 2022-12-14 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
CN113747133B (zh) * 2021-09-01 2024-04-26 广景视睿科技(深圳)有限公司 一种投影方法、装置、投影设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043570A (ja) * 2003-07-25 2005-02-17 Seiko Epson Corp プロジェクタ
WO2008004438A1 (fr) * 2006-07-03 2008-01-10 Panasonic Corporation Système de projecteur et procédé de projection d'image video
JP2011175051A (ja) * 2010-02-24 2011-09-08 Nikon Corp プロジェクタ
JP2011248548A (ja) * 2010-05-25 2011-12-08 Fujitsu Ltd コンテンツ決定プログラムおよびコンテンツ決定装置
JP2013020199A (ja) * 2011-07-14 2013-01-31 Seiko Epson Corp プロジェクションシステム、画像供給装置、プロジェクター、及び、画像投射方法
JP2013109184A (ja) * 2011-11-22 2013-06-06 Canon Inc 投射型表示装置
JP2015119419A (ja) * 2013-12-19 2015-06-25 カシオ計算機株式会社 投影装置、投影方法及び投影プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4232042B2 (ja) * 2005-01-07 2009-03-04 セイコーエプソン株式会社 投写制御システム、プロジェクタ、プログラム、情報記憶媒体および投写制御方法
JP4126564B2 (ja) * 2005-02-14 2008-07-30 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP5308765B2 (ja) 2008-10-03 2013-10-09 パナソニック株式会社 照明装置
JP5495572B2 (ja) * 2009-01-07 2014-05-21 キヤノン株式会社 プロジェクタ・システム及びこれを含むビデオ会議システム
US9010942B2 (en) * 2010-05-27 2015-04-21 Kyocera Corporation Mobile electronic device and image projection unit
US9300899B2 (en) * 2013-03-13 2016-03-29 Trimble Navigation Limited Method for projecting an image
JP2014178393A (ja) * 2013-03-14 2014-09-25 Ricoh Co Ltd 画像投影システム及び画像投影方法
US9609262B2 (en) * 2013-06-27 2017-03-28 Intel Corporation Device for adaptive projection
US9691357B2 (en) * 2013-08-09 2017-06-27 Lenovo (Beijing) Co., Ltd. Information processing method and electronic device thereof, image calibration method and apparatus, and electronic device thereof
JP2015130555A (ja) * 2014-01-06 2015-07-16 株式会社東芝 画像処理装置、画像処理方法、および画像投影装置
JP6365079B2 (ja) * 2014-08-01 2018-08-01 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの調整方法
US10066933B2 (en) * 2015-05-04 2018-09-04 Facebook, Inc. Camera depth mapping using structured light patterns

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043570A (ja) * 2003-07-25 2005-02-17 Seiko Epson Corp プロジェクタ
WO2008004438A1 (fr) * 2006-07-03 2008-01-10 Panasonic Corporation Système de projecteur et procédé de projection d'image video
JP2011175051A (ja) * 2010-02-24 2011-09-08 Nikon Corp プロジェクタ
JP2011248548A (ja) * 2010-05-25 2011-12-08 Fujitsu Ltd コンテンツ決定プログラムおよびコンテンツ決定装置
JP2013020199A (ja) * 2011-07-14 2013-01-31 Seiko Epson Corp プロジェクションシステム、画像供給装置、プロジェクター、及び、画像投射方法
JP2013109184A (ja) * 2011-11-22 2013-06-06 Canon Inc 投射型表示装置
JP2015119419A (ja) * 2013-12-19 2015-06-25 カシオ計算機株式会社 投影装置、投影方法及び投影プログラム

Also Published As

Publication number Publication date
EP3429193A4 (en) 2019-04-17
EP3429193A1 (en) 2019-01-16
CN108781266A (zh) 2018-11-09
US20190025681A1 (en) 2019-01-24
US10620514B2 (en) 2020-04-14
WO2017154611A1 (ja) 2017-09-14
JP7052719B2 (ja) 2022-04-12
CN108781266B (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
JP7052719B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6860488B2 (ja) 複合現実システム
US10122976B2 (en) Projection device for controlling a position of an image projected on a projection surface
US8909375B2 (en) Nodding mechanism for a single-scan sensor
US20210302753A1 (en) Control apparatus, control method, and program
JP6249248B2 (ja) 投影装置
WO2017154610A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US11375244B2 (en) Dynamic video encoding and view adaptation in wireless computing environments
US11269250B2 (en) Information processing apparatus, information processing method, and program
JP6167308B2 (ja) 投影装置
US10979687B2 (en) Using super imposition to render a 3D depth map
KR101520049B1 (ko) 이미지 캡쳐 디바이스의 개선된 제어
US10089726B2 (en) Image processing apparatus, image processing method, and storage medium, relating to generating an image corresponding to a predetermined three-dimensional shape by transforming a captured image
JP6307706B2 (ja) 投影装置
JP2005277900A (ja) 3次元映像装置
KR102250087B1 (ko) 영상을 처리하는 방법, 디바이스 및 기록매체
WO2021149509A1 (ja) 撮像装置、撮像方法、及び、プログラム
JP2016151612A (ja) プロジェクションマッピング装置、遅延補償装置、遅延補償方法および遅延補償プログラム
JP6641525B2 (ja) 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム
JP2011239178A (ja) 撮像装置
JP2017050689A (ja) 画像投影装置および画像投影方法
WO2018152061A1 (en) Using micro mirrors to improve the field of view of a 3d depth map
JP2012216928A (ja) 投影システム、投影装置、投影方法及びプログラム
CN115103169A (zh) 投影画面校正方法、装置、存储介质以及投影设备
WO2024096853A1 (en) Image capture system including a lidar device and cameras having a rolling shutter sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R151 Written notification of patent or utility model registration

Ref document number: 7052719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151