JP2020042592A - 情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体 - Google Patents

情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2020042592A
JP2020042592A JP2018170040A JP2018170040A JP2020042592A JP 2020042592 A JP2020042592 A JP 2020042592A JP 2018170040 A JP2018170040 A JP 2018170040A JP 2018170040 A JP2018170040 A JP 2018170040A JP 2020042592 A JP2020042592 A JP 2020042592A
Authority
JP
Japan
Prior art keywords
real object
image
information processing
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018170040A
Other languages
English (en)
Inventor
拓也 池田
Takuya Ikeda
拓也 池田
健太郎 井田
Kentaro Ida
健太郎 井田
文彦 飯田
Fumihiko Iida
文彦 飯田
満 西部
Mitsuru Nishibe
満 西部
敦 石原
Atsushi Ishihara
敦 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018170040A priority Critical patent/JP2020042592A/ja
Priority to US17/267,639 priority patent/US20210327101A1/en
Priority to PCT/JP2019/031786 priority patent/WO2020054298A1/ja
Priority to EP19860342.5A priority patent/EP3852070A4/en
Priority to CN201980057929.9A priority patent/CN112689855A/zh
Publication of JP2020042592A publication Critical patent/JP2020042592A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/18Timing circuits for raster scan displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】対象物またはユーザの入力を検出して、実物体に映像が重畳されるまでの遅延による位置ずれを低減することでユーザビリティの低下を改善した情報処理装置を提供する。【解決手段】投影システム1において、情報処理装置は、重畳される対象物である実物体に対して映像を表示した映像の1フレーム内で実際に生じた遅延の量を示す遅延情報に基づいて、遅延による位置ずれが低減されるように前記実物体に対して次のフレーム内で投影する映像の描画を制御する。【選択図】図6

Description

本開示は、情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体に関する。
近年、指やペンを用いて入力可能なタッチパネルやペン型デバイスで入力することが可能なインタラクティブなプロジェクタが製品化されている。また、現実世界に仮想物体を重畳することが可能なメガネ型拡張現実(Augmented Reality:AR)デバイスの製品化や研究も盛んに行われている。
特開2016−151612号公報
これらのような、実物体に映像を重畳するデバイスでは、対象物またはユーザの入力を検出して映像が重畳されるまでの処理時間が遅延として現れる。遅延が大きすぎると重畳位置のずれが顕著になり、その結果、体験価値が損なわれてユーザビリティが低下してしまう。
そこで本開示では、遅延によるユーザビリティの低下を改善することが可能な情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体を提案する。
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、実物体に対して映像を表示した結果に基づく遅延情報に応じて、前記実物体に対して表示する映像の描画を制御する制御部を備える。
(作用)本開示に係る一形態の情報処理装置によれば、1フレームで実際に生じた遅延の量を示す遅延情報に基づいて、次のフレームで投影する映像の描画が制御される。これにより、システム構成の変更やアプリケーションの処理時間の変化などで遅延情報が変わった場合でも、動的に予測量を変更して遅延情報を補償することが可能となる。その結果、次フレームで投影された映像と実物体との位置ずれが低減されるため、遅延によるユーザビリティの低下を改善することが可能となる。
本開示によれば、遅延によるユーザビリティの低下を改善することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
実物体に映像を重畳するための一連の処理の流れを示すタイミングチャートである。 撮像に要する時間が増加したことにより遅延時間が変化した場合を例示する図である。 認識に要する時間が増加したことにより遅延時間が変化した場合を例示する図である。 描画に要する時間が増加したことにより遅延時間が変化した場合を例示する図である。 第1の実施形態に係る投影システムの概略構成例を示す模式図である。 第1の実施形態に係る投影システムの概略構成例を示す機能ブロック図である。 第1の実施形態に係る投影システムが実行する投影動作の概略例を示すフローチャートである。 第1の実施形態に係る投影システムが実行する総遅延時間計測動作の概略例を示すフローチャートである。 第1の実施形態に係る対象物の位置を「検出」する際の処理の流れの例を示す図である。 第1の実施形態に係る予測点を算出する際の処理の流れの例を示す図である。 第1の実施形態に係る総遅延時間を計測する流れを示す図である。 第1の実施形態に係る総遅延時間が反映されるタイミングの一例を説明するための図である。 第1の実施形態に係る総遅延時間が反映されるタイミングの他の一例を説明するための図である。 第2の実施形態に係る投影システムの概略構成例を示す図である。 第2の実施形態に係る投影システムの概略構成例を示す機能ブロック図である。 第2の実施形態に係る総遅延時間計測動作の概略例を示すフローチャートである。 第2の実施形態に係る総遅延時間の計測の流れを説明するための図である。 第1又は第2の実施形態に係る出力装置の変形例の動作例を示すシーケンス図である。 第1の実施形態に係る投影システムをARグラスに適用した場合を例示する模式図である。 第2の実施形態に係る投影システムをヘッドマウントディスプレイ型のVRデバイスに適用した場合を例示する模式図である。 ディスプレイ上に載置された対象物に対して映像を表示する構成に対して第1又は第2の実施形態を応用した場合を例示する模式図である。 第1又は第2の実施形態をインタラクティブプロジェクタに対して適用した場合を例示する模式図である。 第1又は第2の実施形態に係る情報処理装置のハードウエア構成の一例を示すブロック図である。
以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、以下に示す項目順序に従って本開示を説明する。
1.はじめに
2.第1の実施形態
2.1 投影システムの概略構成例
2.2 投影システムの動作例
2.2.1 投影動作
2.2.2 総遅延時間計測動作
2.2.2.1 対象物位置検出処理
2.2.2.2 予測点算出処理
2.2.2.3 総遅延時間の計測
2.2.2.4 予測量の算出
2.3 予測量設定値の反映タイミング
3.第2の実施形態
3.1 投影システムの概略構成例
3.2 投影システムの動作例
3.2.1 総遅延時間計測動作
3.2.1.1 総遅延時間の計測
3.3 作用・効果
4.変形例
4.1 予測量算出に関する変形例
4.2 対象物位置検出に関する変形例
4.3 出力装置に関する変形例
5.応用例
5.1 ARグラス
5.2 VR(virtual reality)デバイス/ビデオシースルーデバイス
5.3 ディスプレイ
5.4 インタラクティブプロジェクタ
5.5 その他の応用例
6.ハードウエア構成
1.はじめに
図1は、実物体に画像や動画像(以下、映像という)を重畳するための一連の処理の流れを示すタイミングチャートである。図1に示すように、実物体に映像を重畳するための一連には、実物体の「撮像」S1、撮像画像の解析による実物体の「認識」S2、重畳する映像の「描画」S3、及び、描画した映像の「出力」S4といった一連の処理を、1フレーム中に行なう必要がある。しかしながら、「撮像」S1から「出力」S4までの間に生じる遅延時間などの遅延の量を示す遅延情報には、撮像デバイスや投影機器若しくはディスプレイが変更されたり、アプリケーション実行時の処理負荷が変わったりすることで、ばらつきが生じ得る。図2〜図4は、「撮像」から「出力」までの遅延時間が変化する例を示す。なお、図2は、撮像S1に要する時間が増加した場合(撮像S1’)を示し、図3は、認識S2に要する時間が増加した場合(認識S2’)を示し、図4は、描画S3に要する時間が増加した場合(描画S3’)を示している。
このように、遅延情報が変化する要因には、(1)撮像時間の変化(図2参照)、(2)認識処理時間の変化(図3参照)、(3)描画処理時間の変化(図4参照)、(4)出力時間の変化などが存在する。そして、それぞれの変化が生じる要因としては、以下の項目を例示することができる。
(1)撮像時間が変化する要因
・撮像デバイスの変更
・カメラフレームレートの変更
・露光時間やシャッタースピードの変更
(2)認識処理時間が変化する要因
・対象物の検出/追跡数が増加したことによる認識に要する処理コスト(以下、認識コストという)の増加
(3)描画処理時間が変化する要因
・描画するCG(Computer Graphics)オブジェクトの数が増加したことによる描画に要する処理コスト(以下、描画コストという)の増加
(4)出力時間が変化する要因
・プロジェクタを内部処理による遅延が異なるプロジェクタに変更(例えば、低画質や低解像度のプロジェクタから高画質や超解像度のプロジェクタに変更した場合)
・リフレッシュレートの異なるプロジェクタやディスプレイに変更(例えば、フレームレートが60Hz(ヘルツ)(表示間隔=16.7ms)のプロジェクタからフレームレートが120Hz(表示間隔=8.3ms)のプロジェクタに変更した場合)
上記のように、「撮像」S1、「認識」S2、「描画」S3及び「出力」S4それぞれの要素において、遅延情報が変化する要因が考えられる。このような状況において、遅延情報を固定数値として「描画」S3を実行した場合、重畳位置のずれ(以下、単に位置ずれという)を解消するための予測量(例えば、予測する時間)が足りずに実物体の位置よりも後に映像が表示されたり、もしくは、予測量が大きすぎて実物体の位置より先に映像が表示されたりしてしまうケースが発生する。
そこで以下の実施形態では、「撮像」S1〜「出力」S4までに生じる遅延(以降、総遅延と称する)を計測する仕組みをシステムに導入し、総遅延時間などの遅延情報から動的に予測量を変更する。これにより、遅延情報が変わるようなケースにおいても、遅延によるユーザビリティの低下を改善することが可能となる。
2.第1の実施形態
まず、第1の実施形態について、図面を参照して詳細に説明する。
2.1 投影システムの概略構成例
図5は、本実施形態に係る投影システムの概略構成例を示す模式図である。図6は、本実施形態に係る投影システムの概略構成例を示す機能ブロック図である。
図5及び図6に示すように、投影システム1は、情報処理装置10と、センサ20と、出力装置(出力部)30とを備える。また、投影システム1は、その他にも、映像を投影する対象の実物体(以下、対象物という)を「認識」するための構成の一部として、対象物40に設けられた再帰性反射マーカ42とを備える。すなわち、赤外投光器(光源)33と、再帰性反射マーカ42と、赤外カメラ(撮像部)22とは、対象物40の位置を検出する検出部として機能する。
センサ20は、対象物40を認識してその位置を検出するための赤外カメラ22と、遅延計測用カメラ21とを備える。本実施形態では、赤外カメラ22として、可視光がカットされ赤外光のみ観測可能なカメラを用いるが、対象物40を色や撮像画像中の特徴から認識する場合には、カラーカメラやグレースケールカメラなどが用いられてもよい。
遅延計測用カメラ21は、対象物40と映像との位置ずれから遅延情報としての総遅延時間を計測するためのカメラであり、例えば可視光領域の画像を取得する可視光カメラなどであってよい。また、遅延計測用カメラ21のフレームレートは、例えば、赤外カメラ22や後述するプロジェクタ31のフレームレートと同等か、もしくは、それ以上のフレームレートであってよい。その際、遅延計測用カメラ21のフレームレートを、プロジェクタ31のフレームレートの倍数(1倍を含む)とすることで、プロジェクタ31が映像の出力を開始又は完了したタイミングから遅延計測用カメラ21が当該出力された映像の撮像を開始又は完了するまでの時間差を実質的に一定とすることが可能となるため、後述する総遅延時間の計測精度を高めることが可能となる。なお、本説明では、「撮像」S1から「出力」S4までの間に生じる遅延の量を示す遅延情報として、総遅延時間を用いた場合を例示するが、遅延情報には、時間情報に限定されず、距離情報やカウント値など、遅延を数値などの処理可能な情報で表した種々の情報を用いることが可能である。
出力装置30は、映像を投射するためのプロジェクタ31と、対象物40に特定波長の光(本実施形態では例として赤外光)を投光する赤外投光器33とを備える。また、出力装置30には、効果音などを出力するためのスピーカ32などが含まれてもよい。
プロジェクタ31は、1台である必要はなく、複数台であってもよい。本実施形態では、スピーカ32として、一般的なスピーカを想定するが、指向性の高い超音波スピーカなどが用いられてもよい。また、本実施形態では、固定投影型のプロジェクタを想定するが、駆動や移動機構を出力装置30に設け、プロジェクタ31が任意の方向や場所へ映像を投影できるように構成されてもよい。
さらに、本実施形態では、プロジェクタ31に代えて、若しくは、プロジェクタ31と共に、ディスプレイなどの表示デバイスが用いられてもよい。ディスプレイを用いる場合、ディスプレイ上に置かれた対象物40を検出し、その位置の周囲にビジュアル表現やエフェクトを表示するようなケースが考えられる。すなわち、本説明における「映像の重畳」には、対象物40に映像を投影(投射又は投写ともいう)することだけでなく、対象物40と対応する位置やその周囲に映像を表示することも含まれる。
本実施形態において、対象物40は、例えば、テーブル50上を滑動可能な実物体である。対象物40の具体例としては、遊戯機のエアホッケーにおけるパックなどを挙げることができる。ただし、これに限定されず、平面上又は空間中を移動可能なあらゆる実物体を対象物40とすることが可能である。また、プロジェクタ31が移動可能である場合には、固定された物体を対象物40とすることも可能である。すなわち、映像を投影する装置との位置関係が変化し得る種々の実物体を対象物40とすることが可能である。
対象物40には、その位置を検出するための再帰性反射マーカ42が固定される。再帰性反射マーカ42は、赤外投光器33から投光された特定波長の光(本例では赤外光)を反射する。なお、本実施形態では、対象物40の位置を検出するために、赤外投光器33から投光されて再帰性反射マーカ42で反射された赤外光を検出しているが、対象物40に特定波長の光を発する発光部(例えば、赤外LED(Light Emitting Diode))を搭載してもよい。若しくは、赤外カメラ22の代わりにカラーカメラを用いる場合には、カラーカメラを用いて対象物40に設けられた色マーカを抽出したり、撮像した画像から得られる対象物40の特徴を抽出したりすることでも、対象物40の位置を検出することが可能である。
情報処理装置10は、例えば、パーソナルコンピュータ(PC)など、CPU(Central Processing Unit)などの情報処理部を制御部として備えた情報処理装置であってよい。ただし、これに限定されず、サーバ(クラウドサーバを含む)など、情報処理が可能な種々の電子機器を用いることができる。
情報処理装置10は、センサ20から入力された情報に基づくことで、対象物40に投写する映像や音のデータを生成し、生成した映像データや音データを出力装置30へ出力する。
そこで情報処理装置10は、図6に示すように、総遅延時間計測部11と、予測量決定部12と、予測量記憶部13と、対象物位置検出部14と、対象物位置予測部15と、映像データ生成部16と、音データ生成部17と、インタフェース(I/F)部18とを備える。総遅延時間計測部11、予測量決定部12、予測量記憶部13、対象物位置検出部14、対象物位置予測部15、映像データ生成部16及び音データ生成部17のうち少なくとも一部は、例えば、情報処理装置10におけるCPU(制御部)が不図示の記録部から所定のプログラムを読み出して実行することで実現されてもよい。
総遅延時間計測部11は、遅延計測用カメラ21から得られる画像から計測開始イベント及び計測終了イベントの発火を行い、その際の画像から総遅延時間を計測する。なお、計測開始イベント及び計測終了イベントについては、後述において触れる。
予測量決定部12は、総遅延時間計測部11による総遅延時間の計測が成功したときに、その総遅延時間から予測量を算出する。そして、予測量決定部12は、算出した予測量で、予測量記憶部13に格納されている予測量設定値を更新する。
なお、予測量及び予測量設定値とは、未来の予測時間(msec)を表すものであり、対象物40と投影画像との位置ずれを低減するための時間情報であって、計測した総遅延時間が反映された値である。例えば、位置ずれの有無に関わらず予測量設定値をゼロとした場合、次フレームでは、現フレームまでに検出された対象物40の位置に基づいて、次フレームにおける対象物40の位置が予測される。したがって、次フレームにおいて、この予測された位置に対して対象物40に重畳する映像を「描画」して「出力」した場合、対象物40と映像とには、1フレームの「撮像」〜「出力」までに生じる総遅延時間に相当する位置ずれが発生する。なお、1フレームとは、「撮像」〜「出力」までの期間又は時間を示している。そこで、予測量設定値には、次フレームの「描画」において対象物40に重畳する映像を描画する位置(すなわち、対象物40の予測位置)を決定する際に、対象物40と投影した映像との位置ずれを低減する時間情報が、総遅延時間に基づいて決定される。例えば、現フレームにおいて、映像が対象物40に対して遅れた位置に投影されている場合には、予測量設定値には、さらに先の位置に映像を投影するために、その際に位置ずれの量に応じた正の時間情報が設定される。一方、現フレームにおいて、映像が対象物40に対して進んだ位置に投影されている場合には、予測量設定値には、映像の投影位置を遅らせるために、その際に位置ずれの量に応じた負の時間情報が設定される。
対象物位置検出部14は、赤外カメラ22で撮像された画像から対象物40における再帰性反射マーカ42の位置を座標として検出する。そして対象物位置検出部14は、検出した座標を赤外カメラ22の座標系(以下、カメラ座標系という)からプロジェクタ31の座標系(以下、プロジェクタ表示座標系という)へ射影行列を用いて変換する。
予測量記憶部13は、例えば、予測量決定部12で算出された最新の予測量を予測量設定値として記憶する。また、予測量記憶部13は、対象物位置検出部14で過去に検出された対象物40の座標の履歴(以下、検出履歴という)を記憶する。
対象物位置予測部15は、今回検出された対象物40の位置(座標)と、過去に検出された対象物40の位置(座標)の履歴(検出履歴)とを用いて、対象物40の未来の位置(以下、予測点という)を予測する。その際、対象物位置予測部15は、予測量記憶部13に記憶されている最新の予測量設定値を参照して、予測点を算出する。なお、予測点とは、例えば、次以降のフレームにおいて対象物40に重畳する映像を「描画」する位置であってよい。
予測点が算出された後、投影される映像の映像データや音データは、それぞれ映像データ生成部16及び音データ生成部17にて生成される。生成された映像データや音データは、I/F部18を介して、プロジェクタ31やスピーカ32へ送信されて出力される。
2.2 投影システムの動作例
次に、本実施形態に係る投影システム1の動作について、図面を参照して詳細に説明する。
2.2.1 投影動作
図7は、本実施形態に係る投影システムが実行する投影動作の概略例を示すフローチャートである。図7に示すように、本動作では、まず、対象物40の位置を検出するために、赤外投光器33による赤外光の投光と、赤外カメラ22による「撮像」とが実行される(ステップS110)。これにより得られた画像は、情報処理装置10へ送られ、I/F部18を介して対象物位置検出部14に入力される。
次に、対象物40の「認識」に相当するステップS121〜S123が実行される。ステップS121では、対象物位置検出部14は、入力された画像を解析することで、画像中に含まれる対象物40の位置を検出する対象物位置検出処理を実行する。具体的には、対象物位置検出部14は、画像中の再帰性反射マーカ42の像の検出を実行する。
対象物位置検出部14が対象物40の位置検出に失敗した場合(ステップS122のNO)、本動作がステップS110へリターンする。一方、対象物位置検出部14が対象物40の位置検出に成功した場合(ステップS122のYES)、次に、対象物位置予測部15が、対象物位置検出部14による今回の検出結果と、過去に検出された対象物40の位置(座標)の履歴(検出履歴)と、予測量記憶部13に記憶されている最新の予測量設定値とを用いて、未来の予測点(例えば、次の投影タイミングでの対象物40の位置)を算出する予測点算出処理を実行する(ステップS123)。なお、過去に実行した対象物位置検出処理の結果とは、例えば、直前の所定回数(例えば、3回など)分の対象物位置検出処理の結果などであってよい。
このように、未来の予測点を算出すると、次に、映像データ生成部16が、次にプロジェクタ31から対象物40へ投影する映像のデータ(映像データ)を「描画」する(ステップS130)。その際、必要に応じて、音データ生成部17が、スピーカ32から出力する音のデータ(音データ)を生成してもよい。
次に、映像データ生成部16で生成された映像データがプロジェクタ31へ送信され、プロジェクタ31が映像データを再生して「出力」することで、映像が対象物40へ投影される(ステップS140)。
その後、本動作を終了するか否かが判断され(ステップS150)、終了する場合(ステップS150のYES)、本動作を終了する。一方、終了しない場合(ステップS150のNO)、本動作がステップS110へリターンする。
2.2.2 総遅延時間計測動作
次に、本実施形態に係る総遅延時間計測動作について、図面を参照して詳細に説明する。図8は、本実施形態に係る投影システムが実行する総遅延時間計測動作の概略例を示すフローチャートである。図8に示すように、本動作では、まず、総遅延時間計測部11が、総遅延時間の計測を開始するイベント(以下、計測開始イベントという)が発火するまで待機し(ステップS201のNO)、計測開始イベントが発火した場合(ステップS201のYES)、総遅延時間の計測を開始する(ステップS202)。その際、総遅延時間計測部11は、例えば、ソフトウエア又はハードウエアによる、例えば、クロックをカウントするカウンタなどの不図示の計測部等を用いて、総遅延時間の計測を開始してからの経過時間を計測する。なお、計測開始イベントは、例えば、総遅延時間の計測を開始していないことを条件に、遅延計測用カメラ21で取得された画像を解析することで検出されたプロジェクタ31から投影された映像の投影位置が前回の画像解析により検出された投影位置から変化している場合などであってよい。
次に、総遅延時間計測部11は、総遅延時間の計測開始から一定時間(例えば、50ms(ミリ秒))以上経過したか否かを判定し(ステップS203)、一定時間以上経過した場合(ステップS203のYES)、総遅延時間の計測に失敗したと判断して、不図示の計測部で計測されている計測時間をリセットし(ステップS204)、ステップS209へ進む。
一方、一定時間が未だ経過していない場合(ステップS203のNO)、総遅延時間計測部11は、総遅延時間の計測を終了するイベント(以下、計測終了イベントという)が発火したか否かを判定する(ステップS205)。計測終了イベントが発火していない場合(ステップS205のNO)、総遅延時間計測部11は、ステップS203へリターンし、以降の動作を実行する。なお、計測終了イベントは、例えば、総遅延時間の計測を開始していることを条件に、遅延計測用カメラ21で取得された画像を解析することで検出されたプロジェクタ31から投影された映像の投影位置が前回の画像解析により検出された投影位置から変化している場合などであってよい。
計測終了イベントが発火していた場合(ステップS205のYES)、総遅延時間計測部11は、総遅延時間の計測を終了する(ステップS206)。つづいて、総遅延時間計測部11は、計測開始イベントが発火したと判断した際の画像と、計測終了イベントが発火したと判断した際の画像とから、総遅延時間を算出する(ステップS207)。なお、ステップS202〜S207による総遅延時間の計測については、後述において詳細に説明する。
このようにして総遅延時間が計測されると、次に、予測量決定部12が、計測された総遅延時間から予測量を算出する(ステップS208)。つづいて、予測量決定部12は、算出した予測量で予測量記憶部13内の予測量設定値を更新する(ステップS209)。これにより、予測量記憶部13内の予測量設定値が、最新の値に更新される。
その後、ステップS210において、本動作を終了するか否かが判断され、終了する場合(ステップS210のYES)、本動作が終了する。一方、終了しない場合(ステップS210のNO)、ステップS201へリターンし、以降の動作が実行される。
2.2.2.1 対象物位置検出処理
ここで、図7のステップS121に示す対象物位置検出処理について説明する。対象物40の位置の検出には、例えば、現フレームの画像を「認識」することで対象物40の位置を特定する「検出」と、前フレームで特定された対象物40の位置に基づいて現フレームの画像を「認識」することで対象物40の位置を特定する「追跡」とが存在する。
より具体的には、「検出」では、例えば、赤外カメラ22で撮影された画像中に写り込んだ再帰性反射マーカ42の像に相当する輝点の位置を特定し、その座標を対象物40の座標とする。
図9に、対象物40の位置を「検出」する際の処理の流れの例を示す。図9に示すように、対象物40の位置の「検出」では、まず、可視光をカットして赤外光の像を観測することで得られた画像G1が赤外カメラ22から入力される(ステップS161)。この画像G1では、例えば、略グレースケールで再帰性反射マーカ42の像に相当する輝点K1が表現されている。対象物位置検出部14は、入力された画像G1に対し、予め設定しておいた閾値を用いて2値化処理を行う(ステップS162)。これにより、例えば、再帰性反射マーカ42に相当する領域K2の各ピクセルがビット値‘1’を持ち、それ以外の領域のピクセルがビット値‘0’を持つ2値画像G2が得られる。つづいて、対象物位置検出部14は、2値画像G2から、領域K2の輪郭K3を抽出し(ステップS163)、その後、抽出した輪郭K3から再帰性反射マーカ42に相当する領域の重心座標K4を算出し、算出された重心座標K4を対象物40の位置とする(ステップS164)。
なお、上記では、グレースケールの画像G1を用いる場合を例示したが、これに限定されない。上述したように、例えば、赤外カメラ22の代わりにカラーカメラを用いる場合には、カラーカメラを用いて対象物40に設けられた色マーカを検出したり、カラーカメラで撮像した画像中のエッジや特徴量から対象物40の特徴を捉えてその位置を検出したりなど、種々変形されてよい。
一方、「追跡」では、図9におけるステップS163において輪郭K3を抽出する際に、前フレームの画像で検出した対象物40の重心座標K4に基づき、現フレームの2値画像G2における上記重心座標K4の近傍領域を探索することで、再帰性反射マーカ42の像に相当する輝点K1を検出する。または、数回分の重心座標K4の履歴から動きベクトルを算出し、そのベクトル方向に沿って現フレームの2値画像G2を探索することで、再帰性反射マーカ42の像に相当する輝点K1を検出する。その後、図9と同様に、検出された輝点K1から再帰性反射マーカ42に相当する領域K2の輪郭K3を抽出し(ステップS163)、その後、抽出した輪郭K3から再帰性反射マーカ42に相当する領域K2の重心座標をK4算出し、算出された重心座標K4を対象物40の位置とする(ステップS164)。
2.2.2.2 予測点算出処理
次に、図9のステップS123に示す予測点算出処理について説明する。予測点算出処理では、上述したように、今回検出された対象物40の位置(座標)と、過去に検出された対象物40の位置(座標)の履歴(検出履歴)と、予測量記憶部13に記憶されている最新の予測量設定値とから、予測点が算出される。図10に、予測点を算出する際の処理の流れの例を示す。なお、図10では、対象物位置検出部14により検出された対象物40の座標の履歴(検出履歴)から加速度a(図10では、加速度a〜a)の変化を予測点に反映することで、n(nは自然数)フレーム先の対象物40の位置(図10では、タイミングt+1での位置Q)を予測点として算出する場合が例示されている。この場合、n個の予測点を得ることができる。なお、図10において、ΔTは1フレーム分の時間を示し、ΔV〜ΔVは、各フレームでの対象物40の移動速度(ベクトル又はスカラー)を示している。
上述したように、予測量設定値pは、未来の予測時間(msec)を表している。そのため、予測点の算出では、何点目まで予測するかを決定する必要がある。ここで、赤外カメラ22の撮像フレームレートをF(fps:frame per second)とすると、n’点先を予測した際の予測時間p’(msec)は、以下の式(1)で算出される。
Figure 2020042592
そこで本実施形態では、n’を1から1ずつインクリメントし、初めてp’が予測量設定値pを超えたときの値をnフレーム先の予測点Qnとする。
2.2.2.3 総遅延時間の計測
次に、図8のステップS202〜S207に示す総遅延時間の計測について説明する。上述したように、遅延計測用カメラ21は、対象物40と、プロジェクタ31から投影された映像とを1つの画像として撮像する。本実施形態では、この撮像により得られた画像に含まれる対象物40の像と、投影された映像の像とを検出し、その位置ずれから総遅延時間を算出する。図11に、総遅延時間を計測する流れを示す。
図11に示すように、総遅延時間の計測では、まず、遅延計測用カメラ21が取得した画像G11を解析することで、プロジェクタ31から投影された映像の投影位置が前回の画像解析により検出された投影位置から変化しているか否かを判定し、変化している場合、この画像G11を取得したタイミング(これをタイミングt=t1とする)を計測開始イベントの発火タイミングとする。このように、投影された映像の表示位置が変更されたことを計測開始イベントの発火タイミングとすることは、プロジェクタ31のリフレッシュレートが60Hzである場合を例に取ると、約16.7msec毎に映像の投影位置が更新されており、投影継続中のタイミング、すなわち投影位置を変更したタイミングとは異なるタイミングを計測開始イベントの発火タイミングとすると、プロジェクタ31による投影開始から遅延計測用カメラ21による撮像までの間に対象物40が移動して、正確な総遅延時間を計測することができないためである。
つづいて、画像G11の解析結果から、対象物40の像Z11の位置と、表示された映像の像Z12の位置との距離distAを特定する。この距離distAの単位は、例えばピクセルであってよい。
次に、遅延計測用カメラ21が取得した画像G12を解析することで、プロジェクタ31から投影された映像の投影位置が前回の画像解析により検出された投影位置から変化しているか否かを判定し、変化している場合、この画像G12を取得したタイミング(これをタイミングt=t2とする)を計測終了イベントの発火タイミングとする。
そして、画像G12における対象物40の像Z21の位置と、画像G11における対象物40の像Z11の位置とから、タイミングt1からタイミングt2までに対象物40が移動した距離distBを特定する。なお、図11における像Z22は、タイミングt2で遅延計測用カメラ21により取得された画像G12における表示された映像の像の位置である。
ここで、距離distAは、総遅延時間に相当する距離を示し、距離distBは、プロジェクタ31が投影している映像を1回更新する間、すなわち1フレーム中に、対象物40が移動する距離を示している。したがって、距離distAと距離distBとから、総遅延時間Dは、以下の式(2)で求めることができる。なお、式(2)において、Rは、プロジェクタのリフレッシュレート(Hz)を示している。
Figure 2020042592
なお、図11では、対象物40の位置に対してプロジェクタ31による映像の投影位置が遅れている場合を例示したが、逆に、対象物40の進行方向に対して対象物40よりも先に映像が投影されている場合は、予測量設定値が大きすぎるケースを意味する。この場合は、式(2)で算出された総遅延時間Dの正負を反転して負の値とすればよい。
本実施形態に係る投影システム1では、遅延計測用カメラ21によりプロジェクタ31の表示更新毎に総遅延時間を計測することが可能である。ただし、遅延計測用カメラ21の撮像間隔やプロジェクタ31の表示更新間隔にはジッタが生じる場合が多い。そこで、総遅延時間Dは過去に実行した対象物位置検出処理で得られた検出履歴から対象物40の座標の平均を算出してもよいし、今回の対象物位置検出処理で得られた対象物40の座標が検出履歴又はその平均値から大きく外れた値である場合は除外してもよい。
2.2.2.4 予測量の算出
次に、図8のステップS208における予測量の算出について説明する。予測量は、以上のようにして算出された総遅延時間Dを用いることで算出することができる。具体的には、更新前の予測量設定値をpcurrとし、更新後の最新の予測量設定値をpnewとすると、最新の予測量設定値pnewは、以下の式(3)で求めることができる。
Figure 2020042592
このようにして更新された最新の予測量設定値pnewを用いて予測点Qの算出を行うことで、総遅延時間Dが変化した場合でも、正しい予測量設定値pnewを用いて遅延を補償することが可能となる。ただし、このような場合でも、予測量設定値pnewが大きすぎる場合には、オーバーシュートなどの予測のはずれが顕著に表れる可能性がある。そこで、そのような場合には、予測量設定値pnewに上限を設け、予測量設定値pnewが上限を超えた場合には、その予測量設定値pnewを破棄してもよい。
2.3 予測量設定値の反映タイミング
以上のようにして算出された予測量設定値pnewは、この予測量設定値pnewが算出された次のフレームにおける「認識」を実行するタイミング(例えば、図9のステップS123を実行するタイミング)となる。
図12は、本実施形態に係る総遅延時間が反映されるタイミングの一例を説明するための図である。なお、図12には、情報処理装置10における映像描画のフレームレートが、プロジェクタ31における映像出力のフレームレートの約2倍であり、プロジェクタ31が垂直同期信号Vsync待ちの状態から「出力」を完了するまでの間に、情報処理装置10が「撮像」から「描画」までをもう一度実行する場合が示されている。また、図12には、垂直同期信号Vsyncがオフの状態でのシーケンスが示されている。そのため、図12では、「撮像」、「認識」及び「描画」が垂直同期信号Vsyncのタイミングとは無関係に繰り返し実行され、垂直同期信号Vsyncのタイミングでその時点で描画済みの映像が「出力」されている。
このような場合、図12に例示するように、n−1フレームで算出された予測量設定値pnewが、次のnフレームにおける「認識」を実行するタイミングで反映される。同様に、nフレームで算出された予測量設定値pnewは、次のn+1フレームにおける「認識」を実行するタイミングで反映される。
また、図13は、本実施形態に係る総遅延時間が反映されるタイミングの他の一例を説明するための図である。なお、図13には、図12と同様のシーケンスにおいて、例えば、「描画」により長い処理時間が必要となる場合が例示されている。
このような場合、図13に例示するように、「撮像」から「出力」までに要する時間にフレーム毎のばらつきが生じている。これは、垂直同期信号Vsync待ち期間による影響があるためである。そのような場合、上述したように、総遅延時間の平均を算出して用いることで、プロジェクタ31からの投影映像と対象物40との位置ずれを低減することが可能となる。
2.4 作用・効果
以上のように、本実施形態によれば、「撮像」から「出力」までの総遅延時間などの遅延情報を計測し、計測された遅延情報に基づいて、対象物40と投影映像との位置ずれを改善するための予測量設定値が更新され、次のフレームで投影する映像を「描画」する際に、更新された予測量設定値を用いて、次の投影タイミングにおける対象物40の位置(予測点)が予測される。これにより、システム構成の変更やアプリケーションの処理時間の変化などで遅延情報が変わった場合でも、動的に予測量を変更して遅延情報を補償することが可能となる。その結果、次フレームで投影された映像と対象物40との位置ずれが低減されるため、遅延によるユーザビリティの低下を改善することが可能となる。
3.第2の実施形態
次に、第2の実施形態について、図面を参照して詳細に説明する。第2の実施形態では、対象物40自体に遅延情報を計測するための構成の一部を搭載する。なお、本実施形態においても、遅延情報として総遅延時間を用いた場合を例示する。
3.1 投影システムの概略構成例
図14は、本実施形態に係る投影システムの概略構成例を示す図である。図15は、本実施形態に係る投影システムの概略構成例を示す機能ブロック図である。
図14及び図15に示すように、投影システム2は、第1の実施形態において図5及び図6を用いて説明した投影システム1と同様の構成において、センサ20における遅延計測用カメラ21が省略され、対象物40にマイクロコンピュータ(以下、マイコンという)241が追加された構成を備える。マイコン241には、光センサ(第2センサ)242と、IMU(Inertial Measurement Unit)センサ(第1センサ)243と、計測部244とが組み込まれている。計測部244は、例えば、クロック信号などの一定周期の信号をカウントすることで経過時間を計測するカウンタなどであってよい。また、マイコン241は、不図示の通信部を備え、情報処理装置10と無線又は有線にて通信可能に構成されている。情報処理装置10とマイコン241とを接続するネットワークには、例えば、無線又は有線のLAN(Local Area Network)やBluetooth(登録商標)やアナログ方式又はデジタル方式の無線通信(光通信等を含む)など、種々のネットワークを用いることができる。
マイコン241は、情報処理装置10との通信の他に、光センサ242、IMUセンサ243及び計測部244を制御する。光センサ242は、例えば、プロジェクタ31から映像が投影されたことを検出する。IMUセンサ243は、例えば、対象物40の移動開始や移動停止を検出する。計測部244は、例えば、IMUセンサ243で検出された対象物40の移動開始や移動停止のタイミングから、光センサ242で検出されたプロジェクタ31からの映像の投影タイミングまでの時間差を計測する。なお、計測部244は、ハードウエアとしてマイコン241に組み込まれた計測部であってもよいし、マイコン241がプログラムを実行することで組み込まれるソフトウエアによる計測部であってもよい。
マイコン241は、計測部244で計測された時間差を総遅延時間として情報処理装置10へ送信する。その際、マイコン241は、カウンタなどの不図示の計測部で計測された現在時刻をタイムスタンプとして、情報処理装置10へ送信する総遅延時間の情報に付加してもよい。
3.2 投影システムの動作例
次に、本実施形態に係る投影システム1の動作について、図面を参照して詳細に説明する。本実施形態に係る投影システム2が実行する投影動作は、例えば、第1の実施形態において図7を用いて説明した投影動作と同様であってよいため、ここでは詳細な説明を省略する。
3.2.1 総遅延時間計測動作
図16は、本実施形態に係る総遅延時間計測動作の概略例を示すフローチャートである。図16に示すように、本動作では、まず、マイコン241は、IMUセンサ243により対象物40の移動開始又は移動停止が検出されるまで待機する(ステップS221のNO)。すなわち、本実施形態では、対象物40の移動開始又は移動停止が、第1の実施形態における計測開始イベントに相当する。
IMUセンサ243により対象物40の移動開始又は移動停止が検出されると(ステップS221のYES)、マイコン241は、IMUセンサ243により対象物40の移動開始又は移動停止が検出されたタイミングからの経過時間(総遅延時間に相当。以下、総遅延時間とする)の計測を開始する(ステップS222)。総遅延時間の計測には、例えば、計測部244が用いられる。
次に、マイコン241は、総遅延時間の計測開始から一定時間(例えば、50ms)以上経過したか否かを判定し(ステップS223)、一定時間以上経過した場合(ステップS223のYES)、総遅延時間の計測に失敗したと判断して、不図示の計測部で計測されている計測時間をリセットし(ステップS224)、ステップS2228へ進む。
一方、一定時間が未だ経過していない場合(ステップS223のNO)、マイコン241は、光センサ242によりプロジェクタ31からの映像の投影が検出されたか否かを判定する(ステップS225)。すなわち、本実施形態では、プロジェクタ31から映像が投影されたことが、第1の実施形態における計測終了イベントに相当する。
光センサ242によりプロジェクタ31からの映像の投影が検出されていない場合(ステップS225のNO)、マイコン241は、ステップS223へリターンし、以降の動作を実行する。
一方、光センサ242によりプロジェクタ31からの映像の投影が検出された場合(ステップS225のYES)、マイコン241は、計測部244による総遅延時間の計測を終了する(ステップS226)。そして、マイコン241は、計測部244により計測された総遅延時間の情報を、所定のネットワークを介して情報処理装置10へ送信する(ステップS227)。
その後、マイコン241は、ステップS228において、本動作を終了するか否かを判断し、終了する場合(ステップS228のYES)、本動作を終了する。一方、終了しない場合(ステップS228のNO)、ステップS221へリターンし、以降の動作を実行する。
以上のようなマイコン241の動作に対し、情報処理装置10は、例えば、図8におけるステップS208〜S209と同様の動作を実行することで、マイコン241から受信した総遅延時間から予測量を算出し(ステップS208)、つづいて、算出した予測量で予測量記憶部13内の予測量設定値を更新する(ステップS209)。これにより、予測量記憶部13内の予測量設定値が、最新の値に更新される。
3.2.1.1 総遅延時間の計測
次に、図16のステップS222〜S226に示す総遅延時間の計測について説明する。図17は、本実施形態に係る総遅延時間の計測の流れを説明するための図である。なお、図17では、対象物40の移動開始を計測開始イベントとした場合を例示する。
図17に示すように、計測開始イベントが発火していない状態、すなわち対象物40が停止している状態(タイミングt=t0)では、プロジェクタ31が映像を投影しない状態にしておく。
次に、IMUセンサ243により対象物40の移動開始が検出されると(タイミングt=t2)、計測開始イベントが発火したとして、計測部244による経過時間の計測が開始される。
その後、光センサ242によりプロジェクタ31からの映像Mの投影が検出されると(タイミングt=t3)、計測終了イベントが発火したとして、計測部244による経過時間の計測が停止される。
このようにして計測された経過時間(時間差)は、総遅延時間として、マイコン241から情報処理装置10へ送信される。その際、計測部244はリセットされる。
なお、マイコン241は、計測部244による計測を開始してから一定時間以上経過しても計測終了イベントが発火しない場合には、計測に失敗したと判断して、計測部244をリセットする。例えば、対象物40の光センサ242がプロジェクタ31から投影された映像の範囲から外れている場合には、マイコン241が計測終了イベントを発火できない。そこで、このような場合には、総遅延時間の計測に失敗したとして、計測部244をリセットするとよい。
3.3 作用・効果
以上のように、本実施形態によれば、「撮像」から「出力」までの総遅延時間を計測部244を用いて直接計測することが可能である。それにより、情報処理装置10における総遅延時間計測部11の処理負荷を軽減することが可能となる。その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
なお、上述の説明では、対象物40が移動を開始したタイミングを計測開始イベントの発火タイミングとしていたが、別途上述したように、対象物40が移動を停止したタイミングを計測開始イベントの発火タイミングとすることも可能である。その場合、IMUセンサ243によって対象物40が停止した時刻を図17におけるタイミングt1(計測開始タイミング)とし、プロジェクタ31から映像が投影されなくなったことを光センサ242で検出して、その時刻を図17におけるタイミングt2(計測終了タイミング)とすることで、計測部244による総遅延時間を計測が可能となる。
4.変形例
つづいて、上述した実施形態の変形例について、以下にいくつか例を挙げて説明する。
4.1 予測量算出に関する変形例
上述したように、第1及び第2の実施形態では、総遅延時間を計測して予測量設定値を変更しているが、それと併用して別手段による予測量を推定したり、予測量の更新に制限を加えたりすることも可能である。
例えば、対象物40の数が増加した場合、「認識」の処理負荷が増加するため、総遅延時間が増える可能性が高い。そこで、対象物40の数が増加した場合には、「認識」の結果を受けて予測量を増加させてもよい。
同様に、アプリケーションの描画コストが高くなった場合、例えば描画するオブジェクトの数が多くなった場合、「描画」の処理負荷が増加するため、総遅延時間が増える可能性が高い。そこで、アプリケーションの描画コストが高くなった場合には、「描画」の結果を受けて予測量を増加させてもよい。
逆に、対象物40の数が減少したり、アプリケーションの描画コストが低くなったりした場合には、「認識」や「描画」の結果を受けて予測量を減少させてもよい。
また、描画コストや認識コストと総遅延時間との対応関係を機械学習などで予め学習しておくことで、描画コストや認識コストから学習モデルに基づき総遅延時間を予測し、その結果に応じて予測量を更新してもよい。
さらに、プロジェクタ31がバッテリーで動作する場合には、バッテリーの消費モードに応じて予測量を変化させてもよい。例えば、低消費モードでプロジェクタ31のフレームレートが低減されている場合には、フレームレートの低減量に応じて予測量を増加させてもよい。
さらにまた、短時間で総遅延時間が大小に変化する量が大きい場合には、予測量に対して上限や下限を設定することで、極端に予測量が大きくなったり小さくなったりしないようにしてもよい。
もしくは、総遅延時間が大きい場合には、アプリケーションの描画コストを下げるなど、「撮像」〜「出力」までの何れかの工程の処理コストを低減させてもよい。例えば、赤外カメラ22やプロジェクタ31の解像度を変更したり、描画するCGのメッシュ情報を削減したり、描画するCGオブジェクトを削減したりすることで、「撮像」〜「出力」までの何れかの工程の処理コストを低減させることが可能である。
4.2 対象物位置検出に関する変形例
上述した第2の実施形態では、プロジェクタ31が投影した可視光領域の映像を光センサ242で検出して計測終了イベントを発火させる場合を例示したが、これに限定されない。例えば、プロジェクタ31の投影に同期して赤外光などの可視光以外の波長の光を投光する光源を用い、この光源から投光された光を光センサ242で検出して計測終了イベントを発火させるように構成することも可能である。
また、プロジェクタ31が投影した可視光領域の映像を光センサ242で検出して計測終了イベントを発火させる構成の代わりに、プロジェクタ31の投影に同期してスピーカ32から音を再生させ、この音をマイクロフォンで検出して計測終了イベントを発火させるように構成することも可能である。
4.3 出力装置に関する変形例
また、上述した実施形態では、対象物40に重畳する映像を投影する出力装置30として1台のプロジェクタ31を用いた場合を例示したが、対象物40に重畳する映像を投影する出力装置30は1台に限られない。例えば、複数台のプロジェクタ31を用いて1つ以上の対象物40に映像を投影してもよい(マルチプロジェクタ)。その場合、遅延計測用カメラ21で取得された画像に基づいて計測した総遅延時間や予測量記憶部13に記憶されている予測量設定値が、複数台のプロジェクタ31で共有されてもよい。例えば、複数台のプロジェクタ31のうち、マスタとするプロジェクタ31を1台設定し、他のプロジェクタ31に対しては、マスタとするプロジェクタ31を用いて測定された総遅延時間や予測量設定値と同じ総遅延時間や予測量設定値を設定するように構成することもできる。
また、第1の実施形態に係る投影システム1を複数組み合わせることでも、マルチプロジェクタを実現することができる。その場合、例えば、情報処理装置10や遅延計測用カメラ21が複数の投影システム1で共有されてもよい。情報処理装置10は、共有された遅延計測用カメラ21で取得された画像に基づいて、複数の投影システム1それぞれの総遅延時間を計測し、この総遅延時間に基づいて、投影システム1それぞれの予測量設定値をすることができる。
図18は、システムAとシステムBとの2つの投影システム1でマルチプロジェクタを実現した場合のシーケンス図である。図18に示すように、情報処理装置10は、システムAとシステムBとのそれぞれに対して総遅延時間を計測し、計測した総遅延時間をシステムA及びシステムBそれぞれに反映する。
5.応用例
つづいて、上述した実施形態の応用例について、以下にいくつか例を挙げて説明する。
5.1 ARグラス
上述した実施形態は、例えば、メガネ型デバイスにおけるレンズ部分に相当する透過型ディスプレイに映像を表示するARグラスに応用することも可能である。
図19は、第1の実施形態に係る投影システムをARグラスに適用した場合を例示する模式図である。図19に示すように、ARグラス500では、例えば、例えばテンプル部分に遅延計測用カメラ21が設置され、ブリッジ部分にカラーカメラ522が設置される。透過型ディスプレイ502は、第1の実施形態におけるプロジェクタ31に相当する。情報処理装置10は、ARグラス500に搭載されてもよいし、ARグラス500とは別体として設けられてもよい。情報処理装置10とARグラス500とを別体とする場合には、ARグラス500と情報処理装置10とは、無線又は有線にて通信可能に構成されている。情報処理装置10とARグラス500とを接続するネットワークには、例えば、無線又は有線のLANやBluetooth(登録商標)やアナログ方式又はデジタル方式の無線通信(光通信等を含む)など、種々のネットワークを用いることができる。
カラーカメラ522は、赤外投光器33、赤外カメラ22及び再帰性反射マーカ42の代わりである。情報処理装置10は、カラーカメラ522で撮像された画像から得られる対象物40の特徴を捉えてその位置を検出する。ただし、カラーカメラ522の代わりに、赤外投光器33及び赤外カメラ22をARグラス500のブリッジ部分に設け、対象物40に再帰性反射マーカ42を設けた構成とすることも可能である。
遅延計測用カメラ21は、透過型ディスプレイ502越しの対象物40と、透過型ディスプレイ502に表示された映像M500との重畳結果を撮像する。情報処理装置10は、第1の実施形態と同様に、遅延計測用カメラ21が撮像した画像から総遅延時間を計測して予測量設定値を動的に更新する。なお、本応用例において、情報処理装置10が予測する情報は、ARグラス500を身に着けているユーザの顔の移動や向きの変化である。
なお、本説明では、第1の実施形態に係る投影システム1をARグラス500に応用した場合を例示したが、これに限定されず、第2の実施形態に係る投影システム2をARグラス500に応用することも可能である。
5.2 VR(virtual reality)デバイス/ビデオシースルーデバイス
また、上述した実施形態は、例えば、VR用のヘッドマウントディスプレイや外界を撮影した映像に仮想物体を重畳するビデオシースルーデバイスに対しても応用することが可能である。
図20は、第2の実施形態に係る投影システムをヘッドマウントディスプレイ型のVRデバイスに適用した場合を例示する模式図である。図20に示すように、VRデバイス600では、例えば、第2の実施形態におけるプロジェクタ31に相当するディスプレイ602の近傍に光センサ242が設けられ、また、内部にIMUセンサ243と計測部244とを備えるマイコン241が設けられる。情報処理装置10は、VRデバイス600に搭載されてもよいし、VRデバイス600とは別体として設けられてもよい。情報処理装置10とVRデバイス600とを別体とする場合には、VRデバイス600と情報処理装置10とは、無線又は有線にて通信可能に構成されている。情報処理装置10とVRデバイス600とを接続するネットワークには、例えば、無線又は有線のLANやBluetooth(登録商標)やアナログ方式又はデジタル方式の無線通信(光通信等を含む)など、種々のネットワークを用いることができる。
このような構成において、第2の実施形態と同様に、マイコン241は、IMUセンサ243によってVRデバイス600の移動開始又は停止(すなわち、VRデバイス600を装着するユーザの移動開始又は移動停止)を計測開始イベントとして検出すると、計測部244による総遅延時間の計測を開始する。そして、光センサ242によってディスプレイ602への映像の表示が検出されると、これを計測終了イベントとして、計測部244による総遅延時間の計測を終了する。それにより、ユーザが動き出してから映像が表示されるまでの総遅延時間を計測することが可能である。
なお、本説明では、第2の実施形態に係る投影システム2をVRデバイス600に応用した場合を例示したが、これに限定されず、第1の実施形態に係る投影システム1をVRデバイス600に応用することも可能である。
5.3 ディスプレイ
さらに、上述した実施形態は、例えば、ディスプレイ上に載置された対象物40にエフェクトやテクスチャなどの映像を重畳するような構成に対しても応用することが可能である。
図21は、ディスプレイ上に載置された対象物に対して映像を表示する構成に対して上述した実施形態を応用した場合を例示する模式図である。図21に示すように、本例では、プロジェクタ31及びテーブル50の代わりに、例えば、テーブル型のディスプレイ702が用いられる。ディスプレイ702上の対象物40とディスプレイ702に表示した重畳画像M700との位置ずれに相当する総遅延時間は、例えば、第1の実施形態と同様に、遅延計測用カメラ21を用いて計測されてもよいし、第2の実施形態と同様に、対象物40に光センサ242とIMUセンサ243と計測部244とを備えるマイコン241を搭載することで計測されてもよい。
5.4 インタラクティブプロジェクタ
また、上述した実施形態は、上記したディスプレイと同様に、図22に例示するような、映像が投影された領域M8に、対象物40であるペン型デバイス840で画像M800等を入力することが可能なインタラクティブプロジェクタ800に対しても応用することが可能である。
5.5 その他の応用例
また、上述した実施形態は、その他にも、スマートホームのエージェントなど、映像を投影又は表示する出力装置(プロジェクタ31等)との相対位置が変化する対象物40に対して映像を重畳させる種々の電子機器に対して応用することが可能である。
6.ハードウエア構成
上述してきた実施形態及びその変形例並びに応用例に係る情報処理装置10は、例えば図23に示すような構成のコンピュータ1000によって実現され得る。図23は、情報処理装置10の機能を実現するコンピュータ1000の一例を示すハードウエア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インタフェース1500、及び入出力インタフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウエアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る投影制御プログラムを記録する記録媒体である。
通信インタフェース1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインタフェースである。例えば、CPU1100は、通信インタフェース1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インタフェース1600は、上述したI/F部18を含む構成であり、入出力デバイス1650とコンピュータ1000とを接続するためのインタフェースである。例えば、CPU1100は、入出力インタフェース1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インタフェース1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インタフェース1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインタフェースとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が上述の実施形態に係る情報処理装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、総遅延時間計測部11、予測量決定部12、予測量記憶部13、対象物位置検出部14、対象物位置予測部15、映像データ生成部16及び音データ生成部17の機能を実現する。また、HDD1400には、本開示に係るプログラム等が格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の各実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
実物体に対して映像を表示した結果に基づく遅延情報に応じて前記実物体に対して表示する映像の描画を制御する制御部を備える情報処理装置。
(2)
前記制御部は、前記実物体と前記映像とが撮像された撮像画像に基づいて、前記遅延情報を計測する前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記実物体と第1の映像とが撮像された第1の撮像画像と、前記実物体と前記第1の映像とは異なる第2の映像とが撮像された第2の撮像画像とに基づいて、前記遅延情報を計測する前記(1)又は(2)に記載の情報処理装置。
(4)
前記制御部は、前記第1の撮像画像に映り込んだ前記実物体の第1の像と前記第1の撮像画像に映り込んだ前記第1の映像の第2の像との第1の距離を特定し、前記第1の像と、前記第2の撮像画像に映り込んだ前記実物体の第2の像とに基づいて、前記実物体に対して表示された映像が前記第1の映像から前記第2の映像に切り替えられる間に前記実物体が移動する第2の距離を特定し、前記第1の距離と前記第2の距離とに基づいて、前記遅延情報を算出する前記(3)に記載の情報処理装置。
(5)
前記実物体と前記映像とが撮像された前記撮像画像を取得する遅延計測用カメラをさらに備える前記(2)〜(4)の何れか1項に記載の情報処理装置。
(6)
前記制御部は、前記実物体の移動開始又は移動停止から前記実物体に前記映像が表示されるまでの時間差に基づいて前記遅延情報を計測する前記(1)に記載の情報処理装置。
(7)
前記実物体に設けられ、前記実物体の移動開始又は移動停止を検出する第1センサと、
前記実物体に前記映像が表示されたことを検出する第2センサと、
前記第1センサが前記実物体の移動開始又は移動停止を検出してから、前記第2センサが前記実物体に前記映像が表示されたことを検出するまでの経過時間を計測する計測部と、
をさらに備え、
前記制御部は、前記計測部で計測された前記経過時間を前記遅延情報とする
前記(6)に記載の情報処理装置。
(8)
前記第1センサは、IMU(Inertial Measurement Unit)センサであり、
前記第2センサは、光センサである
前記(7)に記載の情報処理装置。
(9)
前記実物体の位置を検出する検出部をさらに備え、
前記制御部は、前記検出部で検出された前記実物体の位置と、前記遅延情報とに基づいて、次以降のフレームにおいて前記実物体に重畳する映像を描画する位置を制御する
前記(1)〜(8)の何れか1項に記載の情報処理装置。
(10)
前記制御部は、前記検出部で検出された前記実物体の位置と、前記遅延情報とに基づいて、次以降のフレームにおいて前記実物体に重畳する映像を描画する位置を予測し、予測した前記位置に前記次以降のフレームの前記映像を描画する
前記(9)に記載の情報処理装置。
(11)
前記検出部は、前記実物体を撮像する撮像部を備え、
前記制御部は、前記撮像部で取得された画像に基づいて前記実物体の位置を検出する
前記(10)に記載の情報処理装置。
(12)
前記検出部は、
前記実物体に設けられた特定波長の光を反射する反射マーカと、
前記実物体に前記特定波長の光を投射する光源と、
をさらに備え、
前記撮像部は、前記反射マーカで反射された前記特定波長の光を検出する
前記(11)に記載の情報処理装置。
(13)
前記特定波長の光は、赤外光である前記(12)に記載の情報処理装置。
(14)
前記撮像部は、カラー画像を取得するカラーカメラ又はグレースケール画像を取得するグレースケールカメラであり、
前記制御部は、前記カラーカメラで取得されたカラー画像又は前記グレースケールカメラで取得されたグレースケール画像から色又は特徴を検出して前記実物体の位置を検出する
前記(11)に記載の情報処理装置。
(15)
前記制御部で描画された映像を出力する出力部をさらに備える前記(1)〜(14)の何れか1項に記載の情報処理装置。
(16)
前記制御部で描画された映像を出力する出力部をさらに備え、
前記遅延計測用カメラが撮像画像を取得する第1フレームレートは、前記出力部が映像を出力する第2フレームレートと同等か、もしくは、それ以上である
前記(5)に記載の情報処理装置。
(17)
前記第1フレームレートは、前記第2フレームレートの倍数である前記(16)に記載の情報処理装置。
(18)
前記遅延情報は、前記実物体の位置の検出から前記実物体に対して前記映像を表示するまでの遅延情報である前記(1)〜(17)の何れか1項に記載の情報処理装置。
(19)
前記出力部は、プロジェクタ又はディスプレイである前記(15)〜(18)の何れか1項に記載の情報処理装置。
(20)
AR(Augmented Reality)グラス、又は、VR(virtual reality)デバイスである前記(1)〜(19)の何れか1項に記載の情報処理装置。
(21)
前記出力部を複数備え、
前記制御部は、前記複数の出力部それぞれが前記実物体に対して表示した映像の表示位置と前記実物体の位置とに基づいて、前記複数の出力部それぞれが出力する映像の描画を制御する
前記(15)〜(20)の何れか1項に記載の情報処理装置。
(22)
実物体に対して映像を表示した結果に基づく遅延情報に応じて前記実物体に対して表示する映像の描画を制御する描画制御方法。
(23)
実物体に対して映像を表示した結果に基づく遅延情報に応じて前記実物体に対して表示する映像の描画を制御するステップをコンピュータに実行させるためのプログラムを記録した記録媒体。
1、2 投影システム
10 情報処理装置
11 総遅延時間計測部
12 予測量決定部
13 予測量記憶部
14 対象物位置検出部
15 対象物位置予測部
16 映像データ生成部
17 音データ生成部
18 インタフェース(I/F)部
20 センサ
21 遅延計測用カメラ
22 赤外カメラ
30 出力装置
31 プロジェクタ
32 スピーカ
33 赤外投光器
40 対象物
42 再帰性反射マーカ
50 テーブル
241 マイコン
242 光センサ
243 IMUセンサ
244 計測部
500 ARグラス
502 透過型ディスプレイ
522 カラーカメラ
600 VRデバイス
602、702 ディスプレイ
800 インタラクティブプロジェクタ

Claims (20)

  1. 実物体に対して映像を表示した結果に基づく遅延情報に応じて、前記実物体に対して表示する映像の描画を制御する制御部を備える情報処理装置。
  2. 前記制御部は、前記実物体と前記映像とが撮像された撮像画像に基づいて、前記遅延情報を計測する請求項1に記載の情報処理装置。
  3. 前記制御部は、前記実物体と第1の映像とが撮像された第1の撮像画像と、前記実物体と前記第1の映像とは異なる第2の映像とが撮像された第2の撮像画像とに基づいて、前記遅延情報を計測する請求項1に記載の情報処理装置。
  4. 前記制御部は、前記第1の撮像画像に映り込んだ前記実物体の第1の像と前記第1の撮像画像に映り込んだ前記第1の映像の第2の像との第1の距離を特定し、前記第1の像と、前記第2の撮像画像に映り込んだ前記実物体の第2の像とに基づいて、前記実物体に対して表示された映像が前記第1の映像から前記第2の映像に切り替えられる間に前記実物体が移動する第2の距離を特定し、前記第1の距離と前記第2の距離とに基づいて、前記遅延情報を算出する請求項3に記載の情報処理装置。
  5. 前記実物体と前記映像とが撮像された前記撮像画像を取得する遅延計測用カメラをさらに備える請求項2に記載の情報処理装置。
  6. 前記制御部は、前記実物体の移動開始又は移動停止から前記実物体に前記映像が表示されるまでの時間差に基づいて前記遅延情報を計測する請求項1に記載の情報処理装置。
  7. 前記実物体に設けられ、前記実物体の移動開始又は移動停止を検出する第1センサと、
    前記実物体に前記映像が表示されたことを検出する第2センサと、
    前記第1センサが前記実物体の移動開始又は移動停止を検出してから、前記第2センサが前記実物体に前記映像が表示されたことを検出するまでの経過時間を計測する計測部と、
    をさらに備え、
    前記制御部は、前記計測部で計測された前記経過時間を前記遅延情報とする
    請求項6に記載の情報処理装置。
  8. 前記第1センサは、IMU(Inertial Measurement Unit)センサであり、
    前記第2センサは、光センサである
    請求項7に記載の情報処理装置。
  9. 前記実物体の位置を検出する検出部をさらに備え、
    前記制御部は、前記検出部で検出された前記実物体の位置と、前記遅延情報とに基づいて、次以降のフレームにおいて前記実物体に重畳する映像を描画する位置を制御する
    請求項1に記載の情報処理装置。
  10. 前記制御部は、前記検出部で検出された前記実物体の位置と、前記遅延情報とに基づいて、次以降のフレームにおいて前記実物体に重畳する映像を描画する位置を予測し、予測した前記位置に前記次以降のフレームの前記映像を描画する
    請求項9に記載の情報処理装置。
  11. 前記検出部は、前記実物体を撮像する撮像部を備え、
    前記制御部は、前記撮像部で取得された画像に基づいて前記実物体の位置を検出する
    請求項10に記載の情報処理装置。
  12. 前記検出部は、
    前記実物体に設けられた特定波長の光を反射する反射マーカと、
    前記実物体に前記特定波長の光を投射する光源と、
    をさらに備え、
    前記撮像部は、前記反射マーカで反射された前記特定波長の光を検出する
    請求項11に記載の情報処理装置。
  13. 前記特定波長の光は、赤外光である請求項12に記載の情報処理装置。
  14. 前記制御部で描画された映像を出力する出力部をさらに備える請求項1に記載の情報処理装置。
  15. 前記制御部で描画された映像を出力する出力部をさらに備え、
    前記遅延計測用カメラが撮像画像を取得する第1フレームレートは、前記出力部が映像を出力する第2フレームレートと同等か、もしくは、それ以上である
    請求項5に記載の情報処理装置。
  16. 前記第1フレームレートは、前記第2フレームレートの倍数である請求項15に記載の情報処理装置。
  17. 前記出力部は、プロジェクタ又はディスプレイである請求項14に記載の情報処理装置。
  18. 前記出力部を複数備え、
    前記制御部は、前記複数の出力部それぞれが前記実物体に対して表示した映像の表示位置と前記実物体の位置とに基づいて、前記複数の出力部それぞれが出力する映像の描画を制御する
    請求項14に記載の情報処理装置。
  19. 実物体に対して映像を表示した結果に基づく遅延情報に応じて、前記実物体に対して表示する映像の描画を制御する描画制御方法。
  20. 実物体に対して映像を表示した結果に基づく遅延情報に応じて、前記実物体に対して表示する映像の描画を制御するステップをコンピュータに実行させるためのプログラムを記録した記録媒体。

JP2018170040A 2018-09-11 2018-09-11 情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体 Pending JP2020042592A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018170040A JP2020042592A (ja) 2018-09-11 2018-09-11 情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体
US17/267,639 US20210327101A1 (en) 2018-09-11 2019-08-09 Information processing device, drawing control method, and recording medium recording program of the same
PCT/JP2019/031786 WO2020054298A1 (ja) 2018-09-11 2019-08-09 情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体
EP19860342.5A EP3852070A4 (en) 2018-09-11 2019-08-09 INFORMATION PROCESSING DEVICE, DRAWING CONTROL METHOD AND RECORDING MEDIUM WITH THE PROGRAM RECORDED ON IT
CN201980057929.9A CN112689855A (zh) 2018-09-11 2019-08-09 信息处理装置、绘制控制方法和记录有程序的记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018170040A JP2020042592A (ja) 2018-09-11 2018-09-11 情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JP2020042592A true JP2020042592A (ja) 2020-03-19

Family

ID=69776746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018170040A Pending JP2020042592A (ja) 2018-09-11 2018-09-11 情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体

Country Status (5)

Country Link
US (1) US20210327101A1 (ja)
EP (1) EP3852070A4 (ja)
JP (1) JP2020042592A (ja)
CN (1) CN112689855A (ja)
WO (1) WO2020054298A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022004130A1 (ja) * 2020-06-30 2022-01-06 ソニーグループ株式会社 情報処理装置、情報処理方法、および記憶媒体
EP4209891A4 (en) * 2020-10-22 2024-03-27 Huawei Tech Co Ltd DISPLAY METHOD AND ELECTRONIC DEVICE

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110221690B (zh) * 2019-05-13 2022-01-04 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4144888B2 (ja) * 2005-04-01 2008-09-03 キヤノン株式会社 画像処理方法、画像処理装置
JP4857196B2 (ja) * 2007-05-31 2012-01-18 キヤノン株式会社 頭部装着型表示装置、及びその制御方法
US9565425B2 (en) * 2012-10-12 2017-02-07 Seiko Epson Corporation Method of measuring shutter time lag, display device for measuring shutter time lag, shutter time lag measurement apparatus, method of manufacturing camera, method of measuring display delay of camera, and display delay measurement apparatus
TW201528112A (zh) * 2013-12-27 2015-07-16 Sony Corp 控制裝置、控制方法及電腦程式
US10181193B2 (en) * 2014-03-10 2019-01-15 Microsoft Technology Licensing, Llc Latency reduction in camera-projection systems
JP2015185973A (ja) * 2014-03-24 2015-10-22 コニカミノルタ株式会社 投影装置
JP6534096B2 (ja) * 2014-06-25 2019-06-26 パナソニックIpマネジメント株式会社 投影システム
JP2016151612A (ja) 2015-02-16 2016-08-22 国立大学法人電気通信大学 プロジェクションマッピング装置、遅延補償装置、遅延補償方法および遅延補償プログラム
JP6742221B2 (ja) * 2016-11-09 2020-08-19 日本放送協会 オブジェクト追跡装置及びそのプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022004130A1 (ja) * 2020-06-30 2022-01-06 ソニーグループ株式会社 情報処理装置、情報処理方法、および記憶媒体
EP4209891A4 (en) * 2020-10-22 2024-03-27 Huawei Tech Co Ltd DISPLAY METHOD AND ELECTRONIC DEVICE

Also Published As

Publication number Publication date
WO2020054298A1 (ja) 2020-03-19
CN112689855A (zh) 2021-04-20
EP3852070A4 (en) 2021-11-24
EP3852070A1 (en) 2021-07-21
US20210327101A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
CN107577045B (zh) 用于头戴式显示器的预测跟踪的方法、装置及存储介质
EP3117601B1 (en) Latency reduction in camera-projection systems
WO2020054298A1 (ja) 情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体
JP2019114280A (ja) 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
US20110234481A1 (en) Enhancing presentations using depth sensing cameras
CN104423881A (zh) 信息处理装置及其控制方法
US20130027300A1 (en) Recognition apparatus, method, and computer program product
KR101647969B1 (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
US11682206B2 (en) Methods and apparatus for projecting augmented reality enhancements to real objects in response to user gestures detected in a real environment
KR20140081840A (ko) 모션으로 제어되는 리스트 스크롤 방법
TWI641968B (zh) 用於可穿戴式計算裝置之設備、由可穿戴式計算裝置實行之方法及非暫時性機器可讀取媒體
WO2020024909A1 (zh) 定位跟踪方法、终端设备及计算机可读取存储介质
WO2019135313A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020510923A (ja) 仮想オブジェクトをレンダリングするためのポータブルデバイス及び方法
US10509513B2 (en) Systems and methods for user input device tracking in a spatial operating environment
US10437323B2 (en) Controlling a head mounted device
CN112074705A (zh) 光学惯性跟踪运动物体的方法和系统
JP6452658B2 (ja) 情報処理装置、およびその制御方法ならびにプログラム
TW201541296A (zh) 次畫面累計方法以及用以維持光學導航感測器在所有畫面更新率的回報錯誤一致的裝置
JP2020502623A (ja) 物体に関する情報を提供する方法
US10319072B2 (en) Adaptation of presentation speed
JP2021174089A (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
KR101860215B1 (ko) 프로젝터 자세에 연동하는 콘텐츠 디스플레이 시스템 및 방법
US20170277269A1 (en) Display control device, display control method, and non-transitory computer-readable recording medium
JP5842634B2 (ja) 表示方法及び表示装置