JP7175715B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7175715B2
JP7175715B2 JP2018205860A JP2018205860A JP7175715B2 JP 7175715 B2 JP7175715 B2 JP 7175715B2 JP 2018205860 A JP2018205860 A JP 2018205860A JP 2018205860 A JP2018205860 A JP 2018205860A JP 7175715 B2 JP7175715 B2 JP 7175715B2
Authority
JP
Japan
Prior art keywords
image
display
information processing
imaging
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018205860A
Other languages
English (en)
Other versions
JP2020071394A (ja
JP2020071394A5 (ja
Inventor
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018205860A priority Critical patent/JP7175715B2/ja
Publication of JP2020071394A publication Critical patent/JP2020071394A/ja
Publication of JP2020071394A5 publication Critical patent/JP2020071394A5/ja
Application granted granted Critical
Publication of JP7175715B2 publication Critical patent/JP7175715B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本発明は、仮想現実感や複合現実感のシステムに関する。
設計・製造分野における試作工程の期間短縮、費用削減を目的として、仮想現実感(VR:Virtual Reality)や複合現実感(MR:Mixed Reality)システムが利用されている。これらのシステムではCAD(コンピュータ支援設計)システムで作成した設計(形状・デザイン)データを用いて、現実物を試作することなく、組み立てやすさやメンテナンス性を評価できる。これらのシステムではヘッドマウントディスプレイ(HMD:HEAD Mounted Display)が用いられる。HMDは頭部に直接装着することで視野全体を覆い、体験者の位置・姿勢に応じた視点からみた仮想現実感を体験できる映像を表示する。体験者が動くことによってHMDの位置や姿勢が変化した場合、HMDに表示する映像を生成する処理に時間がかかるため、HMDには体験者が動く前の映像が表示される。この際、体験者が想定する映像とは異なる映像が表示されることに起因して映像に対する違和感(体感的遅延による違和感)が生じる。そこで、特許文献1では、体感的遅延緩和を目的として、遅延時間の姿勢変化量に対応した量だけ、表示画像を画面内シフトする。
特開2004-109994号公報
特許文献1では、動体が現実空間に存在する場合でも動体がどちらの方向に動くか推定せずに、位置姿勢が急激に動く前の画像をシフトさせるだけである。そのため、HMDの位置姿勢の変化に伴って、動体が表示されるべき位置が移動する方向とは逆方向に、動体が表示されることがある。つまり、特許文献1に開示される方法は現実空間中の動体の動きを考慮していないため、動体を含む映像の体感的違和感を緩和することができなかった。本発明は上記課題に鑑みてなされたものであり、シーン中に動体が存在する場合でもHMD装着者のHMDの急激な位置姿勢の変化が起きた時に、動体が表示されるべき位置に表示されないという違和感を低減することを目的とする。
上記課題を解決するために、本発明にかかる情報処理装置は、現実空間を撮像した第1画像を取得する撮像手段と、前記第1画像を用いて生成された第2画像を表示する表示手段とを備える画像表示装置に、前記第2画像を供給する情報処理装置であって、前記第1画像において特定の物体の領域を当該領域の周辺から得られる画像特徴を用いて補間することにより前記物体のない背景画像を生成する第1生成手段と、前記第1画像における前記物体の所定時間後の位置を推定した結果に基づいて、前記背景画像に対して前記推定結果に基づく位置に前記物体を描写した画像を合成して前記第2画像を生成する第2生成手段と、前記撮像から表示までの処理における少なくとも一部の処理時間に起因する遅延時間、および前記画像表示装置の位置または姿勢の変化量に基づいて、前記表示手段に供給する第2画像を表示する位置をシフトする表示位置制御手段とを有する。
本発明によれば、本発明によれば、シーン中に動体が存在する場合でもHMD装着者のHMDの急激な位置姿勢の変化が起きた時に、動体が表示されるべき位置に表示されないという違和感を低減することができる。
仮想現実空間で発生しうる遅延した画像の表示例を示す図。 情報処理装置が生成する画像の表示例を示す図。 物体予測を行う座標系の例を示す図。 情報処理システムの機能構成例を示すブロック図。 情報処理装置が実行する処理を示すフローチャート。 情報処理システムが実行する処理を示すシーケンス図。 情報処理システムの機能構成例を示すブロック図。 情報処理装置が実行する処理を示すフローチャート。 情報処理システムが実行する処理を示すシーケンス図。 情報処理システムの機能構成例を示すブロック図。 情報処理装置のハードウェア構成例を示すブロック図。
(第1の実施形態)
以下、添付図面を参照して、本発明を適用した好適な実施形態に従って詳細に説明する。
ヘッドマウントディスプレイ(以下、HMD)は、両目用のディスプレイおよび両耳用のヘッドホンを内蔵する。ユーザはHMDを頭部に装着することにより、ディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くことができる。本実施形態では特に複合現実システム(MRシステム)に用いられるHMDの例を説明する。このとき、HMDはHMD内の撮像部から取り込んだ現実空間の画像と仮想空間の画像とを合成し、複合現実感を体験できる映像としてHMD内の表示部に出力する。また、HMDに内蔵または外付けされたジャイロセンサーや加速度センサーなどによりHMDを装着したユーザの頭部の位置情報と頭部の回転角や傾きなどの姿勢情報を計測することができる。なお、姿勢情報とは、ジャイロセンサー等の姿勢センサーによってHMDの相対的な動きを計測した結果である。以下で記載する画像または映像は、情報処理装置で生成された画像の例である。生成された画像の一部またはすべてが、HMDを装着したユーザに提示される。本実施形態では、動体110を観察し、予測した位置に配置することで体感的違和感を軽減する方法について説明する。本実施形態では、動体をステレオカメラによって観測し、撮像画像から抽出される2次元の動体領域を予測した位置に表示する画像を生成する。
まず現実空間において特定の物体(例えば動いている物体あるいは動く可能性がある物体)を含む映像の遅延が仮想現実空間で発生する例を図1で説明する。図1の(A)は、所定の時刻tにおける現実空間上におけるHMDと特定の物体(動体110)と静止物体120の位置関係を示している。ここで、特定の物体とは、動く可能性がある物体の代表としてHMD装着者の手であるとする。図1の(A)の状態から次の時刻t+Δtにおける位置関係を図1の(B)に示す。時間Δtは、遅延時間であり、情報処理装置が撮像した時間からHMDに表示する画像を生成する直前にHMDの位置を計測した時間との差であるとする(例えば100msec.)。
図1(B)では、Δt秒間にHMDがΔΘだけ右に回転し、動体は静止物体120に対し、Δhだけ右側に移動している状態を示している。HMDの位置姿勢の変化ΔΘはHMDに内蔵された位置姿勢センサーで計測可能である。図1の(C)と(D)は、HMDの視点から見た時刻tおよび時刻t+Δtにおける遅延のない理想的な画像を示している。図1(E)は、仮想空間描画処理で遅延が発生している画像1020を示している。画像1020は、時刻tにおける画像1000を画像処理した結果であるが、HMDの動きとは無関係に画像処理にかかった時間だけ遅延して表示されることになる。ここで、遅延のない図1(D)における動体の理想的な表示位置に対し、図1(E)は、矢印150の長さだけ水平方向にずれた位置に動体が描写される。なお、物体130はCGモデルを現実空間に合わせて描写したCGである。この矢印の大きさに比例してHMD装着者は仮想空間の映像に体感的な違和感を生じさせうる。なお、図1(D)(E)(F)を貫く点線は、画像1000が見えていた視界を示しており、HMDの動きに従ってΔXだけずれて表示されることを示している。
一方で、図1(F)は時刻tで生成した映像を、HMDの回転量ΔΘを加味した大きさΔXだけ画像の水平方向にシフトしたときの画像を示している。画像をシフトさせる処理の詳細は後述する。画像1030の黒で示した領域は、画像をシフトしたために撮像できていない領域が黒く表示される様子を示す。図1(F)の静止物体120の位置は、図1(D)の静止物体120の位置と比べてHMDの画面上で同じ位置に表示される。しかし、動体に関しては、矢印160の長さ分、実時間(時刻t+Δt)における動体の位置(図1(D)における動体の理想的な表示位置)とのズレが生じるため、そのぶん動体が遅延していると感じる。これは、Δt秒間で動いた動体の移動距離Δhを無視して、時刻tで得た撮像画像1000をΔXだけシフトしたために生じる。なお、図1(E)の画像をシフトする処理を含まない場合の動体の位置と、図1(D)の理想的な表示位置との差異である矢印150よりも、矢印160の方が長い。そのため、HMD装着者により一層の違和感を与える可能性がある。HMDが右回転し、装着者の手が右に平行移動するケースは一例である。すなわち、HMDの位置または姿勢の変化を考慮して画像を表示しても、特定の物体の動きが予測できず、また処理時間を更に要するために、HMD装着者にとって違和感のある映像を表示してしまう可能性がある。さらに、複合現実感を提供するためのビデオシースルー型のHMDでは、前述した表示映像の生成の前に、HMD搭載カメラで現実空間を撮像して露光する時間、画像情報を伝送する時間が加算される。すなわち、画像生成にかかる処理時間がさらに長くなり、HMDや動体の姿勢の変化による違和感がさらに増す可能性がある。
図2は本発明における情報処理装置が生成する画像の表示例を示す図である。図2(a)及び(b)において撮影時刻をt、表示時刻t+Δtとする。図1と同様に、時刻tにおいて、HMD200から、動体である手210と物体220が観測される。また、時刻t+Δtにおいて、HMD、物体、手の位置関係は、HMD201、手211、物体220の通りとなる。HMDは回転し視線を右側に向けている。また手は時刻tから時刻t+Δtにかけて210から211の位置に移動している。
時刻tにおいてHMDは付帯の撮像装置によって撮像した画像2000を取得する。画像2000には、HMD装着者の手230が写りこんでいる。次に図2(d)に示すように、画像2000から2次元の動体領域232を検出する。ここでは、撮像画像から肌色領域を抽出する。本実施形態では、あらかじめ肌色を撮像した時の肌色の領域のすべての色情報を記録しておき、テーブルに保持しておく。このとき色情報は、RGBの3原色の表現であってもよいし、YCbCrの輝度と色味情報で表現してもよい。なお、動体検出の手法は、色検出、エッジ検出、フレーム間差分、SuperPixelによる領域分割、パターンマッチング、学習に基づく物体検出手法が選択可能であるが、本発明は特定の手法に限定されるものではない。例えば、山内雄二,山下孝義,藤吉博信,“[サーベイ論文]統計的学学習手法による人検出”,電子情報通信学会パターン認識・メディア研究会(PRMU)技術報告,pp.113-126(2012)の手法でもよい。領域検出後、図2(e)で、後述する手法により、時刻t+Δtにおける動体の位置予測を行い、予測された動体位置234を得る。
動体領域検出後、図2(f)のように背景領域241を得る。次に図2(g)において動体領域241を背景領域の画像特徴に基づいて穴埋めし、動体のない背景画像2040を生成する。本実施形態では、動体領域の周辺領域の色の平均を取得し、その色で動体領域を補間する。なお、背景穴埋めの方法については、周辺領域と同系色で埋める方法や過去の画像から埋める方法があるが本発明は特定の手法に限定されるものではない。例えば、森ら(森尚平,一刈良介,柴田史久,木村朝子,田村秀行,”隠消現実感の技術的枠組と諸問題~現実世界に実在する物体を視覚的に隠蔽・消去・透視する技術について~”,日本バーチャルリアリティ学会論文誌)の手法でも良い。さらに、CGモデルデータに基づいて背景画像中の現実空間の対応する所定位置に物体130をレンダリングする。
ここで、時刻t+Δtにおける本来の撮影画像は図2(i)の画像2060であるが、システム上利用可能な画像は直近の撮影画像は図2(c)の画像2000である。そのため、図2(c)を用いて表示のための画像2070を生成する。これを合成画像と呼ぶ。合成画像は特許文献1と同様に、視点回転角度ΔΘに応じて、図2(g)の画像2040を回転と逆方向にΔXだけ並行移動する。結果図2(h)の画像2050が生成される。次に図2(h)上の動体予測位置に動体領域232を合成し、図2(j)に示す画像2070を生成する。最後に合成画像2070をHMDに表示する。以上の処理の結果、あるべき画像2060と近い合成画像2070を表示できる。
あるいは、以下に説明する方法でも良い。図2(k)は、予測された位置に動体235を描写した画像2020と、動体領域を補間した背景画像2040とを合成した画像2080である。図2(l)は、画像2080を遅延時間とHMDの位置姿勢の変化に合わせてシフトした画像2090である。このときHMDには、画像2090を表示すれば良い。この方法によっても、動体の動きを予測に用いるため、体感的違和感の少ない画像を表示できる。
本発明における動体予測方法の例を、図3を用いて説明する。動体301は図2の時刻tにおける動体の位置を示し、動体302は図2の時刻t+Δtにおける動体の位置を示す。図3(a)の301と302の座標を用いて、図2(b)のΔhを予測する。動体の座標は、画像から取得する。例えば、時刻tにおける動体301の座標は、図2(c)の画像2000から、画像の左下の隅を原点とする画像座標系で動体230の領域の重心の座標から取得する。動体予測は予測フィルタによって行う。予測フィルタの例としては、α-βトラッカーやカルマンフィルタがあるが、本発明は特定の予測フィルタに限定されるものではない。予測フィルタは観測モデルと運動モデルに基づいて、過去の動体観測位置から現在の動体観測位置を予測推定する。フィルタが扱う運動モデルとしては、図3(a)に示すように、画像座標上の位置、速度、加速度を内部に持ち、観測モデルとしては画像上の動体の位置を観測可能とする。この場合、観測(x,y)からΔt後の移動位置(x’,y’)が予測推定される。あるいは図3(b)に示すように、HMDから物体が見える方向(θ、φ)を観測可能として、方向とその変位を内部で更新する運動モデルを用いてもよい。
図4は情報処理システムの機能構成例を示すブロック図である。ここではHMD内部で全ての処理を行う構成を示している。HMD200は、撮像部410、撮像光学系補正部430、表示光学系補正部440、表示部420を持つ。また、HMD200に搭載される情報処理装置401は以下の機能構成を有する。すなわち、画像取得部441、動体領域検出部433、動体位置予測部434、姿勢取得部431,位置姿勢推定部432、背景画像生成部435、CG画像生成部437、保持部438、合成画像生成部439、表示位置制御部442を有する。
撮像部410は撮像光学系411、撮像センサ412を持ち、撮像した画像を情報処理装置401に出力する。なお、本実施形態において、具体的には撮像部410はカラーカメラであり、得られる画像はカラー画像である。撮像部410はステレオカメラであってもよい。
画像取得部441は、撮像部410が現実空間における動体を撮像した画像(第1画像)を随時取得する。取得された画像は撮像光学系補正部430に送られる。撮像光学系補正部430は撮像画像の色をはじめとする各種収差を補正する。一方表示部420は表示光学系421と表示パネル422を持ち、補正済みの画像を表示する。表示の際の補正は表示光学系補正部440において行われる。これは撮像光学系補正部430と逆の処理である。
動体領域検出部433は、撮影画像(第1画像)を入力とし、動体を示す所定の画像特徴に基づいて画像内の動体領域を検出する。例えば、動体が手である場合は、手の画像特徴に基づいて動体領域を抽出する。具体的には、肌色領域を抽出すればよい。動体位置予測部434は、予測フィルタを用いた手法に従って、所定の時間後の動体の位置を予測する。本実施形態において、Δtは固定値、かつ、運動モデルの移動空間は撮像画面内とする為、動体位置予測434では、HMDの位置姿勢の入力は不要である。Δtは100msecほどの非常に短い時間であるため「動体の移動空間が撮影画像内」と近似できる。固定値を用いることで処理時間を短縮し、映像の違和感を軽減する効果が期待される。背景画像生成部435は、動体領域検出結果を入力として、撮影画像における動体領域を背景領域の画像特徴を用いて補間することで背景画像を生成する。具体的には、肌色領域を、撮像画像に含まれる背景領域の色で補間する。
姿勢取得部431は、ジャイロセンサーや加速度計から構成され、HMDの相対的な姿勢情報を計測した結果を取得する。ここで取得する姿勢情報は、特定の物体の位置を予測するのに用いる。姿勢取得部431は、100Hz以上で姿勢データが取得でき、遅延が少ない姿勢センサーを使用することが好ましい。姿勢取得部431は、計測した姿勢情報を遅延取得部1450とCG画像生成部437に送信する。また、姿勢取得部1300は、合成画像生成部439が画像を生成する直前に現在計測できている最新の姿勢情報を合成画像生成部439に送信する。また、姿勢取得部431は、姿勢計測時刻と姿勢計測値を対応付けて保持しており、姿勢計測時刻を入力されると、対応する姿勢計測値を返す処理を行うものとする。
位置姿勢推定部432は、CGモデルを描写したCG画像を現実空間と対応させて重畳する為に用いるHMDの絶対的な位置及び姿勢を示す位置姿勢情報を推定する。位置姿勢情報とは、現実空間におけるHMDの絶対的な3次元の位置及び姿勢を示す。位置姿勢情報は、CG画像を現実空間と対応させて重畳する為に用いられる。このHMDの位置姿勢は、システム設定時にマーカーキャリブレーション工程にて設定されるワールド座標系を基準とする。位置姿勢推定の手法としては、指標(マーカー)や、Simultaneous Localization And Mapping (SLAM)を用いた位置姿勢推定手法が利用可能である。SLAMは、撮像画像に映ったマーカーから撮像装置の現実空間における3次元位置姿勢情報を推定する技術である。他には不図示の姿勢センサを用いて精度を高めることが可能であるし、外部の位置姿勢センサから直接的に値を取得してもよい。本発明は特定のHMD位置姿勢取得方法に限定されるものではない。また、位置姿勢推定部432は、位置姿勢取得結果から、時刻t+ΔtにおけるHMDの位置・姿勢を予測する。HMDの位置姿勢推定にあたっては、動体の予測と同様な予測フィルタが利用できる。
CG画像生成部437は、保持部438と姿勢取得部431から得たHMD位置姿勢情報を入力とし、時刻t+ΔtにおけるHMDの位置姿勢から見える位置に動体である手を描写したCG画像を生成する。さらに、CG画像生成部437は、保持部438に保持されたCGモデルデータに基づいて背景画像中の現実空間の対応する所定位置に物体130をレンダリングしたCG画像を生成する。CGモデルデータに基づいて背景画像中の現実空間の対応する所定位置に物体130をレンダリングしたCG画像を生成する。保持部438と姿勢取得部431から得たHMD位置姿勢情報を入力とし、時刻t+ΔtにおけるHMDの位置姿勢から見える位置にCGモデルを描写したCG画像を生成する。
保持部438は、CGモデルのデータを保持する。また、位置姿勢計測結果のログを保持する。また、撮像部410が取得した画像を保持する。
合成画像生成部439は、背景画像(第1画像)に含まれる特定の物体の所定時間後の位置を推定した結果に基づいて、背景画像中の推定結果に基づく位置に動体を描写したCG画像と背景画像とを合成した合成画像(第2画像)を生成する。または、予測フィルタに基づく動体位置予測結果と、HMDの位置姿勢予測結果と、背景画像とCG画像を入力とする。HMD位置姿勢予測結果に基づいて画像のシフト量を計算し、背景画像をシフト後にCG画像と動体領域を重畳し、図2(j)の画像2070を生成する。ここで動体とCG画像の重畳順序について、HMDから動体までの距離が既知である場合には、CGとの前後関係に基づいて描画順序を変更する。合成画像生成部439にて生成された画像は、表示光学系補正部440を経て表示部420にて表示される。
表示位置制御部442は、撮像から表示までの処理における少なくとも一部の処理時間に起因する遅延時間、および画像表示装置の位置または姿勢の変化量に基づいて、表示部に供給する合成画像(第2画像)を表示する位置をシフトする。シフトされた画像は、図2(l)のように表示される。ここでは、遅延時間として固定値Δtを用いる。なお、合成画像生成部439において、シフト後の背景画像とCG画像を合成する場合は、ここでの処理は省略する。
図5は、情報処理装置が実行する処理を示すフローチャートである。図5を使って情報処理装置401が行う処理の流れを簡単に説明する。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。なお、以下の説明では、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。図5のフローチャートに示した処理は、コンピュータである図11のCPU901により外部記憶装置906等に格納されているコンピュータプログラムに従って実行される。ただし、情報処理装置401は必ずしもこのフローチャートで説明するすべてのステップを行わなくても良い。また、後に説明するシーケンス図のように複数の処理を同時並行的に実行しても良い。
S500では、情報処理装置401が初期化する。具体的には、CG画像生成部1700が、モデルデータ記憶部1750から3次元のCGモデルを所定の位置に所与のCG画像を描写するためのCGモデルデータを読み込む。S501では、画像取得部441が、撮像部410の撮像処理が完了したかを判断する。撮像が完了しており、新たな画像が取得可能であれば現実空間における特定の物体を撮像した撮像画像を取得してS502へ進む。撮像が完了していなければS501に戻る。なお、撮像画像は図2(c)の画像2000に対応する。S502では、撮像光学系補正部430は、撮像部401から取得された撮像画像の色をはじめとする各種収差を補正する。S503では、姿勢取得部431が、姿勢計測センサーによって計測された姿勢情報を取得する。位置姿勢推定部432が、撮像画像から撮像時のHMDの位置姿勢情報を推定した結果を取得しても良い。S504では、位置姿勢推定部432が、S503における位置姿勢取得結果と過去の位置姿勢情報とから、時刻t+ΔtにおけるHMDの位置・姿勢を推定する。S505では、動体領域検出部433が、撮影画像(第1画像)から物体を示す物体領域と該物体領域が分離された背景領域とを取得する。物体領域は図2(d)の領域232である。背景領域は、図2(f)における画像2030である。
S506では、動体位置予測部434が、撮影画像(第1画像)における物体領域に基づいて所定時間後(Δt後)における物体の位置を推定する。例えば、図2(e)の画像2020で、動体233の位置からΔt秒後の動体234の位置への変化を予測する。ここでは前述の予測フィルタを用いた手法に従って、時刻t+Δtにおける動体の位置を予測する。ここで所定時間とは遅延時間Δtである。本実施形態では、予め準備したΔtの固定値を用いる。S507では、CG画像生成部437が、保持部438と姿勢取得部431から得たHMDの位置姿勢情報を入力とし、S506で予測された位置に動体を、現実空間と対応させた所定の位置にCGモデルを描写したCG画像を生成する。図2(k)の画像2080は、予測位置に画像2000から抽出された手235の画像を、物体220の上にCGモデルである物体130を描写した画像である。S508では、背景画像生成部435が、撮像画像の物体領域の周辺から得られる背景領域の画像特徴(色や輝度)を用いて物体領域を補間することによって背景画像を生成する(第1生成)。図2(g)の画像2040は、背景の画像特徴を用いて領域242を補間した背景画像である。例えば、物体領域を背景領域の色で塗りつぶすような処理を行う。S507とS508は逆の順で処理しても良い。
S509では、合成画像生成部439が、背景画像(第1画像)に含まれる特定の物体の所定時間後の位置を推定した結果に基づいて、背景画像中の推定結果に基づく位置に動体を描写したCG画像と背景画像とを合成した合成画像(第2画像)を生成する。図2(k)の画像2080がS509で生成された画像に対応する。S506で予測された位置(推定結果)に基づいて背景画像中の対応する位置に動体領域を合成することによって描写する。S510では、表示光学系補正部440が、合成画像を表示光学系に適した画像に変換する。S511では、表示位置制御部442は、撮像から表示までの処理における少なくとも一部の処理時間に起因する遅延時間、および画像表示装置の位置または姿勢の変化量に基づいて、表示部に供給する合成画像(第2画像)を表示する位置をシフトする。S510とS511の手順は逆であってもよい。S512では、情報処理装置401が、ユーザからの終了指示があるかどうかを判定する。終了指示がある場合は、処理を終了する。終了指示がない場合は、S501に処理を移す。
あるいは、S508以降の処理を以下のようにしてもよい。S508では、背景画像生成部435が、背景領域の画像特徴(色や輝度)を用いて物体領域を補間し、HMDの位置姿勢の変化に基づいてシフトさせた背景画像を生成する。図2(h)の画像2050は、背景の画像特徴を用いて領域242を補間し、さらにHMDの位置姿勢の変化に応じてシフトさせた背景画像である。S509では、合成画像生成部439が、動体位置予測結果と、HMDの位置姿勢予測結果とに基づいて、シフト後の背景画像を背景に、推定された位置に物体を描写した第2画像を前景に合成した合成画像(第2画像)を生成する。S510では、表示光学系補正部440が、合成画像を表示光学系に適した画像に変換する。S511では、表示位置制御部442は、合成画像をそのままの位置で表示する。S512では、情報処理装置401が、ユーザからの終了指示があるかどうかを判定する。終了指示がある場合は、処理を終了する。終了指示がない場合は、S501に処理を移す。
図6は、情報処理システムが実行する処理を示すシーケンス図である。図6において(a)撮影、(b)位置姿勢取得、(c)CG画像生成、(d)動体領域検出、(e)表示画像生成、(f)表示、の各処理が同時並行的に動作する。前記各処理は繰り返し実施される。なお各処理の起動終了についての説明は省略する。
図6(a)撮影処理では、S600で撮像部410が第1画像を撮影する。図5のS501と対応している。S601で撮像光学系補正部430第1画像の補正処理を行う。図5のS502と対応している。図6(b)位置姿勢取得処理では、S610の姿勢取得部431が、撮影画像から時刻tにおけるHMDの位置姿勢を検出する。図5のS503と対応している。次にS611で、位置姿勢推定部432が、検出された位置姿勢からt+ΔtにおけるHMDの位置姿勢を予測する。図5のS504と対応している。本実施形態ではΔtは固定値を用いる。図6(c)CG画像生成処理では、S620で、CG画像生成部437が、S610で計測されたHMDの位置姿勢情報に基づいて、CG画像を生成する。図5のS507と対応している。図6(d)動体領域検出処理では、S630で動体領域検出部433が撮影画像から動体領域を検出する。図5のS505と対応している。S631で動体位置予測部434が時刻t+Δtにおける動体位置を予測する。図5のS506と対応している。本実施形態では図3(a)の画面内での予測を採用するため、HMDの位置姿勢情報は不要である。
図6(e)背景&表示画像生成処理は、S630の動体領域検出結果を受けて、S640で背景画像生成部435が、動体領域を穴埋めした背景画像を生成する。図5のS508と対応している。その後、S643で合成画像生成部439が、合成画像生成処理をおこなう。図5のS509と対応している。この処理は、動体位置予測S631とHMDの位置姿勢予測S611、CG画像生成S620の結果を受けて、最新の位置姿勢情報に応じてHMDに表示するための合成画像を生成する。図6(f)は表示処理である。S643で生成された合成画像を受けて、S650で表示光学系補正部440が合成画像を補正する。図5のS510と対応している。S652で、表示位置制御部442は、撮像から表示までの処理における少なくとも一部の処理時間に起因する遅延時間、および画像表示装置の位置または姿勢の変化量に基づいて、表示部に供給する合成画像(第2画像)を表示する位置をシフトする。S553で表示部420が画像表示処理を順次行い、画像を表示する。図5のS511と対応している。
以上述べたように、本実施例によれば、HMDの体感的遅延緩和を目的とした画像シフト方式のタイムワープ画像生成において、動体の動きを考慮することにより、HMD使用者の違和感を改善できる。
(変形例1)
本発明に関わる変形例としては、動体の予測に用いる座標をHMDから見た動体の姿勢であるθφ空間にとることによって、予測精度を向上することが可能である。また撮影から表示までの遅延時間Δtを可変にとることによっても予測精度を向上できる。運動モデルに基づいて予測を行う際に、実際の撮影と表示の遅延時間計測結果に基づいてΔtを設定する方が、より正確であるため、映像の違和感をより軽減できる。本変形例の機能構成例を図7に示す。以下、図4との差分箇所を中心に説明する。
本変形例では遅延計測部641を設け、撮影時刻と表示時刻との差分Δtを計測する。遅延計測部641は内部にタイマーを具備する。遅延時間Δtは、撮像光学系補正部630が撮像画像を取得した時刻(第1の時刻)と、表示光学系補正部640が表示画像の送信を完了した時刻(第2の時刻)との差分に基づいて決定される。遅延時間Δtは撮影画像に添付され、動体位置予測部634、HMD位置姿勢推定部632において予測に利用される。位置姿勢取得部631は第1の実施形態431と同一である。位置姿勢取得部631は、現在計測できている最新の姿勢の計測時刻を遅延取得部641に送信する。
動体領域検出部633は、図3(b)に示すようなθφ空間での動体位置(方位)を検出する。これはHMDから相対的にどの方向に動体が見えるかを示すものである。動体位置予測部634はθφ空間上で動体位置(方位)を予測する。背景画像生成部635は435と同一である。予測背景画像生成部636はHMDの位置姿勢予測に基づいて時刻t+Δtにおける背景画像のシフト量を計算し、画像をシフトする。CG画像生成部637も同様に時刻t+ΔtにおけるHMDの予測位置姿勢からみたCGモデル画像を生成する。合成画像生成部639は予測背景画像、CG画像、動体を合成した画像を生成する。ここで距離計測の結果動体がCGよりも手前にあると判明した場合には、動体を最後に重畳する。これは例えば動体がHMD装着者の手である場合に該当する。
図8は情報処理装置が実行する処理を示すフローチャートである。S500では、情報処理装置401が初期化する。S501では、撮像光学系補正部630が、撮像部410の撮像処理が完了したかを判断する。撮像が完了しており、新たな画像が取得可能であれば現実空間における特定の物体を撮像した撮像画像を取得してS800へ進む。撮像が完了していなければS501に戻る。S800では、遅延計測部641が、撮影時刻と表示時刻との差分Δtを計測する。S502では、撮像光学系補正部630は、撮像部401から取得された撮像画像の色をはじめとする各種収差を補正する。S503では、位置姿勢取得部631が、撮像画像から撮像時のHMDの姿勢情報を取得する。S504では、位置姿勢推定部632が、S503における位置姿勢取得結果と過去の位置姿勢情報とから、時刻t+ΔtにおけるHMDの位置・姿勢を推定する。S505では、動体領域検出部633が撮影画像(第1画像)から物体を示す物体領域と該物体領域が分離された背景領域とを取得する。S506では、動体位置予測部634が、撮影画像(第1画像)における物体領域に基づいて遅延時間後における物体の位置を推定する。S507では、CG画像生成部437が、保持部438と姿勢取得部431から得たHMDの位置姿勢情報を入力とし、S506で予測された位置に動体を、現実空間に対応した所定の位置にCGモデルとを描写したCG画像として生成する。S508では、背景画像生成部635が、背景領域の画像特徴(色や輝度)を用いて物体領域を補間することによって背景画像を生成する。S509では、合成画像生成部639が、背景画像(第1画像)に含まれる特定の物体の所定時間後の位置を推定した結果に基づいて、背景画像中の推定結果に基づく位置に動体を描写したCG画像と背景画像とを合成した合成画像(第2画像)を生成する。S510では、表示光学系補正部640が、合成画像を表示光学系に適した画像に変換する。S511では、表示位置制御部642は、撮像から表示までの処理における少なくとも一部の処理時間に起因する遅延時間、および画像表示装置の位置または姿勢の変化量に基づいて、表示部に供給する合成画像(第2画像)を表示する位置をシフトする。S801では、遅延計測部641が、今回の処理にかかった遅延時間を記録する。遅延時間は保持部638に保持される。S512では、情報処理装置601が、ユーザからの終了指示があるかどうかを判定する。終了指示がある場合は、処理を終了する。終了指示がない場合は、S501に処理を移す。
図9は、情報処理システムが実行する処理を示すシーケンスである。図6と同様に複数の処理が並行して動作する。以下図6と異なる部分を中心に説明する。撮影と表示との間の遅延時間Δt計測の為に、撮影処理(a)のS702では撮像光学系補正部630が、撮影時刻を取得する。S751の表示時刻取得情報と合せて、S703では、遅延計測部641が、遅延計測を実施する。位置姿勢取得処理(b)において、S711で位置姿勢予測処理を行う。CG画像生成処理(c)のS720では、位置姿勢予測結果を受けて、予測位置姿勢からのCG画像を生成する。動体領域検出処理(d)のS731では、HMDの位置姿勢計測結果に基づいてθφ空間上での動体位置を予測する。背景&表示画像生成処理(e)のS742では、S711位置姿勢予測処理の結果を受けて、時刻t+Δtにおける背景画像を生成する。表示処理(f)のS750では、表示位置制御部642が、表示光学系補正部640が、合成画像を表示光学系に適した画像に変換する。S752では、表示位置制御部642が撮像から表示までの処理における少なくとも一部の処理時間に起因する遅延時間、および画像表示装置の位置または姿勢の変化量に基づいて、表示部に供給する合成画像(第2画像)を表示する位置をシフトする。S751では、遅延計測部641が、表示時刻を取得する。S753で、表示部が画像の表示を行う。
(変形例2)
本発明に関わるその他の変形例としては、図10に示すように、HMDと制御装置が分離した構成でも実現可能である。以下、図6との相違を中心に説明する。システムはHMD800と制御装置850から構成され、相互に通信する。HMD800はデータ送信部840とデータ受信部841を持つ。制御装置は例えば市販のPCで構成され、データ受信部832とデータ送信部853を持つ。HMDのデータ送信部840は撮影画像、遅延計測結果、姿勢情報をまとめて、制御装置850に送信し、制御装置850の受信部852がこれを受信する。一方で制御装置850のデータ送信部853は合成画像生成部862により生成された合成画像が、HMD800に対して送信され、データ受信部841がこれを受ける。HMD800と制御装置850の間の通信はUSBやIEEE1394、LANが選択可能であり、特定の通信方式に限定されるものではない。なお、本変形例のソフトウェア構成は、変形例1のソフトウェア構成において、撮影処理(a)と表示処理(f)がHMD側に配置される。さらに、位置姿勢取得処理(b)、CG生成処理(c)、動体領域検出処理(d)、背景&表示画像生成処理(e)が制御装置側に配置される構成をとり、互いに通信を行うことによって実現可能である。
(その他の実施例)
図11は、上記の実施形態の情報処理装置を実現するためのハードウェアを示す模式図である。CPU901は、RAM907やROM202に格納されているコンピュータプログラムやデータを使ってコンピュータ全体の制御を行う。また、CPUはそれと共に以下の各実施形態で情報処理装置が行うものとして説明する各処理を実行する。RAM907は、外部記憶装置906や記憶媒体ドライブ905からロードされたコンピュータプログラムやデータを一時的に記憶する。またRAM907は、外部から受信したデータを一時的に記憶するためのエリアを有する。更に、RAM907は、CPU901が各処理を実行する際に用いるワークエリアも有する。即ち、RAM907は、各種エリアを適宜提供することができる。また、ROM902には、コンピュータの設定データやブートプログラムなどが格納されている。キーボード909、マウス908は、操作入力装置の一例としてのものであり、コンピュータのユーザが操作することで、各種の指示をCPU901に対して入力することができる。表示部904は、CRTや液晶画面などにより構成されており、CPU901による処理結果を画像や文字などで表示することができる。例えば、表示部904には、撮像装置410によって撮像された現実空間の画像と仮想画像とを合成した合成画像を表示することができる。外部記憶装置906は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置906には、OS(オペレーティングシステム)や、情報処理装置が行う各処理をCPU901に実行させるためのプログラムやデータが格納されている。外部記憶装置906に保存されているコンピュータプログラムやデータは、CPU901による制御に従って適宜RAM907にロードされる。CPU901はこのロードされたプログラムやデータを用いて処理を実行することで、情報処理装置が行う各処理を実行することになる。記憶媒体ドライブ905は、CD-ROMやDVD-ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、係る記憶媒体にコンピュータプログラムやデータを書込んだりする。尚、外部記憶装置906に保存されているものとして説明したプログラムやデータの一部若しくは全部をこの記憶媒体に記録しておいても良い。記憶媒体ドライブ905が記憶媒体から読み出したコンピュータプログラムやデータは、外部記憶装置906やRAM907に対して出力される。I/F903は、撮像装置410を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポートにより構成される。I/F903を介して受信したデータは、RAM907や外部記憶装置906に入力される。バス910は、上述の各構成部をバス信号によって繋げるものである。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
400 情報処理システム
100 情報処理装置
200 ヘッドマウントディスプレイ

Claims (10)

  1. 現実空間を撮像した第1画像を取得する撮像手段と、前記第1画像を用いて生成された第2画像を表示する表示手段とを備える画像表示装置に、前記第2画像を供給する情報処理装置であって、
    前記第1画像において特定の物体の領域を当該領域の周辺から得られる画像特徴を用いて補間することにより、前記物体のない背景画像を生成する第1生成手段と、
    前記第1画像における前記物体の所定時間後の位置を推定した結果に基づいて、前記背景画像に対して前記推定結果に基づく位置に前記物体を描写した画像を合成して前記第2画像を生成する第2生成手段と、
    前記撮像から表示までの処理における少なくとも一部の処理時間に起因する遅延時間、および前記画像表示装置の位置または姿勢の変化量に基づいて、前記表示手段に供給する第2画像を表示する位置をシフトする表示位置制御手段とを有することを特徴とする情報処理装置。
  2. 前記所定時間は、前記撮像手段によって撮像を行う第1の時刻と、前記画像表示装置の位置または姿勢を計測する第2の時刻との差分であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1生成手段は、前記第1画像から所定の画像特徴を有する領域を前記物体の領域として抽出することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記第1生成手段は、前記第1画像から手の画像特徴を有する領域を抽出することを特徴とする請求項3に記載の情報処理装置。
  5. 前記物体とは手であって、
    前記第1生成手段は、前記第1画像において前記手に対応する肌色領域を当該肌色領域の周辺から得られる色を用いて補間することによって前記手のない前記背景画像を生成することを特徴とする請求項1に記載の情報処理装置。
  6. 前記第2生成手段は、前記第1生成手段によって生成された前記物体の領域を抽出した画像を、前記背景画像中の前記推定結果に基づく位置に合成することで前記第2画像を生成することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記画像表示装置は、ヘッドマウントディスプレイであることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 現実空間を撮像した第1画像を取得する撮像手段と、前記第1画像を用いて生成された第2画像を表示する表示手段とを備える画像表示装置に、前記第2画像を供給する情報処理装置であって、
    前記第1画像において、特定の物体の領域を、当該領域の周辺から得られる画像特徴を用いて補間し、前記撮像から表示までの処理における少なくとも一部の処理時間に起因する遅延時間、および前記画像表示装置の位置または姿勢の変化量に基づいて、当該補間することにより前記物体がなくなった第1画像をシフトして背景画像を生成する第1生成手段と、
    前記第1画像における前記物体の所定時間後の位置を推定した結果に基づいて、前記背景画像に対して前記推定結果に基づく位置に前記物体を描写した画像合成して前記第2画像を生成する第2生成手段と、を有することを特徴とする情報処理装置。
  9. コンピュータを、請求項1乃至8のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
  10. 現実空間を撮像した第1画像を取得する撮像手段と、前記第1画像を用いて生成された第2画像を表示する表示手段とを備える画像表示装置に、前記第2画像を供給する情報処理方法であって、
    前記第1画像において、特定の物体の領域を、当該領域の周辺から得られる画像特徴を用いて補間、前記物体のない背景画像を生成する第1生成工程と、
    前記第1画像における前記物体の所定時間後の位置を推定した結果に基づいて、前記背景画像に対して前記推定結果に基づく位置に前記物体を描写した画像を合成して前記第2画像を生成する第2生成工程と、
    前記撮像から表示までの処理における少なくとも一部の処理時間に起因する遅延時間、および前記画像表示装置の位置または姿勢の変化量に基づいて、前記表示手段に供給する第2画像を表示する位置をシフトする表示位置制御工程とを有することを特徴とする情報処理方法。
JP2018205860A 2018-10-31 2018-10-31 情報処理装置、情報処理方法及びプログラム Active JP7175715B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018205860A JP7175715B2 (ja) 2018-10-31 2018-10-31 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018205860A JP7175715B2 (ja) 2018-10-31 2018-10-31 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2020071394A JP2020071394A (ja) 2020-05-07
JP2020071394A5 JP2020071394A5 (ja) 2021-12-09
JP7175715B2 true JP7175715B2 (ja) 2022-11-21

Family

ID=70547735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018205860A Active JP7175715B2 (ja) 2018-10-31 2018-10-31 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7175715B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104249A (ja) 2007-10-19 2009-05-14 Canon Inc 画像処理装置、画像処理方法
WO2014013673A1 (ja) 2012-07-20 2014-01-23 パナソニック株式会社 動画像生成装置および動画像生成方法
JP2014164356A (ja) 2013-02-21 2014-09-08 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2015095045A (ja) 2013-11-11 2015-05-18 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2016131297A (ja) 2015-01-13 2016-07-21 キヤノン株式会社 立体画像生成装置、立体画像生成方法及びプログラム
WO2017047178A1 (ja) 2015-09-16 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2018087849A (ja) 2016-11-28 2018-06-07 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018141943A (ja) 2017-02-28 2018-09-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100186979B1 (ko) * 1994-12-28 1999-05-01 김주용 영상데이터의 물체별 배경 정보 부호화 방법 및 장치
JPH10161587A (ja) * 1996-11-29 1998-06-19 Fujitsu General Ltd 表示装置の動画補正方法及び動画補正回路
JP3957816B2 (ja) * 1997-06-05 2007-08-15 富士通株式会社 フレーム間補間画像処理装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104249A (ja) 2007-10-19 2009-05-14 Canon Inc 画像処理装置、画像処理方法
WO2014013673A1 (ja) 2012-07-20 2014-01-23 パナソニック株式会社 動画像生成装置および動画像生成方法
JP2014164356A (ja) 2013-02-21 2014-09-08 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2015095045A (ja) 2013-11-11 2015-05-18 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2016131297A (ja) 2015-01-13 2016-07-21 キヤノン株式会社 立体画像生成装置、立体画像生成方法及びプログラム
WO2017047178A1 (ja) 2015-09-16 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2018087849A (ja) 2016-11-28 2018-06-07 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018141943A (ja) 2017-02-28 2018-09-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2020071394A (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
RU2638776C1 (ru) Устройство генерирования изображения и способ
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4950834B2 (ja) 画像処理装置、画像処理方法
JP5843340B2 (ja) 3次元環境共有システム及び3次元環境共有方法
JP5818857B2 (ja) 情報処理装置およびその制御方法
JP2019506015A (ja) ピクセル速度を用いた電子ディスプレイ安定化
JP7349793B2 (ja) 画像処理装置および画像処理方法、プログラム
TWI701941B (zh) 圖像處理方法及裝置、電子設備及儲存介質
JP2008210276A (ja) 三次元モデル情報の生成方法及び装置
JP4580678B2 (ja) 注視点位置表示装置
JP4144888B2 (ja) 画像処理方法、画像処理装置
CN110969706B (zh) 增强现实设备及其图像处理方法、系统以及存储介质
JP2006012042A (ja) 画像生成方法及び装置
JP7262973B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6621565B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP6775669B2 (ja) 情報処理装置
JP7175715B2 (ja) 情報処理装置、情報処理方法及びプログラム
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
WO2023108016A1 (en) Augmented reality using a split architecture
WO2018173205A1 (ja) 情報処理システム、その制御方法、及びプログラム
JP2006318094A (ja) 情報処理方法、情報処理装置
JP2023093170A (ja) 携帯端末装置、および、そのプログラム
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP7465133B2 (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211029

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221109

R151 Written notification of patent or utility model registration

Ref document number: 7175715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151