JP7419424B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7419424B2
JP7419424B2 JP2022060649A JP2022060649A JP7419424B2 JP 7419424 B2 JP7419424 B2 JP 7419424B2 JP 2022060649 A JP2022060649 A JP 2022060649A JP 2022060649 A JP2022060649 A JP 2022060649A JP 7419424 B2 JP7419424 B2 JP 7419424B2
Authority
JP
Japan
Prior art keywords
display
image
displayed
display image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022060649A
Other languages
English (en)
Other versions
JP2022104972A (ja
Inventor
拓也 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022060649A priority Critical patent/JP7419424B2/ja
Publication of JP2022104972A publication Critical patent/JP2022104972A/ja
Application granted granted Critical
Publication of JP7419424B2 publication Critical patent/JP7419424B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像データを複数の装着型ディスプレイ装置に表示する場合に各ディスプレイ装置を装着するユーザの位置姿勢変化に基づき該ディスプレイ装置に表示する表示画像を生成する画像処理装置、画像処理方法、およびプログラムに関する。
ヘッドマウントディスプレイは、ユーザの頭部に装着するディスプレイ装置のことであり、ウェアラブルコンピュータの一つとして位置付けられる。また、ヘッドマウントディスプレイは、外の世界を完全に見えなくし、かつユーザの顔の向きに連動させて画像を変化させて360度の視界を表現することで、より完全に近いバーチャルリアリティを実現できることから、近年注目される技術の一つとなっている。
ところで、ヘッドマウントディスプレイの利用法として、複数のユーザの各々が1つのディスプレイを装着し、これら複数のディスプレイに1つの画像を表示することで、複数のユーザが1つの画像を共有し得る技術が知られている。この場合、複数のユーザは、その1つの画像を介して1つの世界(仮想空間)にいることを実感できる。このようなヘッドマウントディスプレイを用いた画像共有に関する技術は、従来、例えば、特許文献1に開示されるようなものがある。
特許文献1は、1つの画像を複数のヘッドマウントディスプレイに表示する場合に、主となるユーザが装着するディスプレイからの視野情報に基づき、従となるユーザが装着するディスプレイの画像を制御する技術を開示する。これにより、従となるユーザも、主となるユーザと同じ画像を見ることが可能となる。また、引用文献2は、主となるユーザが装着するヘッドマウントディスプレイから得られた頭部の重力方向に対する傾きに基づき、従となるユーザが視聴するモニタ装置に表示する画像の傾きを制御する技術を開示する。
特開2012-212991号公報 特開2012-160898号公報
特許文献1および2の技術は、主となるユーザと従となるユーザとで1つの画像を共有する場合に、主となるユーザが装着するディスプレイの表示領域をそのまま利用して、従となるユーザのディスプレイまたはモニタ装置に表示する。従って、特許文献1および2の場合、主となるユーザが急な動きを行うと、その急な動きに基づく画像の変化が従となるユーザのディスプレイまたはモニタ装置にそのまま反映されてしまう。この場合、従となるユーザは、この急な動きによる画像の変化により、視覚的な不快感または映像酔いを引き起こす可能性がある。なお、急な動きは、ユーザの頭部の動きに起因するものとし、その動きが小さくても小刻みに長時間続く場合、および短時間でも大きい場合は、それぞれ急な動きに該当するものとする。
本発明は、1つの画像を複数の装着型ディスプレイ装置に表示する場合に、主となるユーザの急な動きが従となるユーザのディスプレイ装置に反映されなくすることで、従となるユーザの視覚的な不快感または映像酔いを低減させることを目的とする。
本発明の例によれば、画像データを複数の装着型ディスプレイ装置に表示する場合に各ディスプレイ装置の位置姿勢情報に基づき該ディスプレイ装置に表示する表示画像を生成する画像処理装置であって、前記複数のディスプレイ装置のうち第1のディスプレイ装置の第1の位置姿勢情報を取得し、前記複数のディスプレイ装置のうち第2のディスプレイ装置の第2の位置姿勢情報を取得する取得手段と、前記画像データおよび前記第1の位置姿勢情報に基づき前記第1のディスプレイ装置に表示する第1の表示画像を生成し、前記画像データおよび前記第2の位置姿勢情報に基づき前記第2のディスプレイ装置に表示する第2の表示画像を生成する表示画像生成手段と、を備え、前記表示画像生成手段は、前記第1のディスプレイ装置が主、前記第2のディスプレイ装置が従である場合に、前記第1の表示画像に表示される領域の中心が前記第2の表示画像に表示される領域に含まれ、かつ、前記第1の表示画像に表示される領域及び前記第2の表示画像に表示される領域の一方に他方がすべて含まれるように前記第1の表示画像に表示される領域及び前記第2の表示画像に表示される領域を決定し、決定された前記第1の表示画像に表示される領域の大きさ及び前記第2の表示画像に表示される領域の大きさに応じて前記画像データに対する前記第2の表示画像の倍率を決定する
本発明の例によれば、1つの画像を複数の装着型ディスプレイ装置に表示する場合に、主となるユーザの急な動きが従となるユーザのディスプレイ装置に反映されなくすることで、従となるユーザの視覚的な不快感または映像酔いを低減させることが可能となる。
HMDシステムの例を示す図である。 図1のシステムの動作を示すフローチャートである。 第1および第2の位置姿勢変化のパラメータを示す図である。 表示領域制御部の詳細を示す図である。 第1の表示領域を算出する例を示す図である。 補正処理の例を示す図である。 LPFによる補正処理の例を示す図である。 閾値処理部による補正処理の例を示す図である。 加速度に基づき主となるユーザの急な動きを検出する例を示す図である。 第1の表示領域と第2の表示領域との関係を示す図である。 第2の表示領域を算出する例を示す図である。 HMDシステムの例を示す図である。 図12のシステムの動作を示すフローチャートである。
以下、本発明の実施形態を図面を参照して詳細に説明する。
(第1の実施形態)
図1は、HMDシステムの例を示す。
このHMDシステムは、画像処理装置100と、第1のディスプレイ110と、第2のディスプレイ120と、を備える。第1のディスプレイ110は、主となるユーザが装着するヘッドマウントディスプレイ(ディスプレイ装置)であり、第2のディスプレイ120は、従となるユーザが装着するヘッドマウントディスプレイ(ディスプレイ装置)である。主となるユーザとは、複数のユーザが1つの映像または画像(以下、両者をまとめて単に画像と称する)を共有する場合に、その1つの画像の提供元となるユーザのことである。また、従となるユーザとは、複数のユーザが1つの画像を共有する場合に、その1つの画像の提供先となるユーザのことである。すなわち、主となるユーザが視聴している1つの画像が従となるユーザに提供されることで、複数のユーザが1つの画像を共有することができる。
このシステムは、複数のヘッドマウントディスプレイを備える。本例では、第1および第2のディスプレイ110,120としての2つのヘッドマウントディスプレイを備える。但し、これは本実施形態の説明を簡単にするためのものであり、その数は、3つ以上であっても構わない。また、このシステムにおいては、複数のヘッドマウントディスプレイのうちの1つは、主となるユーザが装着するディスプレイとして機能し、残りは、従となるユーザが装着するディスプレイとして機能する。
また、画像処理装置100の位置は、特に限定されない。例えば、画像処理装置100は、第1および第2のディスプレイ110,120を含む複数のヘッドマウントディスプレイとは独立に設けられる。この場合、画像処理装置100は、専用機器であってもよいし、パソコンなどの汎用機器であってもよいし、またはクラウドサービスにおける管理サーバであってもよい。なお、画像処理装置100が管理サーバ内に搭載される場合の例については、第2の実施形態で詳述する。
また、画像処理装置100は、複数のヘッドマウントディスプレイのうちの1つに搭載されていてもよい。例えば、画像処理装置100が搭載されるヘッドマウントディスプレイが第1のディスプレイ110でない場合、画像処理装置100は、第1のディスプレイ110に表示すべき第1の表示画像を第1のディスプレイ110に送信する送信部を備える。また、画像処理装置100が搭載されるヘッドマウントディスプレイが第2のディスプレイ120でない場合、画像処理装置100は、第2のディスプレイ120に表示すべき第2の表示画像を第2のディスプレイ120に送信する送信部を備える。
さらに、画像処理装置100は、複数のヘッドマウントディスプレイの各々に搭載されていてもよい。
画像処理装置100は、画像データ入力部101と、画像メモリ102と、表示領域制御部103と、を備える。第1のディスプレイ110は、位置姿勢変化検出部111と、画像表示部112と、を備える。第2のディスプレイ120は、位置姿勢変化検出部121と、画像表示部122と、を備える。
画像データ入力部101は、画像処理装置100に画像データが入力された場合に画像データを画像メモリ102へ供給する。画像メモリ102は、画像データ入力部101からの画像データを記憶する。画像データは、画像メモリ102から表示領域制御部103へ供給される。
位置姿勢変化検出部111は、第1のディスプレイ110を装着する主となるユーザの第1の位置姿勢変化を検出する。同様に、位置姿勢変化検出部121は、第2のディスプレイ120を装着する従となるユーザの第2の位置姿勢変化を検出する。位置姿勢変化検出部111,121の各々は、加速度センサ、ジャイロセンサなどの検出センサを含む。
表示領域制御部103は、位置姿勢変化検出部111から主となるユーザの第1の位置姿勢変化を取得し、かつ位置姿勢変化検出部121から従となるユーザの第2の位置姿勢変化を取得する取得部を備える。
そして、表示領域制御部103は、画像メモリ102から供給される画像データと、第1の位置姿勢変化と、に基づいて、第1のディスプレイ110に供給すべき第1の表示画像を生成する。また、表示領域制御部103は、画像メモリ102から供給される画像データと、第1の位置姿勢変化と、第2の位置姿勢変化とに基づいて、第2のディスプレイ120に供給すべき第2の表示画像を生成する。これら第1及び第2の表示画像の生成については、後述する。
画像表示部112は、表示領域制御部103により生成された第1の表示画像を表示する。また、画像表示部122は、表示領域制御部103により生成された第2の表示画像を表示する。
このようなシステムによれば、後述するように、表示領域制御部103により、第1の位置姿勢変化から主となるユーザの急な動きに起因する位置姿勢変化を除外する補正処理を行うことで、従となるユーザの映像酔いを防止できる。すなわち、表示領域制御部103は、補正処理が行われている第1の位置姿勢変化に基づき補正表示領域を算出し、かつ補正表示領域の中心座標を算出する。また、表示領域制御部103は、この中心座標を基準にして第2の位置姿勢変化に基づき第2の表示領域を算出する。この第2の表示領域は、主となるユーザの急な動きに起因する要素を含まない。
従って、従となるユーザは、第2の表示領域に基づき生成された第2の表示画像を視聴することになるため、視覚的な不快感または映像酔いを引き起こすことがない。一方、第1の表示画像は、補正処理が行われていない第1の位置姿勢変化に基づき生成されるため、主となるユーザは、自らの動きをそのまま第1の表示画像として視聴可能となる。
次に、図1のHMDシステムの動作を説明する。
以下の説明では、図2のフローチャートをベースにHMDシステムの動作を説明する。
まず、ステップS201において、画像データを準備する。すなわち、画像データは、画像データ入力部101に入力され、かつ画像データ入力部101を経由して画像メモリ102に記憶される。次に、ステップS202において、表示領域制御部103は、上述の取得部を用いて、位置姿勢変化検出部111から第1の位置姿勢変化を取得する。
ここで、図3を参酌して、第1および第2の位置姿勢変化のパラメータを説明する。各パラメータは、加速度センサ、ジャイロセンサなどの検出センサによって検出される。
例えば、第1および第2の位置姿勢変化は、三次元空間400内で、水平方向への加速度401をXad、垂直方向への加速度402をYad、および奥行き方向への加速度403をZadとして、加速度センサによって検出される。また、第1および第2の位置姿勢変化は、三次元空間400内で、水平方向を軸とする回転角速度411をXvr、垂直方向を軸とする回転角速度412をYvr、奥行き方向を軸とする回転角速度413をZvrとして、ジャイロセンサによって検出される。
すなわち、第1および第2の位置姿勢変化は、これら検出された各加速度を時間で積分することで、主となるユーザの速度および位置の変化、並びに従となるユーザの速度および位置の変化として、それぞれ算出可能となる。
具体的には、
Xvd=∫Xad dt ・・・式(1)
Yvd=∫Yad dt ・・・式(2)
Zvd=∫Zad dt ・・・式(3)
とすることで、水平方向への速度Xvd、垂直方向への速度Yvd、および奥行き方向への速度Zvdをそれぞれ算出できる。
また、
Xpd=∫Xvd dt ・・・式(4)
Ypd=∫Yvd dt ・・・式(5)
Zpd=∫Zvd dt ・・・式(6)
とすることで、水平方向への位置Xpd、垂直方向への位置Ypd、および奥行き方向への位置Zpdをそれぞれ算出できる。
さらに、検出された各回転角速度をそれぞれ時間で微分および積分することで、回転方向の角加速度および回転角を算出できる。すなわち、
Xar=dXvr/dt ・・・式(7)
Yar=dYvr/dt ・・・式(8)
Zar=dZvr/dt ・・・式(9)
とすることで、水平方向を軸とする回転角加速度Xar、垂直方向を軸とする回転角加速度Yar、および奥行き方向を軸とする回転角加速度Zarをそれぞれ算出できる。
また、
Xpr=∫Xvr dt ・・・式(10)
Ypr=∫Yvr dt ・・・式(11)
Zpr=∫Zvr dt ・・・式(12)
とすることで、水平方向を軸とする回転角Xpr、垂直方向を軸とする回転角Ypr、および奥行き方向を軸とする回転角Zprをそれぞれ算出できる。
上記の式(1)~式(12)で算出される各パラメータについては、実際には加速度センサおよびジャイロセンサ内のドリフトに起因し、積分誤差が発生する。この積分誤差は、第1および第2の位置姿勢変化を正確に求めるための障害となる。そこで、この積分誤差を除去するために、ハイパスフィルタ、カルマンフィルタ、相補フィルタなどのフィルタ処理、さらには、地磁気、GPSなどの情報による補正処理を行うこと、すなわち、センサーフュージョン構成とすることは、有効である。
なお、上記の式(1)~式(12)による算出工程は、第1および第2のディスプレイ110,120内の位置姿勢変化検出部111,121で行うことが可能である。この場合、表示領域制御部103は、第1および第2の位置姿勢変化を、上記の式(1)~式(12)による算出工程の結果として取得する。
また、上記の式(1)~式(12)による算出工程は、表示領域制御部103で行うことも可能である。この場合、表示領域制御部103は、第1および第2の位置姿勢変化を、上記の式(1)~式(12)の計算の元になる各パラメータとして取得する。
図2のフローチャートの説明に戻る。
次に、ステップS203において、表示領域制御部103は、第1のディスプレイ110に表示すべき第1の表示画像を生成するか、または第2のディスプレイ120に表示すべき第2の表示画像を生成するか、を決定する。
第1のディスプレイ110に表示すべき第1の表示画像を生成する場合、第1のディスプレイ110は、主となるユーザに装着されるものであるため、ステップS204へ進む。また、第2のディスプレイ120に表示すべき第2の表示画像を生成する場合、第2のディスプレイ120は、従となるユーザに装着されるものであるため、ステップS207へ進む。
第1の表示画像は、以下のステップS204~S206により生成され、かつ第1のディスプレイ110に表示される。
まず、ステップS204において、画像領域制御部103は、ステップS202で取得した第1の位置姿勢変化に基づき、第1のディスプレイ110の画像表示部112に表示すべき第1の表示領域を生成する。
次に、ステップS205において、画像領域制御部103は、画像データ、およびステップS204で生成した第1の表示領域に基づき、第1のディスプレイ110の画像表示部112に表示すべき第1の表示画像を生成する。そして、ステップS206において、画像領域制御部103は、この第1の表示画像を第1のディスプレイ110の画像表示部112に供給する。
一方、第2の表示画像は、以下のステップS207~S210により生成され、かつ第2のディスプレイ120に表示される。
まず、ステップS207において、表示領域制御部103は、上述の取得部を用いて、位置姿勢変化検出部121から第2の位置姿勢変化を取得する。そして、ステップS208において、画像領域制御部103は、ステップS202で取得した第1の位置姿勢変化、およびS207で取得した第2の位置姿勢変化に基づき、第2のディスプレイ120の画像表示部122に表示すべき第2の表示領域を生成する。
次に、ステップS209において、画像領域制御部103は、画像データ、およびステップS208で生成した第2の表示領域に基づき、第2のディスプレイ120の画像表示部122に表示すべき第2の表示画像を生成する。そして、ステップS210において、画像領域制御部103は、この第2の表示画像を第2のディスプレイ120の画像表示部122に供給する。
ここで、第1の表示画像および第2の表示画像を生成する具体例を説明する。
例えば、図4に示すように、表示領域制御部103は、位置姿勢変化補正パラメータ算出部301と、位置姿勢変化補正部302と、表示領域算出部303と、表示画像生成部304と、を備える。位置姿勢変化補正パラメータ算出部301は、画像メモリ102内に記憶された画像データに基づき、位置姿勢変化補正パラメータを算出し、かつそれを位置姿勢変化補正部302へ供給する。
位置姿勢変化補正部302は、第1のディスプレイ110内の位置姿勢検出部111で検出された第1の位置姿勢変化を位置姿勢変化補正パラメータに基づき補正する補正処理を行う。この補正処理は、第1の位置姿勢変化から主となるユーザの急な動きに起因する位置姿勢変化を除外する処理である。この補正処理が行われた第1の位置姿勢変化は、表示領域算出部303に供給される。
表示領域算出部303は、位置姿勢変化補正部302で補正処理が行われていない第1の位置姿勢変化に基づき第1の表示領域を算出する。また、表示領域算出部303は、位置姿勢変化補正部302で補正処理が行われている第1の位置姿勢変化に基づき補正表示領域を算出する。さらに、表示領域算出部303は、補正表示領域の中心座標を基準にして、位置姿勢変化検出部121から取得した第2の位置姿勢変化に基づき第2の表示領域を算出する。
表示画像生成部304は、画像データ、および表示領域算出部303で算出された第1の表示領域に基づき、第1のディスプレイ110に供給すべき第1の表示画像を生成する。第1の表示画像は、画像表示部112に表示される。また、表示画像生成部304は、画像データ、および表示領域算出部303で算出された第2の表示領域に基づき、第2のディスプレイ120に供給すべき第2の表示画像を生成する。第2の表示画像は、画像表示部122に表示される。
このように、第1の表示画像は、補正処理が行われていない第1の位置姿勢変化に基づき生成されるため、主となるユーザは、自らの動きをそのまま第1の表示画像として視聴可能となる。また、第2の表示画像は、補正処理が行われている第1の位置姿勢変化と、第2の位置姿勢変化とに基づき生成されるため、従となるユーザは、主となるユーザの急な動きの要素が排除された第2の表示画像を視聴可能となる。
図5は、第1の表示領域を算出する例を示す。
図5(A)は、画像データの垂直方向501と水平方向502に対して、第1の位置姿勢変化が検出されていない場合の第1の表示領域503の例である。図5(B)は、図5(A)の状態において第1の位置姿勢変化が検出された場合に、第1の位置姿勢変化に基づき第1の表示領域508を算出する例である。
本例では、第1の位置姿勢変化は、垂直方向501と水平方向502に対して、中心座標(x,y)507を中心にして回転角506だけ回転した場合を例とする。この場合、第1の位置姿勢変化後の第1の表示領域508は、垂直方向504と水平方向505とを有する。
中心座標(x,y)507は、式(4)および式(5)より、
(x,y)=(Xpd,Ypd) ・・・式(13)
となる。また、回転角506は、式(12)より算出できる。第1の表示領域508は、式(13)と、回転角506と、主となるユーザが装着する第1のディスプレイ110の画像表示部112に表示可能な画像サイズとに基づき、決定する。
以上より、第1の表示領域508は、主となるユーザの第1の位置姿勢変化から算出される。また、画像データのうち、第1の表示領域508内に含まれる画像データは、主となるユーザが装着する第1のディスプレイ110に供給すべき第1の表示画像となる。第1の表示画像は、第1のディスプレイ110の画像表示部112に表示される。
次に、第2の表示領域を算出する例を示す。
まず、上記のように、位置姿勢変化補正部302を用いて、第1の位置姿勢変化から主となるユーザの急な動きに起因する位置姿勢変化を除外する補正処理を行う。
図6は、補正処理の例を示す。
図6(A)は、ローパスフィルタ(LPF)601を用いた補正処理の例である。ローパスフィルタ601は、所定の閾値を有し、第1の位置姿勢変化と位置姿勢変化補正パラメータとに基づき、補正処理された第1の位置姿勢変化を出力する。すなわち、ローパスフィルタ601は、第1の位置姿勢変化の周波数が所定の閾値よりも大きい場合に、該周波数に係る位置変化を主となるユーザの急な動きとして除外する。
図6(B)は、閾値処理部602による補正処理の例である。閾値処理部602は、第1の位置姿勢変化と位置姿勢変化補正パラメータとに基づき、所定の閾値を基準に第1の位置姿勢変化が有るか、または無いかを決める処理を行う。すなわち、閾値処理部602は、第1の位置姿勢変化が所定の閾値よりも大きい場合に、該位置姿勢変化が無いものとして処理し、主となるユーザの急な動きを除外する。
また、画像データが画素毎に色情報と奥行き情報を有する場合、位置姿勢変化補正部302は、第1の表示領域508内の画素の奥行き情報に基づき、ローパスフィルタ601または閾値処理部602の所定の閾値を設定してもよい。この場合、近い距離情報を持つ画像が表示画角の多くを占めるときに、ローパスフィルタ601または閾値処理部602の効果を高め(所定の閾値を下げ)、第1の位置姿勢変化をなだらかにし、追従性を下げることができる。これにより、従となるユーザの視覚的な不快感または映像酔いが防止される。
図7は、図6(A)によるローパスフィルタ601によって第1の位置姿勢変化がどのように補正されるのかを説明した図である。
横軸701は、時間軸を示し、縦軸702は、位置姿勢変化として水平方向の位置703を示す。水平方向の位置703は、第1のディスプレイ110の位置姿勢変化検出部111で検出された第1の位置姿勢変化である。なだらかな曲線704は、ローパスフィルタ601による補正処理が行われた第1の位置姿勢変化を示す。但し、縦軸702は、水平方向の位置に限らず、垂直方向の位置、奥行き方向の位置を示していてもよい。
ローパスフィルタ601は、伝達関数として、
G(s)=a/(s+a) ・・・式(14)
と表現される。但し、sは、角周波数であり、かつwと虚数jを用いて
s=jw ・・・式(15)
と表現される。
さらに、角周波数wは、周波数fを用いて
w=2πf ・・・式(16)
と表現される。但し、aは、任意の正の定数で、かつ第1の位置姿勢変化の補正パラメータ設定値である。この時、ローパスフィルタ601の遮断周波数fcは、
fc=a/2π ・・・式(17)
の関係を有する。
すなわち、ローパスフィルタ601の特性は、aの値、および遮断周波数fcを調整することにより制御可能となる。
第1の位置姿勢変化の高周波成分(主となるユーザの急な動きに相当)は、ローパスフィルタ601により除去されるため、補正処理された第1の位置姿勢変化は、主となるユーザの急な動きに起因する位置姿勢変化を含まない。また、第1の位置姿勢変化の補正パラメータは、第1のディスプレイ110の表示範囲に含まれる画素の奥行き情報に基づき変更可能であり、これに基づき、式(14)の任意の正の定数aも変更可能である。
すなわち、位置姿勢変化補正パラメータ算出部301は、補正処理を行う第1の位置姿勢変化の(Xpd,Ypd)と対をなす奥行き情報に基づいて定数aを変更した後、定数aを位置姿勢変化補正部302へ供給する。第1の位置姿勢変化の(Xpd,Ypd)と対をなす奥行き情報をZdとする。このとき、Zdをある定数からある定数の間で表現でき、Zdが小さいほど奥行き情報として奥行きがないと定義した場合、定数aは、
a=b×Zd ・・・式(18)
と表現される。但し、bは、任意の定数である。
式(18)で定数aを決めることにより、例えば、風景のように奥行きがあるシーンの場合、Zdが大きい値となるため、それに比例して定数aも大きな値となる。従って、式(17)より、遮断周波数fcも大きな値となるため、ローパスフィルタ601の効果を弱めることができる。逆に、近くにものがあるシーンの場合、Zdが小さい値となるため、それに比例して定数aも小さな値となる。従って、式(17)より、遮断周波数fcも小さな値となるため、ローパスフィルタ601の効果を強めることができる。
以上のように、画像データの奥行き情報に応じてローパスフィルタ601の設定値を変えることにより、第1の位置姿勢変化の補正度合を変更可能となる。
図8は、図6(B)による閾値処理部602によって第1の位置姿勢変化がどのように補正されるのかを説明した図である。同図は、第1の位置姿勢変化の位置、速度、および加速度の関係を示す。
図8(A)の横軸801は、時間軸を示し、縦軸804は、位置を示す。図8(B)の横軸802は、時間軸を示し、縦軸805は、速度を示す。図8(C)の横軸803は、時間軸を示し、縦軸806は、加速度を示す。第1の位置姿勢変化に関し、位置の時間的な変化807、および速度の時間的な変化808は、図3で説明したように、加速度の時間的な変化809から算出できる。以下の説明では、便宜上、位置、速度、および加速度の時間的な変化は、水平方向の変化を例とするが、それ以外の垂直方向、奥行き方向、および回転方向に対しても同様の処理が可能である。
図9は、図8(C)の加速度の時間的な変化に関し、所定の閾値を基準に、第1の位置姿勢変化を有りとするか、または無しとするか(主となるユーザの急な動きとして除去するか)を決める例を示す。
図9(A)の横軸810は、時間軸を示し、縦軸813は、加速度を示す。図9(B)の横軸811は、時間軸を示し、縦軸814は、位置を示す。図9(C)の横軸812は、時間軸を示し、縦軸815は、位置を示す。加速度の時間的な変化816は、図8(C)の加速度の時間的な変化と同じである。
図6の閾値処理部602は、図9(A)の加速度の時間的な変化816に基づき、検出された第1の位置姿勢変化を、主となるユーザの急な動きとして排除するか否かを決定する。例えば、閾値処理部602は、所定の閾値817,818を有する。ここでは、所定の閾値817の値をTH_Hとし、所定の閾値818の値をTH_Lとする。
点線819,820は、加速度が所定の閾値817,818を超えた時点を示す。この時、閾値処理部602による補正処理が行われないと、位置の変化は、破線821,824に示すようになり、図8(A)の位置の変化と同じとなる。一方、閾値処理部602による補正処理が行われると、位置の変化は、実線822,825に示すようになる。すなわち、加速度が所定の閾値817,818を超えた時点819,820から一定期間823は、第1の位置姿勢変化が無いものとして扱う。これにより、この一定期間823は、位置の更新が行われないため、主となるユーザの急な動きを排除することができる。
なお、一定期間823が経過した後に取得した第1の位置姿勢変化の加速度が所定の閾値を超えていない場合、現在位置を該第1の位置姿勢変化に基づく目標位置に変更することで、現在位置を主となるユーザの動きに追従させる。この場合、現在位置から目標位置までの加速度が所定の閾値を超えないように制御する必要がある。
例えば、図9(B)の実線822に示すように、位置を急激に変化させると、図8(A)の場合と同様に、時点XPにおいて加速度が所定の閾値を超えてしまう可能性がある。そこで、現在位置を目標位置に変更する場合、図9(C)の実線825に示すように、位置姿勢変化補正部302は、位置を緩やかに変化させるような制御を行うのが望ましい。
また、第1の位置姿勢変化の補正パラメータは、第1のディスプレイ110に表示すべき第1の表示範囲内の画素の奥行き情報に基づき閾値817,818の値TH_H,TH_Lを制御することで、変更することが可能である。例えば、位置姿勢変化補正パラメータ算出部301は、補正処理の対象となる第1の位置姿勢変化の(Xpd,Ypd)と対をなす奥行き情報に基づき、閾値817,818の値TH_H,TH_Lを制御する。
第1の位置姿勢変化の(Xpd,Ypd)と対をなす奥行き情報をZdとすると、Zdは2つの定数の間の値として表現できる。また、Zdが小さいほど奥行き情報としての奥行きが小さいと定義した場合、TH_HおよびTH_Lは、
TH_H=c×Zd ・・・式(19)
TH_L=TH_H ・・・式(20)
と表現される。但し、cは任意の定数である。
式(19)および式(20)によれば、例えば、風景のように奥行きがあるシーンの場合、Zdが大きな値となるため、それに比例してTH_HおよびTH_Lも大きな値となり、結果として、閾値処理部602の効果を弱めることができる。反対に、近くにものがあるシーンの場合、Zdが小さな値となるため、それに比例してTH_H,TH_Lも小さな値となり、結果として、閾値処理部602の効果を強めることができる。
以上のように、画像データの奥行き情報に基づき、TH_HおよびTH_Lを変えることで、補正処理における補正度合、すなわち第1の位置姿勢変化から主となるユーザの急な動きとして排除される位置姿勢変化の度合い、を変更可能となる。
図10は、第1の表示領域と第2の表示領域との関係を示す。
図10(A)は、主となるユーザが装着する第1のディスプレイ110に表示すべき第1の表示画像の第1の表示領域の例である。図10(B)は、従となるユーザが装着する第2のディスプレイ120に表示すべき第2の表示画像の第2の表示領域の例である。
本例は、画像データの垂直方向901と水平方向902に対して、主となるユーザの第1の位置姿勢変化が中心座標(x,y)906を中心にして回転角905だけ回転した場合を例とする。第1の位置姿勢変化に基づく第1の表示領域907は、垂直方向903と水平方向904とを有する。
この時、第1の表示領域907における中心座標(x,y)906は、例えば、第1のディスプレイ110で検出された座標となり、式(13)より、
(x,y)=(Xpd,Ypd) ・・・式(21)
と表現される。
また、回転角905は、式(12)から算出できる。
従って、第1の表示領域907は、式(21)と、回転角905と、第1のディスプレイ110の画像表示部112に表示可能な画像サイズと、に基づき決定できる。
また、第2の表示領域912は、第1の表示領域907と、従となるユーザの第2の位置姿勢変化と、に基づき決定できる。本例は、画像データの垂直方向901と水平方向902に対して、従となるユーザの第2の位置姿勢変化が中心座標(x,y)911を中心にして回転角910だけ回転した場合を例とする。第2の位置姿勢変化に基づく第2の表示領域912は、垂直方向908と水平方向909とを有する。
この時、第2の表示領域912における中心座標(x,y)911は、上述の補正処理が行われた第1の位置姿勢変化に基づき算出された第1の表示領域(補正表示領域)907の中心座標(x,y)906とする。また、回転角910は、式(12)から算出できる。従って、第2の表示領域912は、式(21)と、回転角910と、第2のディスプレイ120の画像表示部122に表示可能な画像サイズと、に基づき決定できる。
図11は、第2の表示領域を算出する例を示す。
本例は、補正表示領域に基づき画像データの切り出し領域を決定し、画像データの切り出し領域から第2の表示領域を算出する例である。なお、補正表示領域、第2の表示領域、および切り出し領域を算出する動作は、表示領域算出部303により実行される。
図11(A)では、表示領域算出部303は、補正表示領域1001内において、第2の位置姿勢変化に基づき、画像データの切り出し領域1002を決定する。また、表示領域算出部303は、第2のディスプレイ120の画像表示部122に表示可能な画像サイズに基づき、切り出し領域1002を拡大することにより、第2の表示領域を算出する。
図11(B)では、表示領域算出部303は、第2の位置姿勢変化に基づき、補正表示領域1001を含む切り出し領域1003を決定する。また、表示領域算出部303は、第2のディスプレイ120の画像表示部122に表示可能な画像サイズに基づき、切り出し領域1003を縮小することにより、第2の表示領域を算出する。
そして、表示画像生成部304は、第1の表示領域に基づき第1の表示画像を生成し、かつ第1の表示画像を第1のディスプレイ110の画像表示部112に供給する。また、表示画像生成部304は、第2の表示領域に基づき第2の表示画像を生成し、かつ第2の表示画像を第2のディスプレイ120の画像表示部122に供給する。
なお、第1の実施形態では、ロール(面内回転)の位置姿勢変化制御について説明したが、ヨーピッチ(あおり)成分、または前後/左右/上下の位置成分の制御について第1の実施形態を適用することも可能である。
以上、説明したように、第1の実施形態によれば、補正処理が行われている第1の位置姿勢変化に基づき補正表示領域が算出され、かつ補正表示領域の中心座標が算出される。また、この中心座標を基準にして第2の位置姿勢変化に基づき第2の表示領域が算出される。すなわち、第2の表示領域は、主となるユーザの急な動きに起因する要素を含まない。
従って、従となるユーザは、第2の表示領域に基づき生成された第2の表示画像を視聴することにより、視覚的な不快感または映像酔いが低減される。一方、第1の表示領域は、補正処理が行われていない第1の位置姿勢変化に基づき生成されるため、主となるユーザは、自らの動きをそのまま第1の表示画像として視聴可能となる。
(第2の実施形態)
図12は、HMDシステムの例を示す。
第2の実施形態は、画像処理装置100が管理サーバ1100内に搭載される場合の例である。
このHMDシステムは、管理サーバ1100と、第1のディスプレイ(ディスプレイ装置)1110と、第2のディスプレイ(ディスプレイ装置)1120と、を備える。第1および第2のディスプレイ1110,1120の定義については、第1の実施形態と同じである。また、複数のヘッドマウントディスプレイの数についても、第1の実施形態と同様に、2つに限られず、3つ以上であっても構わない。但し、複数のヘッドマウントディスプレイのうちの1つは、主となるユーザが装着するディスプレイとして機能し、残りは、従となるユーザが装着するディスプレイとして機能する。
管理サーバ1100は、画像処理装置100と、外部通信インタフェース1101と、CPU1102と、メモリ1103と、を備える。画像処理装置100は、画像データ入力部101と、画像メモリ102と、画像領域制御部103と、を備える。これら画像データ入力部101、画像メモリ102、および画像領域制御部103は、第1の実施形態で既に説明したので、ここでの説明を省略する。
外部通信インタフェース1101は、CPU1102からの指示に基づき、第1および第2のディスプレイ1110,1120の外部通信インタフェース1114,1124と通信を行う。CPU1102は、画像処理装置100、外部インタフェース1101、およびメモリ1103を制御する。メモリ1103は、CPU1102からの指示に基づき、所定の情報を記憶する。所定の情報は、第1および第2の位置姿勢変化、第1および第2の表示画像、後述する第1および第2の主従信号など、の情報を含む。
第1のディスプレイ1110は、位置姿勢変化検出部1111と、画像表示部1112と、主従選択部1113と、外部通信インタフェース1114と、を備える。同様に、第2のディスプレイ1120は、位置姿勢変化検出部1121と、画像表示部1122と、主従選択部1123と、外部通信インタフェース1124と、を備える。
第1および第2のディスプレイ1110,1120において、位置姿勢変化検出部1111,1121および画像表示部1112,1122は、第1の実施形態における位置姿勢変化検出部111,121および画像表示部112,122と同じである。第2の実施形態では、第1および第2のディスプレイ1110,1120は、さらに、主従選択部1113,1123および外部通信インタフェース1114,1124を備える。
主従選択部1113,1123は、自らが主となるユーザに装着される第1のディスプレイ1110となるか、または従となるユーザに装着される第2のディスプレイ1120となるかを選択する。この選択は、例えば、ユーザが各ディスプレイに装着されたスイッチ等の選択手段により実行する。
本例では、第1のディスプレイ1110は、主となるユーザに装着される。このため、主従選択部1113は、第1のディスプレイ1110が主となるユーザに装着されていることを示す第1の主従信号を、外部通信インタフェース1114から管理サーバ1100の外部通信インタフェース1101に送信する。また、第2のディスプレイ1120は、従となるユーザに装着される。このため、主従選択部1123は、第2のディスプレイ1120が従となるユーザに装着されていることを示す第2の主従信号を、外部通信インタフェース1124から管理サーバ1100の外部通信インタフェース1101に送信する。
従って、画像処理装置100は、CPU1102を介して、第1の主従信号を受信することにより、第1のディスプレイ1110が主となるユーザに装着されていることを確認できる。また、画像処理装置100は、CPU1102を介して、第2の主従信号を受信することにより、第2のディスプレイ1120が従となるユーザに装着されていることを確認できる。
このようなシステムによれば、画像処理装置100が第1及び第2のディスプレイ1110,1120とは異なる管理サーバ1100内に搭載されても、主となるユーザの急な動きが従となるユーザのディスプレイに反映されなくすることができる。従って、第2の実施形態においても、従となるユーザに視覚的な不快感または映像酔いを引き起こさせない、という効果が実現できる。
次に、図12のHMDシステムの動作を説明する。
以下の説明では、図13のフローチャートをベースにHMDシステムの動作を説明する。
まず、ステップS1201において、画像データを準備する。すなわち、画像データは、画像データ入力部101に入力され、かつ画像データ入力部101を経由して画像メモリ102に記憶される。次に、ステップS1202において、位置姿勢変化検出部1111は、第1の位置姿勢変化を検出し、かつ主従選択部1113は、第1の主従信号を検出する。
次に、ステップS1203において、外部通信インタフェース1114は、第1の位置姿勢変化および第1の主従信号を管理サーバ1100に送信する。CPU1102は、これら第1の位置姿勢変化および第1の主従信号をメモリ1103内に記憶させる。
次に、ステップS1204において、表示領域制御部103は、第1のディスプレイ1110に表示すべき第1の表示画像を生成するか、または第2のディスプレイ1120に表示すべき第2の表示画像を生成するか、を決定する。
第1のディスプレイ1110に表示すべき第1の表示画像を生成する場合、表示領域制御部103は、第1の主従信号から、第1のディスプレイ1110が主となるユーザに装着されるものであることを確認できるため、ステップS1205へ進む。
第1の表示画像は、以下のステップS1205~S1208により生成され、かつ第1のディスプレイ1110に表示される。
まず、ステップS1205において、画像領域制御部103は、第1の位置姿勢変化に基づき、第1のディスプレイ1110の画像表示部1112に表示すべき第1の表示領域を生成する。
次に、ステップS1206において、画像領域制御部103は、画像データ、およびステップS1205で生成した第1の表示領域に基づき、第1のディスプレイ1110の画像表示部1112に表示すべき第1の表示画像を生成する。
そして、ステップS1207において、画像領域制御部103は、第1の表示画像をCPU1102に供給する。また、CPU1102は、外部通信インタフェース1101を用いて、第1の表示画像を第1のディスプレイ1110に送信する。最後に、ステップST1208において、第1の表示画像は、第1のディスプレイ1110の画像表示部1112に表示される。
一方、第2の表示画像は、以下のステップS1209~S1214により生成され、かつ第2のディスプレイ1120に表示される。
まず、ステップS1209において、位置姿勢変化検出部1121は、第2の位置姿勢変化を検出し、かつ主従選択部1123は、第2の主従信号を検出する。
次に、ステップS1210において、外部通信インタフェース1124は、第2の位置姿勢変化および第2の主従信号を管理サーバ1100に送信する。CPU1102は、これら第2の位置姿勢変化および第2の主従信号をメモリ1103内に記憶させる。
また、ステップS1211において、画像領域制御部103は、第1の位置姿勢変化および第2の位置姿勢変化に基づき、第2のディスプレイ1120の画像表示部1122に表示すべき第2の表示領域を生成する。ここで、第2のディスプレイ1120に表示すべき第2の表示画像を生成する場合、表示領域制御部103は、第2の主従信号から、第2のディスプレイ1120が従となるユーザに装着されるものであることを確認できる。
次に、ステップS1212において、画像領域制御部103は、画像データ、およびステップS1211で生成した第2の表示領域に基づき、第2のディスプレイ1120の画像表示部1122に表示すべき第2の表示画像を生成する。
そして、ステップS1213において、画像領域制御部103は、第2の表示画像をCPU1102に供給する。また、CPU1102は、外部通信インタフェース1101を用いて、第2の表示画像を第2のディスプレイ1120に送信する。最後に、ステップST1214において、第2の表示画像は、第2のディスプレイ1120の画像表示部1122に表示される。
なお、上述のステップS1205において第1の表示領域を生成する方法は、第1の実施形態と同じであるため、ここでの説明を省略する。同様に、上述のステップS1211において第2の表示領域を生成する方法も、第1の実施形態と同じであるため、ここでの説明を省略する。
このように、第2の実施形態によれば、管理サーバ1100は、第1のディスプレイ1110で検出した第1の位置姿勢変化および第1の主従信号に基づき第1の表示画像を生成し、かつ第1の表示画像を第1のディスプレイ1110に送信する。従って、第1のディスプレイ1110は、主となるユーザの動き(第1の位置姿勢変化)がそのまま反映された第1の表示画像を画像表示部1112に表示できる。また、第2のディスプレイ1120は、主となるユーザの急な動きが排除された補正表示領域、および従となるユーザの動き(第2の位置姿勢変化)に基づき生成された第2の表示画像を画像表示部1122に表示できる。
(その他の実施形態)
本発明は、上述の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステム/装置に供給し、そのシステム/装置のコンピュータにおける1つ以上のプロセッサが該プログラムを実行する場合にも適用可能である。また、本発明は、上述の1つ以上の機能を所定の回路(例えば、ASIC)によって実現することも可能である。
(むすび)
以上、説明したように、本発明の例によれば、1つの画像を複数のヘッドマウントディスプレイに表示する場合に、主となるユーザの急な動きが従となるユーザのディスプレイに反映されなくすることができる。これにより、従となるユーザは、視覚的な不快感または映像酔いが低減される。
本発明は、上述の実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
100 画像処理装置
101 画像データ入力部
102 画像メモリ
103 表示領域制御部
110 第1のディスプレイ
111 位置姿勢変化検出部
112 画像表示部
120 第2のディスプレイ
121 位置姿勢変化検出部
122 画像表示部
301 位置姿勢変化補正パラメータ算出部
302 位置姿勢変化補正部
303 表示領域算出部
304 表示画像生成部
1100 サーバ
1101 外部通信インタフェース
1102 CPU
1103 メモリ
1110 第1のディスプレイ
1111 位置姿勢変化検出部
1112 画像表示部
1113 主従選択部
1114 外部通信インタフェース
1120 第2のディスプレイ
1121 位置姿勢変化検出部
1122 画像表示部
1123 主従選択部
1124 外部通信インタフェース

Claims (13)

  1. 画像データを複数の装着型ディスプレイ装置に表示する場合に各ディスプレイ装置の位置姿勢情報に基づき該ディスプレイ装置に表示する表示画像を生成する画像処理装置であって、
    前記複数のディスプレイ装置のうち第1のディスプレイ装置の第1の位置姿勢情報を取得し、前記複数のディスプレイ装置のうち第2のディスプレイ装置の第2の位置姿勢情報を取得する取得手段と、
    前記画像データおよび前記第1の位置姿勢情報に基づき前記第1のディスプレイ装置に表示する第1の表示画像を生成し、前記画像データおよび前記第2の位置姿勢情報に基づき前記第2のディスプレイ装置に表示する第2の表示画像を生成する表示画像生成手段と、を備え、
    前記表示画像生成手段は、前記第1のディスプレイ装置が主、前記第2のディスプレイ装置が従である場合に、前記第1の表示画像に表示される領域の中心が前記第2の表示画像に表示される領域に含まれ、かつ、前記第1の表示画像に表示される領域及び前記第2の表示画像に表示される領域の一方に他方がすべて含まれるように前記第1の表示画像に表示される領域及び前記第2の表示画像に表示される領域を決定し、決定された前記第1の表示画像に表示される領域の大きさ及び前記第2の表示画像に表示される領域の大きさに応じて前記画像データに対する前記第2の表示画像の倍率を決定する
    ことを特徴とする画像処理装置。
  2. 前記第1および第2のディスプレイ装置の各々は、加速度センサおよびジャイロセンサを含む、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示画像生成手段は、前記第2の表示画像として、前記画像データから前記第1の表示画像に表示される領域の一部を前記第2の位置姿勢情報に基づいて切り出し拡大した画像を生成する
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記表示画像生成手段は、前記第2の表示画像として、前記画像データから前記第1の表示画像に表示される領域の全部を含む領域を前記第2の位置姿勢情報に基づいて切り出し縮小した画像を生成する
    ことを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記画像処理装置は、前記複数のディスプレイ装置とは独立に設けられる、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記画像処理装置が前記複数のディスプレイ装置を管理する管理サーバ内に搭載される場合に、前記画像処理装置は、
    前記第1の位置姿勢情報を前記第1のディスプレイ装置から受信し、かつ前記第2の位置姿勢情報を前記第2のディスプレイ装置から受信する受信手段と、
    前記第1の表示画像を前記第1のディスプレイ装置に送信し、かつ前記第2の表示画像を前記第2のディスプレイ装置に送信する送信手段と、を備える、
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記画像処理装置は、前記複数のディスプレイ装置のうちの1つに搭載され、
    前記画像処理装置が搭載されるディスプレイ装置が前記第1のディスプレイ装置でない場合に、前記画像処理装置は、前記第1の表示画像を前記第1のディスプレイ装置に送信する送信手段をさらに備える、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  8. 前記画像処理装置は、前記複数のディスプレイ装置のうちの1つに搭載され、
    前記画像処理装置が搭載されるディスプレイ装置が前記第2のディスプレイ装置でない場合に、前記画像処理装置は、前記第2の表示画像を前記第2のディスプレイ装置に送信する送信手段をさらに備える、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  9. 前記複数のディスプレイ装置の各々は、自らの主従を選択する主従選択手段を備える、
    ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記表示画像生成手段は、前記第2の表示画像の中心を前記第1の表示画像の中心を基準にして設定することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記表示画像生成手段は、前記第2の表示画像の中心を前記第1の表示画像の中心と一致させることを特徴とする請求項10に記載の画像処理装置。
  12. 画像データを複数の装着型ディスプレイ装置に表示する場合に各ディスプレイ装置の位置姿勢情報に基づき該ディスプレイ装置に表示する表示画像を生成する画像処理方法であって、
    前記複数のディスプレイ装置のうち第1のディスプレイ装置の第1の位置姿勢情報を取得し、前記複数のディスプレイ装置のうち第2のディスプレイ装置の第2の位置姿勢情報を取得する取得工程と、
    前記画像データおよび前記第1の位置姿勢情報に基づき前記第1のディスプレイ装置に表示する第1の表示画像を生成し、前記画像データおよび前記第2の位置姿勢情報に基づき前記第2のディスプレイ装置に表示する第2の表示画像を生成する表示画像生成工程と、を備え、
    前記表示画像生成工程では、前記第1のディスプレイ装置が主、前記第2のディスプレイ装置が従である場合に、前記第1の表示画像に表示される領域の中心が前記第2の表示画像に表示される領域に含まれ、かつ、前記第1の表示画像に表示される領域及び前記第2の表示画像に表示される領域の一方に他方がすべて含まれるように前記第1の表示画像に表示される領域及び前記第2の表示画像に表示される領域を決定し、決定された前記第1の表示画像に表示される領域の大きさ及び前記第2の表示画像に表示される領域の大きさに応じて前記画像データに対する前記第2の表示画像の倍率を決定する
    ことを特徴とする画像処理方法。
  13. 請求項1乃至11のいずれか1項に記載の各手段としてコンピュータを機能させるためのプログラム。
JP2022060649A 2018-04-12 2022-03-31 画像処理装置、画像処理方法、およびプログラム Active JP7419424B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022060649A JP7419424B2 (ja) 2018-04-12 2022-03-31 画像処理装置、画像処理方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018077057A JP7057197B2 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、およびプログラム
JP2022060649A JP7419424B2 (ja) 2018-04-12 2022-03-31 画像処理装置、画像処理方法、およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018077057A Division JP7057197B2 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022104972A JP2022104972A (ja) 2022-07-12
JP7419424B2 true JP7419424B2 (ja) 2024-01-22

Family

ID=68340980

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018077057A Active JP7057197B2 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、およびプログラム
JP2022060649A Active JP7419424B2 (ja) 2018-04-12 2022-03-31 画像処理装置、画像処理方法、およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018077057A Active JP7057197B2 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (2) JP7057197B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217719A (ja) 2009-03-18 2010-09-30 Ricoh Co Ltd 装着型表示装置、その制御方法及びプログラム
WO2014115393A1 (ja) 2013-01-24 2014-07-31 ソニー株式会社 画像表示装置及び画像表示方法、並びに画像表示システム
JP2015019679A (ja) 2013-07-16 2015-02-02 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム
JP2015194880A (ja) 2014-03-31 2015-11-05 株式会社日本総合研究所 表示システム及びプログラム
JP2016224810A (ja) 2015-06-02 2016-12-28 キヤノン株式会社 システム、システムの制御方法
WO2018012628A1 (ja) 2016-07-15 2018-01-18 ナーブ株式会社 画像表示装置及び画像表示システム
US20190056848A1 (en) 2017-08-18 2019-02-21 Adobe Systems Incorporated Collaborative Interaction with Virtual Reality Video

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4810295B2 (ja) * 2006-05-02 2011-11-09 キヤノン株式会社 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
CN103202010B (zh) * 2010-11-09 2014-12-03 富士胶片株式会社 增强现实感提供设备
KR102349716B1 (ko) * 2015-06-11 2022-01-11 삼성전자주식회사 영상 공유 방법 및 이를 수행하는 전자 장치
KR20180017736A (ko) * 2016-08-10 2018-02-21 (주) 씽크브릿지 Hmd 및 그 hmd의 제어 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217719A (ja) 2009-03-18 2010-09-30 Ricoh Co Ltd 装着型表示装置、その制御方法及びプログラム
WO2014115393A1 (ja) 2013-01-24 2014-07-31 ソニー株式会社 画像表示装置及び画像表示方法、並びに画像表示システム
JP2015019679A (ja) 2013-07-16 2015-02-02 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム
JP2015194880A (ja) 2014-03-31 2015-11-05 株式会社日本総合研究所 表示システム及びプログラム
JP2016224810A (ja) 2015-06-02 2016-12-28 キヤノン株式会社 システム、システムの制御方法
WO2018012628A1 (ja) 2016-07-15 2018-01-18 ナーブ株式会社 画像表示装置及び画像表示システム
US20190056848A1 (en) 2017-08-18 2019-02-21 Adobe Systems Incorporated Collaborative Interaction with Virtual Reality Video

Also Published As

Publication number Publication date
JP7057197B2 (ja) 2022-04-19
JP2019184883A (ja) 2019-10-24
JP2022104972A (ja) 2022-07-12

Similar Documents

Publication Publication Date Title
JP6092437B1 (ja) 仮想空間画像提供方法、及びそのプログラム
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6002286B1 (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
EP3588447B1 (en) Image processing device, image processing method, and image system
JP6087453B1 (ja) 仮想空間の提供方法、およびプログラム
US20190215505A1 (en) Information processing device, image generation method, and head-mounted display
KR20160147735A (ko) 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램
JP6620063B2 (ja) 画像処理装置および画像処理方法
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
US11609428B2 (en) Information processing apparatus and information processing method
JP2018120519A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2011165068A (ja) 画像生成装置、画像表示システム、画像生成方法、及びプログラム
JP2017138973A (ja) 仮想空間の提供方法、およびプログラム
WO2019142560A1 (ja) 視線を誘導する情報処理装置
JP2017021824A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP6212666B1 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
US20200286287A1 (en) Method for providing virtual reality image and program using same
JP7419424B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2019078833A1 (en) IMAGES OF INCREASED REALITY STABILIZED AND FOLLOWED
JP2018120583A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018163420A (ja) 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6738308B2 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
JP7300569B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2021200270A1 (ja) 情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R151 Written notification of patent or utility model registration

Ref document number: 7419424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151