JP7122372B2 - 画像生成装置、画像生成システム、および画像生成方法 - Google Patents

画像生成装置、画像生成システム、および画像生成方法 Download PDF

Info

Publication number
JP7122372B2
JP7122372B2 JP2020506041A JP2020506041A JP7122372B2 JP 7122372 B2 JP7122372 B2 JP 7122372B2 JP 2020506041 A JP2020506041 A JP 2020506041A JP 2020506041 A JP2020506041 A JP 2020506041A JP 7122372 B2 JP7122372 B2 JP 7122372B2
Authority
JP
Japan
Prior art keywords
camera
posture
image
mounted display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020506041A
Other languages
English (en)
Other versions
JPWO2019176035A1 (ja
Inventor
孝範 南野
武 中川
貴一 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019176035A1 publication Critical patent/JPWO2019176035A1/ja
Application granted granted Critical
Publication of JP7122372B2 publication Critical patent/JP7122372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

この発明は、画像を生成する装置、システムおよび方法に関する。
ヘッドマウントディスプレイ(HMD)が様々な分野で利用されている。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の姿勢と連動して表示画面を更新することで、映像世界への没入感を高められる。
特開2015-95045号公報
HMDから遠隔地に配置したロボットなどの制御装置にコマンドを送信してロボットを操作し、ロボットに搭載されたカメラから見た映像をロボットから受信してHMDの表示パネルに表示することにより、HMDを装着したユーザがロボットを遠隔操作するシステムが利用されている。
このような遠隔操作システムでは、HMDを装着したユーザの姿勢に連動してロボットのカメラの姿勢が制御され、ロボットのカメラの撮影画像をユーザがリアルタイムで見ることができるため、ユーザはロボットが配置された場所にいるような臨場感をもって、遠隔操作を行うことができる。しかしながら、ロボットのモータ制御の遅延と誤差、さらには変動するネットワーク遅延によって、カメラの姿勢がHMDの姿勢と一致せず、HMDの姿勢からずれたカメラ画像をHMDで見ることになり、ユーザは酔ったような感覚に陥ることがある。
本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイに表示されるカメラ画像をヘッドマウントディスプレイの姿勢に適合させることのできる画像生成技術を提供することにある。
上記課題を解決するために、本発明のある態様の画像生成装置は、ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得部と、前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得部と、前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算部と、算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正部とを含む。
本発明の別の態様は、画像生成方法である。この方法は、ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得ステップと、前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得ステップと、前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算ステップと、算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正ステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ヘッドマウントディスプレイに表示されるカメラ画像をヘッドマウントディスプレイの姿勢に適合させることができる。
本実施の形態に係る情報処理システムの構成例を示す図である。 図1のHMDの機能ブロックを示す図である。 図1のロボットの外観構成を示す図である。 図3のロボットにおける筐体の姿勢の例を示す図である。 図3のロボットにおける筐体の姿勢の例を示す図である。 図1のロボットの機能ブロックを示す図である。 図2のリプロジェクション部の機能構成図である。 従来のリプロジェクション処理を説明する図である。 図7のリプロジェクション部によるリプロジェクション処理を説明する図である。 図7のリプロジェクション部によるリプロジェクション処理の手順を説明するフローチャートである。
図1は、本実施の形態に係る情報処理システム1の構成例を示す。情報処理システム1は、ロボット10と、ユーザAが頭部に装着するヘッドマウントディスプレイ装置(HMD)100とを備える。HMD100はアクセスポイント(AP)2を介して、ネットワーク4に接続される。AP2は無線アクセスポイントおよびルータの機能を有し、HMD100は、AP2と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。
ロボット10は、アクチュエータ装置12と、アクチュエータ装置12により姿勢を変更可能に駆動される筐体20とを備える。筐体20には、右カメラ14aおよび左カメラ14bが搭載される。以下、右カメラ14aおよび左カメラ14bを特に区別しない場合には「カメラ14」と呼ぶ。実施例においてカメラ14は、アクチュエータ装置12により駆動される筐体20に設けられる。ロボット10はアクセスポイント(AP)3を介して、ネットワーク4に接続される。ロボット10は、AP3と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。
情報処理システム1において、HMD100とロボット10はネットワーク4を介して通信可能に接続する。なおHMD100とロボット10とが近くに存在する場合、両者はAPを介さずに、直接、無線または有線で通信可能に接続してもよい。情報処理システム1においてロボット10は、ユーザAのいわば分身として動作する。ユーザAが装着しているHMD100の動きはロボット10に伝達され、アクチュエータ装置12が、HMD100の動きに連動して筐体20を動かす。たとえばユーザAが首を前後に振ると、アクチュエータ装置12が筐体20を前後に振るように動かし、ユーザAが首を左右に振ると、アクチュエータ装置12が筐体20を左右に振るように動かす。これによりロボット10の周囲にいる人は、ユーザAがその場にいるかのような感覚をもって、ユーザAとコミュニケーションをとることができる。
AP2の代わりに通信機能をもつゲーム機、パーソナルコンピュータなどの情報処理装置をクライアント装置として設け、HMD100をクライアント装置に無線または有線で接続してもよい。また、AP3の代わりにゲーム機、パーソナルコンピュータなどの情報処理装置をサーバ装置として設け、ロボット10をサーバ装置に無線または有線で接続してもよい。
右カメラ14aおよび左カメラ14bは、筐体20の前面にて横方向に所定の間隔を空けて配置される。右カメラ14aおよび左カメラ14bはステレオカメラを構成し、右カメラ14aは右目用画像を所定の周期で撮影し、左カメラ14bは左目用画像を所定の周期で撮影する。この場合、右カメラ14aおよび左カメラ14bは、HMD100の姿勢変化に連動して姿勢変化が可能なように構成されている。撮影された右目用画像および左目用画像は、リアルタイムでユーザAのHMD100に送信される。HMD100は、受信した右目用画像を右目用表示パネルに表示し、受信した左目用画像を左目用表示パネルに表示する。これによりユーザAは、ロボット10の筐体20が向いている方向の映像をリアルタイムで見ることができる。
このように情報処理システム1では、ロボット10がユーザAにより遠隔操作されてユーザAの顔の動きを再現し、またユーザAがHMD100を通じて、ロボット周辺の画像を見ることができる。
HMD100は、両目を完全に覆う没入型(非透過型)のディスプレイ装置に限られず、透過型のディスプレイ装置であってもよい。また形状としては、図示されるような帽子型であってもよいが、眼鏡型であってもよい。なおHMD100は専用の頭部装着ディスプレイ装置のみならず、表示パネル、マイク、スピーカを有する端末装置と、端末装置の表示パネルをユーザの目の前の位置に固定する筐体とから構成されてもよい。端末装置は、たとえばスマートフォンやポータブルゲーム機など、比較的小型の表示パネルを有するものであってよい。
図2は、HMD100の機能ブロックを示す。制御部120は、画像信号、音声信号、センサ情報などの各種信号およびデータや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の回転角度や傾きなどの姿勢情報を所定の周期で検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。
通信制御部126は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、ロボット10との間で信号やデータを送受信する。通信制御部126は、制御部120から、姿勢センサ124で検出された姿勢情報を受け取り、ロボット10に送信する。また通信制御部126は、ロボット10から、画像データを受け取り、制御部120に供給する。制御部120は、画像データをロボット10から受け取ると、画像データを表示パネル102に供給して表示させる。
リプロジェクション部130は、ロボット10から受信された画像データに対してリプロジェクション処理を施す。リプロジェクション部130の詳細な構成は後述する。
図3は、ロボット10の外観構成を示す。筐体20は、カメラ14を収容する。カメラ14は筐体前面に設けられる。カメラ14は、ハウジング36内に収容されている電源装置から電力線(図示せず)を介して電力を供給されて動作する。
筐体20は保護カバー19を有し、ロボット10を使用しない状態、つまりロボット10の電源がオフにされた状態では、保護カバー19が筐体前面を覆う閉位置に配置されて、カメラ14を保護する。
筐体20はアクチュエータ装置12によって姿勢を変更可能に支持されている。アクチュエータ装置12は、脚部40と、脚部40の上部に支持される半球状のハウジング36と、筐体20を駆動するための駆動機構50とを備える。駆動機構50は、長尺方向に第1貫通長孔32aを形成された第1円弧状アーム32と、長尺方向に第2貫通長孔34aを形成された第2円弧状アーム34と、第1円弧状アーム32と第2円弧状アーム34とを交差させた状態で、第1円弧状アーム32と第2円弧状アーム34とを回動可能に支持する台座30とを備える。台座30の上側は、カバー38により覆われており、カバー38で覆われた空間には、第1円弧状アーム32および第2円弧状アーム34をそれぞれ回転させるモータが配置されている。なお台座30は、ハウジング36に対して回動可能に支持されており、ハウジング36内には、台座30を回転させるモータが配置されている。
第1円弧状アーム32および第2円弧状アーム34は半円状に形成され、同じ回転中心を有するように両端部が台座30に支持される。半円状の第1円弧状アーム32の径は、半円状の第2円弧状アーム34の径よりも僅かに大きく、第1円弧状アーム32は、第2円弧状アーム34の外周側に配置される。第1円弧状アーム32と第2円弧状アーム34は、台座30において直交するように配置されてよい。実施例では、第1円弧状アーム32が台座30に支持された両端部を結ぶラインと、第2円弧状アーム34が台座30に支持された両端部を結ぶラインとが直交する。挿通部材42は、第1貫通長孔32aおよび第2貫通長孔34aに挿通されて、第1貫通長孔32aおよび第2貫通長孔34aの交差位置に配置される。挿通部材42は、第1円弧状アーム32および第2円弧状アーム34の回転により、第1貫通長孔32a内および第2貫通長孔34a内を摺動する。
第1モータは、第1円弧状アーム32を回転させるために設けられ、第2モータは、第2円弧状アーム34を回転させるために設けられる。第1モータおよび第2モータは、台座30上に配置されて、台座30が回転すると、第1モータおよび第2モータも台座30とともに回転する。第3モータは、台座30を回転させるために設けられ、ハウジング36内に配置される。第1モータ、第2モータおよび第3モータは、図示しない電源装置から電力を供給されて回転する。
第1モータが第1円弧状アーム32を回転し、第2モータが第2円弧状アーム34を回転し、第3モータが台座30を回転することで、アクチュエータ装置12は、挿通部材42に取り付けられた筐体20の向きおよび姿勢を変化させられる。
図4および図5は、ロボット10における筐体20の姿勢の例を示す図である。
図4(a)および(b)は、筐体20を左右方向に傾けた例を示す。図5(a)および(b)は、筐体20を前後方向に傾けた例を示す。このようにロボット10の駆動機構50は、筐体20に任意の姿勢をとらせることが可能となる。筐体20の姿勢は、第1モータおよび第2モータの駆動量を調整することで制御され、また筐体20の向きは、第3モータの駆動量を調整することで制御される。
図6は、ロボット10の機能ブロックを示す。ロボット10は、外部からの入力を受け付けて処理する入力系統22と、外部への出力を処理する出力系統24とを備える。入力系統22は、受信部60、センサ情報取得部62、動き検出部64、視線方向決定部66、およびアクチュエータ制御部68を備える。また出力系統24は、画像処理部80および送信部90を備える。
図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
上記したようにHMD100は、姿勢センサ124が検出したセンサ情報をロボット10に送信し、受信部60は、センサ情報を受信する。
センサ情報取得部62は、HMD100の姿勢センサ124が検出した姿勢情報を取得する。動き検出部64は、ユーザAの頭部に装着されたHMD100の姿勢を検出する。視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて筐体20のカメラ14の視線方向を定める。
動き検出部64は、HMD100を装着したユーザの頭部の姿勢を検出するヘッドトラッキング処理を行う。ヘッドトラッキング処理は、ユーザの頭部の姿勢に、HMD100の表示パネル102に表示する視野を連動させるために行われ、実施例のヘッドトラッキング処理では、HMD100の水平基準方向に対する回転角度と、水平面に対する傾き角度とが検出される。水平基準方向は、たとえばHMD100の電源がオンされたときに向いている方向として設定されてよい。
視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて、視線方向を定める。この視線方向は、ユーザAの視線方向であり、ひいては分身であるロボット10のカメラ14の視線方向(光軸方向)である。
カメラ14の視線方向(光軸方向)をユーザAの視線方向に連動させるために、ロボット10の基準姿勢を事前に設定しておく必要がある。図3には、第1円弧状アーム32と第2円弧状アーム34とが台座30に対して90度起立した状態を示しているが、この状態を水平方向として設定し、またロボット10の電源がオンされたときに筐体20の前面が向いている方向を、水平基準方向として設定してよい。なおロボット10は、HMD100と同様に姿勢センサを有して、水平方向を自律的に設定できるようにしてもよい。
HMD100およびロボット10の基準姿勢を設定した状態で、視線方向決定部66は、動き検出部64により検出された回転角度および傾き角度を、そのままカメラ14の視線方向(光軸方向)として決定してよい。動き検出部64が、HMD100の回転角度および傾き角度を検出すると、視線方向決定部66は、HMD100の視線方向を3次元座標のベクトル(x,y,z)として決定し、このときロボット10のカメラ14の視線方向を同じ(x,y,z)と決定してもよく、また何らかの補正を加えた(x’,y’,z’)として決定してもよい。
アクチュエータ制御部68は、視線方向決定部66で決定された視線方向となるようにカメラ14の向きを制御する。具体的にアクチュエータ制御部68は、第1モータ52、第2モータ54、第3モータ56に供給する電力を調整して、HMD100の動きに、筐体20の動きを追従させる。アクチュエータ制御部68によるモータ駆動制御は、リアルタイムに実施され、したがって筐体20の向きは、ユーザAの視線の向きと同じように動かされる。
実施例のアクチュエータ装置12によれば、筐体20は、第1円弧状アーム32および第2円弧状アーム34の回転中心を基準として駆動されるが、この動きは人の首と同じ動きを示す。アクチュエータ装置12は、2本の半円アームを交差させた簡易な構造でユーザAの首の動きを再現する。
次に出力系統24について説明する。
出力系統24において、右カメラ14aおよび左カメラ14bは、アクチュエータ装置12により制御された方向に向けられて、それぞれの画角内を撮影する。右カメラ14aおよび左カメラ14bは、たとえば大人の平均的な両目の間隔となるように離れて配置されてよい。右カメラ14aが撮影した右目用画像データおよび左カメラ14bが撮影した左目用画像データは、送信部90からHMD100に送信されて、それぞれ表示パネル102の右半分および左半分に表示される。これらの画像は、右目および左目から見た視差画像を形成し、表示パネル102を2分割してなる領域にそれぞれ表示させることで、画像を立体視させることができる。なおユーザAは光学レンズを通して表示パネル102を見るために、画像処理部80は、予めレンズによる光学歪みを補正した画像データを生成して、HMD100に供給してもよい。
右カメラ14aおよび左カメラ14bは、所定の周期(たとえば1/60秒)で撮影を行い、送信部90は遅延なく画像データをHMD100に送信する。これによりユーザAはロボット10の周囲の状況をリアルタイムで見ることができ、また顔の向きを変えることで、見たい方向を見ることができる。
カメラ姿勢情報取得部70は、カメラ14の姿勢と向きを含む姿勢情報を取得して送信部90に供給する。送信部90はカメラ14の姿勢情報をHMD100に送信する。カメラ14の姿勢情報は、たとえば、モーションセンサにより検知させる姿勢情報を用いて求めてもよく、あるいは、ロボット10の筐体20の姿勢と向きを変化させるアクチュエータ装置12に搭載されたモータの位置情報から求めてもよい。
図7は、図2のリプロジェクション部130の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
リプロジェクション部130は、HMD姿勢情報取得部132と、カメラ姿勢情報取得部134と、カメラ画像取得部135と、差分計算部136と、警告部137と、画像補正部138とを含む。
HMD姿勢情報取得部132は、姿勢センサ124が検出したHMD100の姿勢と向きを含む姿勢情報(「HMD姿勢情報」と呼ぶ)を取得し、差分計算部136に供給する。カメラ姿勢情報取得部134は、通信制御部126がロボット10から受信した、カメラ14の撮影時のカメラ14の姿勢と向きを含む姿勢情報(「カメラ姿勢情報」と呼ぶ)を取得し、差分計算部136に供給する。カメラ画像取得部135は、通信制御部126がロボット10から受信した左右のカメラ14の撮影画像(「カメラ画像」と呼ぶ)を取得し、画像補正部138に供給する。
ここで、カメラ姿勢情報はカメラ画像にメタデータとして埋め込まれてもよい。カメラ姿勢情報をカメラ画像にメタデータとして埋め込んで伝送する方法として、HDMI(登録商標)2.1規格を利用してもよい。HDMI2.1規格では各フレームデータのVBlank信号に各フレームに適用すべき動的メタデータを挿入して伝送することが検討されている。動的メタデータにカメラ姿勢情報を埋め込めば、ロボット10のカメラ14による撮像時のカメラ姿勢情報をカメラ画像のフレームデータに同期させてHMD100に伝送することができる。ここではHDMI2.1規格のVBlank信号に動的メタデータを挿入する例を説明したが、これは一例であり、各フレームに同期する何らかの同期信号に動的メタデータを挿入して伝送すればよい。カメラ姿勢情報取得部134は、通信制御部126がロボット10から受信したカメラ画像の各フレームの同期信号に挿入されたメタデータからカメラ姿勢情報を抽出する。
差分計算部136は、HMD姿勢情報とカメラ姿勢情報の差分を算出し、画像補正部138に供給する。画像補正部138は、算出された姿勢差分にもとづいてHMD100の最新の姿勢に合うようにカメラ画像を補正することによりリプロジェクション処理を実行する。リプロジェクション処理されたカメラ画像は制御部120に供給され、表示パネル102に表示される。
HMD姿勢情報にもとづいて、ロボット10の可動範囲を越えてHMD100が動かされたと判定される場合や、HMD100の姿勢がロボット10の可動範囲の限界値に対して所定の閾値まで近づいたと判定される場合、差分計算部136は画像補正部138にリプロジェクション処理を指示することを中断または継続し、警告部137に通知する。警告部137は、可動範囲を超えるか可動限界に近づいている旨のメッセージを表示パネル102に表示する。その際、HMD100を装着したユーザが頭部を戻すべき方向を警告メッセージと合わせて表示してもよい。
具体的には、差分計算部136は、HMD100の姿勢がロボット10の可動範囲内にあるかどうかを判定してもよい。たとえば、ロボット10のカメラ14が360度回転させることができず、一定の範囲にしか回転させられない場合、あらかじめその範囲を可動範囲としてHMD100に設定しておき、HMD姿勢情報をカメラ14の可動範囲と比較する。あらかじめ可動範囲を設定せずに、HMD100の姿勢とカメラ14の姿勢が大きく乖離している場合に、可動範囲を超えたと判定してもよい。
また、ロボット10のカメラ14はモータによって姿勢制御されるため、HMD100を装着したユーザのように姿勢を速く変えることはできない。そこで、HMD姿勢情報にもとづいて、HMD100の姿勢変化にカメラ14が追従可能な速度を超えてHMD100が動かされたと判定される場合、差分計算部136は画像補正部138によるリプロジェクション処理を指示することを中断または継続し、警告部137に通知する。警告部137は、HMD100を装着するユーザに頭部をゆっくり動かすように促すメッセージを表示パネル102に表示する。
具体的には、差分計算部136は、HMD姿勢情報とカメラ姿勢情報の差分が閾値を超える場合やHMD姿勢情報の変化速度が閾値を超えた場合、カメラ14の追従可能速度を超えたと判定する。HMD100の姿勢が所定の閾値よりも速く動いた場合に、HMD姿勢情報とカメラ姿勢情報の差分が大きくなることから、カメラ14の追従可能速度を超えたと判定してもよい。
このように、HMD100の動きがカメラ14の可動範囲や追従可能速度の限界に近づいたり、限界を超えた場合に、リプロジェクション処理によってカメラ画像を補正して対処すると、ユーザがカメラ14の可動範囲や追従可能速度を超えても頭部を動かせると勘違いしてしまうことがある。本実施の形態では、このような場合にリプロジェクション処理を中断し、警告部137が警告を表示パネル102に表示することで、HMD100を装着するユーザの頭部の動きを適切に規制することができる。もっともこのような場合でもリプロジェクション処理を中断せず継続しつつ警告を表示することも可能である。
図7のリプロジェクション部130の動作を説明する。比較のため、図8を参照して従来のリプロジェクション処理を説明した後、図9を参照して本実施の形態のリプロジェクション処理を説明する。
図8は、従来のリプロジェクション処理を説明する図である。ここでは、ロボット10の代わりにレンダリング装置300がネットワークを介してHMD100と接続している。
HMD100にヘッドトラッキング機能をもたせて、ユーザの頭部の動きと連動して視点や視線方向を変えて画像をレンダリングしてHMD100に表示する場合、画像のレンダリングから表示までに遅延があるため、レンダリング時に前提としたユーザの頭部の向きと、画像をHMD100に表示した時点でのユーザの頭部の向きとの間でずれが発生し、ユーザは酔ったような感覚に陥ることがある。またネットワークを経由する場合、ネットワークによる遅延変動によってもずれが生じる。そこでレンダリング時に使用したHMD100の姿勢と最新のHMD100の姿勢のずれを補償するための補正処理をレンダリング画像にかけることにより、リプロジェクションを実行し、リプロジェクション後の画像をHMD100に表示することでユーザの酔いを低減させる。
HMD100は、現在の姿勢情報にもとづいて動き予測を行い、予測したHMD姿勢情報202をレンダリング装置300に送信する。レンダリング装置300は予測されたHMD姿勢情報202を用いてHMD100に表示すべき画像をレンダリングする。レンダリング装置300はレンダリング画像310をレンダリングに使用した姿勢情報204とともにHMD100に送信する。
ここでレンダリングに使用した姿勢情報204は、予測したHMD姿勢情報202と同じものであることに留意する。レンダリング装置300がHMD100の動き予測を行い、予測したHMD姿勢情報202を生成してもよい。
差分計算部302は、最新のHMD姿勢情報200とレンダリングに使用した姿勢情報204の差分を算出し、リプロジェクション部304は、算出された姿勢差分にもとづいてレンダリング画像310にリプロジェクション処理を施し、HMD100に表示する。
図9は、図7のリプロジェクション部130によるリプロジェクション処理を説明する図である。
HMD100の現在の姿勢情報にもとづいて動き予測を行い、予測したHMD姿勢情報202をロボット10に送信する。ロボット10は予測されたHMD姿勢情報202を用いてカメラ14の姿勢と向きを制御し、カメラ14で画像を撮影する。ロボット10はカメラ画像210を撮影時のカメラ姿勢情報205とともにHMD100に送信する。
ここで撮影時のカメラ姿勢情報205は、予測したHMD姿勢情報202とは異なることに留意する。ロボット10においてモータがカメラ14の姿勢制御を行うとき、モータの誤差や動作遅延などが発生するため、予測したHMD100の姿勢にカメラ14の姿勢を完全に一致させることはできないからである。
差分計算部136は、最新のHMD姿勢情報200と撮影時のカメラ姿勢情報205の差分を算出する。画像補正部138は、算出された姿勢差分にもとづいて最新のHMD100の姿勢に合うようにカメラ画像210にリプロジェクション処理を施し、HMD100に表示する。ここで、厳密に言えば、最新のHMD姿勢情報200は、現時点のHMD100の姿勢ではなく、リプロジェクション処理してHMD100に表示される画像がユーザの目に入るまでの時間を考慮に入れて予測したHMD100の姿勢を用いてもよい。
本実施の形態のリプロジェクション部130では、予測したHMD姿勢情報202ではなく、撮影時のカメラ姿勢情報205を用いてリプロジェクションを行う点が従来のリプロジェクション処理とは異なる。
撮影時のカメラ姿勢情報205を用いたリプロジェクション処理によって、モータの誤差や動作遅延が原因でカメラ14の姿勢がHMD100の姿勢に合わないことにより生じるずれを解消し、HMD100を装着したユーザの違和感を軽減することができる。
人間の頭部の動きに比べてモータによって制御されるカメラ14の動きは精度が粗いため、カメラ14によって撮影される動画は滑らかな動きにはならない。リプロジェクション処理を施すことでカメラ14によって撮影された動画の動きを滑らかにする効果もある。
また、予測したHMD姿勢情報202をロボット10に送信する際、ネットワークの輻輳状態によってはパケット損失が起き、予測したHMD姿勢情報202がロボット10に送信されずに欠落することもある。そのような場合でも、カメラ画像210とともにHMD100に送信される姿勢情報は撮影時のカメラ姿勢情報205であるため、予測したHMD姿勢情報202が欠落しても、撮影時のカメラ姿勢情報205にもとづいてリプロジェクション処理を確実に行うことができるという利点もある。
なお、撮影時のカメラ姿勢情報205をカメラ画像210とともに送信せずに、SLAM(Simultaneous Localization and Mapping)などの技術を利用し、カメラ画像210から自己位置推定により、撮影時のカメラ14の姿勢を推定するように構成してもよい。
図10は、図7のリプロジェクション部130によるリプロジェクション処理の手順を説明するフローチャートである。
カメラ画像取得部135はロボット10からカメラ画像を受信し、カメラ姿勢情報取得部134はカメラ画像にメタデータとして付加されたカメラ姿勢情報を取得する(S10)。
HMD姿勢情報取得部132は、姿勢センサ124が検出した最新のHMD姿勢情報を取得する(S12)。
差分計算部136は、最新のHMD姿勢情報とカメラ姿勢情報の差分を算出する(S14)。
差分計算部136は、最新のHMD姿勢情報がロボット10のカメラ14の可動範囲内であるかどうかを判定し(S16)、可動範囲内であれば(S16のY)、ステップS20に進む。
最新のHMD姿勢情報がロボット10のカメラ14の可動範囲の限界値に近づいているか、可動範囲を超えている場合(S16のN)、警告部137は、HMD100の動きをロボット10の可動範囲内に収めるようにユーザを誘導する警告メッセージを表示パネル102に表示する(S18)。
差分計算部136は、HMD100の姿勢変化がロボット10のカメラ14の追従可能速度内であるかどうかを判定し(S20)、追従可能速度内であれば(S20のY)、ステップS24に進む。
HMD100の姿勢変化がロボット10の追従可能速度の限界値に近づいているか、追従可能速度を越えている場合(S20のN)、警告部137は、HMD100の姿勢変化をロボット10の追従可能速度内に収めるにユーザを誘導する警告メッセージを表示パネル102に表示する(S22)。
画像補正部138は、最新のHMD姿勢情報とカメラ姿勢情報の差分にもとづいてカメラ画像を補正することにより、リプロジェクション処理を実行する(S24)。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。
上記の実施の形態では、リプロジェクション部130はHMD100に設けられたが、リプロジェクション部130をHMD100が接続されたクライアント装置に設けてもよい。
上記の実施の形態では、HMD100とロボット10がネットワークを経由して接続され、ロボット10を遠隔操作する場合を説明したが、ネットワークを経由しないでHMD100とロボット10が接続されている場合でも同様のリプロジェクション処理を適用することができる。モータの遅延や誤差があるため、ネットワークによる遅延変動がなくても、カメラ14の姿勢とHMD100の姿勢のずれが発生するため、カメラ画像をHMD100の姿勢に合わせて補正するリプロジェクション処理が有効である。また、ロボット10に限らず、カメラ14が搭載された制御装置であれば、どのような制御装置に対しても同様のリプロジェクション処理を適用することができる。
上記の実施の形態では、ロボット10そのものは移動せず、ロボット10に搭載されたカメラ14が姿勢を変える場合を説明したが、ロボット10自体が位置を変える場合であっても同様のリプロジェクション処理を適用することができる。その場合、モーションセンサによるカメラ姿勢だけでなく、サーボ機構の位置情報などからカメラの絶対的な位置情報を取得してカメラ画像とともに送信する。カメラ14が移動する場合は、SLAMのように環境地図上でのカメラ14の位置と姿勢を推定する自己位置推定技術を利用することもできる。なお、サーボ機構の位置情報やSLAMなどの自己位置推定技術は、ロボット10が位置を変えない場合にもカメラ14の姿勢情報を取得するために利用することができる。
1 情報処理システム、 10 ロボット、 12 アクチュエータ装置、 14a 右カメラ、 14b 左カメラ、 20 筐体、 22 入力系統、 24 出力系統、 30 台座、 32 第1円弧状アーム、 34 第2円弧状アーム、 36 ハウジング、 38 カバー、 40 脚部、 42 挿通部材、 50 駆動機構、 52 第1モータ、 54 第2モータ、 56 第3モータ、 60 受信部、 62 センサ情報取得部、 64 動き検出部、 66 視線方向決定部、 68 アクチュエータ制御部、 70 カメラ姿勢情報取得部、 80 画像処理部、 90 送信部、 100 HMD、 102 表示パネル、 120 制御部、 122 記憶部、 124 姿勢センサ、 126 通信制御部、 130 リプロジェクション部、 132 HMD姿勢情報取得部、 134 カメラ姿勢情報取得部、 135 カメラ画像取得部、 136 差分計算部、 137 警告部、 138 画像補正部。
画像を生成する技術に適用できる。

Claims (7)

  1. ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得部と、
    前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得部と、
    前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算部と、
    算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正部と、
    前記ヘッドマウントディスプレイの姿勢情報にもとづいて前記ヘッドマウントディスプレイの姿勢が前記カメラの可動範囲の限界値に対して所定の閾値まで近づいたか、または前記カメラの可動範囲を越えたと判定される場合、前記画像補正部による前記撮影画像の補正を中断し、警告を表示する警告部とを含むことを特徴とする画像生成装置。
  2. ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得部と、
    前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得部と、
    前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算部と、
    算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正部と、
    前記ヘッドマウントディスプレイの姿勢情報にもとづいて前記ヘッドマウントディスプレイの姿勢変化が前記カメラの追従可能速度を越えたと判定される場合、前記画像補正部による前記撮影画像の補正を中断し、警告を表示する警告部とを含むことを特徴とする画像生成装置。
  3. 前記カメラ姿勢情報取得部は、前記カメラの撮影時の姿勢情報を前記撮影画像の各フレームの同期信号に挿入されたメタデータから抽出することを特徴とする請求項1または2に記載の画像生成装置。
  4. ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得ステップと、
    前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得ステップと、
    前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算ステップと、
    算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正ステップと、
    前記ヘッドマウントディスプレイの姿勢情報にもとづいて前記ヘッドマウントディスプレイの姿勢が前記カメラの可動範囲の限界値に対して所定の閾値まで近づいたか、または前記カメラの可動範囲を越えたと判定される場合、前記画像補正ステップによる前記撮影画像の補正を中断し、警告を表示する警告ステップとを含むことを特徴とする画像生成方法。
  5. ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得ステップと、
    前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得ステップと、
    前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算ステップと、
    算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正ステップと、
    前記ヘッドマウントディスプレイの姿勢情報にもとづいて前記ヘッドマウントディスプレイの姿勢変化が前記カメラの追従可能速度を越えたと判定される場合、前記画像補正ステップによる前記撮影画像の補正を中断し、警告を表示する警告ステップとを含むことを特徴とする画像生成方法。
  6. ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得機能と、
    前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得機能と、
    前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算機能と、
    算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正機能と、
    前記ヘッドマウントディスプレイの姿勢情報にもとづいて前記ヘッドマウントディスプレイの姿勢が前記カメラの可動範囲の限界値に対して所定の閾値まで近づいたか、または前記カメラの可動範囲を越えたと判定される場合、前記画像補正機能による前記撮影画像の補正を中断し、警告を表示する警告機能とをコンピュータに実現させることを特徴とするプログラム。
  7. ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得機能と、
    前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得機能と、
    前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算機能と、
    算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正機能と、
    前記ヘッドマウントディスプレイの姿勢情報にもとづいて前記ヘッドマウントディスプレイの姿勢変化が前記カメラの追従可能速度を越えたと判定される場合、前記画像補正機能による前記撮影画像の補正を中断し、警告を表示する警告機能とをコンピュータに実現させることを特徴とするプログラム。
JP2020506041A 2018-03-14 2018-03-14 画像生成装置、画像生成システム、および画像生成方法 Active JP7122372B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/010078 WO2019176035A1 (ja) 2018-03-14 2018-03-14 画像生成装置、画像生成システム、および画像生成方法

Publications (2)

Publication Number Publication Date
JPWO2019176035A1 JPWO2019176035A1 (ja) 2021-03-11
JP7122372B2 true JP7122372B2 (ja) 2022-08-19

Family

ID=67907053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020506041A Active JP7122372B2 (ja) 2018-03-14 2018-03-14 画像生成装置、画像生成システム、および画像生成方法

Country Status (2)

Country Link
JP (1) JP7122372B2 (ja)
WO (1) WO2019176035A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6801136B1 (ja) * 2020-05-14 2020-12-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム
WO2022149497A1 (ja) * 2021-01-05 2022-07-14 ソニーグループ株式会社 情報処理装置、情報処理方法およびコンピュータプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002135641A (ja) 2000-10-27 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> 視点・視線自由移動カメラシステム
WO2016152572A1 (ja) 2015-03-20 2016-09-29 日産自動車株式会社 間接視界提示装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05228855A (ja) * 1992-02-19 1993-09-07 Yaskawa Electric Corp テレイグジスタンス視覚装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002135641A (ja) 2000-10-27 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> 視点・視線自由移動カメラシステム
WO2016152572A1 (ja) 2015-03-20 2016-09-29 日産自動車株式会社 間接視界提示装置

Also Published As

Publication number Publication date
JPWO2019176035A1 (ja) 2021-03-11
WO2019176035A1 (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
EP3379525B1 (en) Image processing device and image generation method
JP6339239B2 (ja) 頭部装着型表示装置、及び映像表示システム
JP6378781B2 (ja) 頭部装着型表示装置、及び映像表示システム
JP6212667B1 (ja) 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
AU2019282933B2 (en) Smart glasses, method and device for tracking eyeball trajectory, and storage medium
EP3287837B1 (en) Head-mountable display system
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
WO2016017245A1 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
CN112313969A (zh) 基于监视到的针对音频内容的响应定制头部相关传递函数
CN112335264B (zh) 用于呈现用于向用户回放的音频信号的装置和方法
US10277814B2 (en) Display control method and system for executing the display control method
US20140361987A1 (en) Eye controls
US11647292B2 (en) Image adjustment system, image adjustment device, and image adjustment
JP7122372B2 (ja) 画像生成装置、画像生成システム、および画像生成方法
JP2021060627A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6257825B1 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
CN112272817A (zh) 用于在沉浸式现实中提供音频内容的方法和装置
JP6588196B2 (ja) 画像生成装置、画像生成方法および較正方法
US20240036327A1 (en) Head-mounted display and image displaying method
CN105828021A (zh) 基于增强现实技术的特种机器人图像采集控制方法及系统
JPWO2017179136A1 (ja) 全天球カメラロボット高度調整システム、全天球カメラロボット高度調整方法及びプログラム
JP7203157B2 (ja) 映像処理装置およびプログラム
JP6867566B2 (ja) 画像表示装置及び画像表示システム
WO2022149497A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
WO2022149496A1 (ja) エンタテインメントシステムおよびロボット

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20200807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7122372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150