JP2020131044A - キャリブレーションシステム、及び、瞳孔間のキャリブレーション方法 - Google Patents

キャリブレーションシステム、及び、瞳孔間のキャリブレーション方法 Download PDF

Info

Publication number
JP2020131044A
JP2020131044A JP2020029917A JP2020029917A JP2020131044A JP 2020131044 A JP2020131044 A JP 2020131044A JP 2020029917 A JP2020029917 A JP 2020029917A JP 2020029917 A JP2020029917 A JP 2020029917A JP 2020131044 A JP2020131044 A JP 2020131044A
Authority
JP
Japan
Prior art keywords
image
calibration
display
eye
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020029917A
Other languages
English (en)
Other versions
JP7373800B2 (ja
Inventor
拓磨 貞森
Takuma Sadamori
拓磨 貞森
裕治 安田
Yuji Yasuda
裕治 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bb Designlab Co Ltd
Bbdesignlab
Original Assignee
Bb Designlab Co Ltd
Bbdesignlab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bb Designlab Co Ltd, Bbdesignlab filed Critical Bb Designlab Co Ltd
Publication of JP2020131044A publication Critical patent/JP2020131044A/ja
Application granted granted Critical
Publication of JP7373800B2 publication Critical patent/JP7373800B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】VR(バーチャル・リアリティ=仮想現実感)装置において、より簡単にキャリブレーションデータを得る事を目的とする。【解決手段】VRゴーグルを装着した使用者が、前記360度VR空間に表示される前記複数のマーカ画像の重なりを視認して、右目用と左目用のマーカ画像が重なったところを見つけて静止状態が検知され、その静止状態が予め定められた条件を満たした場合、その状態で前記ディスプレイに表示された中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータを取得し、その後の再生時のキャビテーションデータとしてセットする。【選択図】図5

Description

本発明は、VR(バーチャル・リアリティ=仮想現実感)に好適な個人差のある瞳間距離のキャリブレーションをおこなうためのキャリブレーションシステム及びキャブテーション方法に関する。このようなキャリブレーションシステム及び方法は、ゲーム、映画、遠隔地からの遠隔操作、胸腔ないし腹腔の内視鏡下手術用機器、電子顕微鏡、自動車や航空機等の運転シミュレータ等のVR(バーチャル・リアリティ)に関連する技術分野に属する。
従来、例えば、国際特許公開第WO2016/069398の請求項4には、瞳孔間距離調整機構が開示されており、使用者の頭からヘッドセットを取り外さずに調整されるようにされ得るとの記載がある。
このような瞳孔間距離のキャリブレーションシステムは、人体への影響もいろいろと議論になってきている。本発明者は、キャリブレーションの以下のような様々な問題の考察を経て、本発明を想到するに至った。
開発背景として、「多くの人にVRの体験をしてもらいたい」と発明者は考えたが、VRには構造上「斜視リスク」が存在し法規制と安全面の考慮から13歳以下の2眼VRヘッドセットの使用は非推奨となっている。ちなみに、VR映像は常に同じ距離のスクリーンにピントを合わせ、左右に違う映像を見せる事で遠近感を表現し脳を騙す技術になる。実際には3Dではないもの(平面の映像)を3D(立体)に見せかける錯覚なわけであるので、目に負担がかり、VRコンテンツを体験する際、「視界が少しぼやける」、「すぐに疲れる」、「見え方が歪んで見えて酔いやすい」という現象が起こる。
人の網膜の中には光を取込む「視細胞」という物があり、そこから視神経を通じて脳に信号を送り「視覚」となり、その中の「立体視細胞」が物を立体視する際に使われる。
そしてこの「立体視細胞」は人間の体が成長するのと同じようにこの視細胞も時間が経つにつれて徐々に発達していくことで物を立体的にとらえられるようになる。つまり幼少期は「目の使い方」を学んでいる段階なので、その発達をVRや3Dの映像で妨げる可能性があり、目に負担のかかるものは避けた方がいいというのが医療関係者の意見となっている。両眼視差による立体視はおおよそ生後2ヶ月から2歳頃までで形成され、身体能力に個人差があるように立体視する力も個人によって強弱があり、この立体視細胞の発達は大体6歳くらいまでに完成すると言われている。
また、13歳以下非推奨の要因として、以下理由があげられる。
・ 幼少期(6歳くらいまで)は斜視リスクが高い
・ 瞳孔間距離の増大によるリスク(調節出来れば問題なし)
・ COPPAによる13歳未満の年齢制限
・ 規制や反対運動を回避するための保守的な年齢設定
WO2016/069398
以上のような、13歳以下非推奨の要因を総括すると、瞳孔間距離が調節出来て「斜視リスク」を回避出来る仕組みが出来れば、7歳以上であれば安全に2眼VRヘッドセット楽しむことが出来るようになると考え、一般的には難しい瞳孔間視差のキャリリブレーションを簡単に行えるアプリケーション開発の着手に至った。そして、その開発にあたって、本発明者が着目したのは、右目用の画面と左目用の画面を表示させて、右目左目の2眼でVR映像を使用者に視認させる、VRヘッドマウントディスプレイを使用したコンテンツを、安全に観賞・体験するには次の点に留意すべきということである。すなわち、「眼球を含めた空間認知の発達に影響を及ぼさないように、HMDは瞳孔間距離を考慮したものにすべき」であり、瞳孔間距離の異なる女性・男性から子供に至るまで、すべての人の目に合わせて、VR視聴時の視差や歪の補正作業(瞳孔間距離補正)を行う必要があると考えた。そして、本発明に関わるソフトウエアプログラム及びシステムは、利用者の個人差による瞳孔間距離に加え、ゴーグルのレンズ間距離、スマートフォンの画面サイズ、ゴーグルレンズとスマートフォン液晶までの距離など複雑な要素の絡まりを、利用者は意識すること無く簡単なステップを行うだけで自動的にキャリブレーションを行う事の出来るアプリケーションツールであることが肝要であると、本発明者は考えた。
また、本発明を開発するにあたり、着目する点として、スマートフォンのようなジャイロ付きのフラットディスプレイ付きのモバイルを用いたVR表示装置(VRゴーグルと同義である)についての現状の調査を行った。
VRゴーグルは、VRヘッドマウントディスプレイとは異なるもので、スマートフォンを用いて簡易にVR映像を視聴できるものとなっている。因みに、VRヘッドマウントディスプレイには次のような機能が備わっている。
・ディスプレイ
・立体視のためのレンズ
・頭の位置を読み取るヘッドトラッキング機能を行うために必要なセンサ(ジャイロセンサ、加速度センサ)
これに対して、VRゴーグルの場合、スマートフォンの機能として、ディスプレイや上記センサを元々搭載している。そのため、スマートフォンはVRを体験するために必要なほとんどの機能を持っているが、ディスプレイに描き出す描画能力は、強力なグラフィック性能を持つPCやゲーム機には劣るが必要十分な処理能力を備えている。しかし、グラフィック性能を補うために、VRゴーグルには、立体視をするためのレンズが搭載されるのが一般的である。
図1に示すのが、前記スマートフォンAをセットしヘッドマウントディプレイとして使用するための、VRゴーグルBの原理図である。図において、A1は、スマートフォンAの液晶画面を示し、B1は、左目用レンズ、B2は右目用レンズである。また、同図において、aは、左右レンズB1とB2の外側間距離、bは、左右レンズB1とB2の内側間距離、cは、レンズB1とB2の直径、dは、レンズB1とB2との半径、eは、左右レンズB1とB2の中心間距離、fは、レンズとスマートフォンAの表示面としての液晶面A1との距離を表しており、現在市場に出回っている各種のスマートフォン用のゴーグルにおいては、前記a〜fがそれぞれ次のような寸法のものが存在する。
α社ゴーグル製品:a=85mm、b=36.5mm、c=24.25、d=12.125mm、e=60.75mm、f=37mmであった。β社ゴーグル製品:a=98mm、b=26mm、c=36mm、d=18mm、e=62mm,f=37mmであった。γ社ゴーグル製品:a=90mm、b=42mm、c=24mm、d=12mm、e=66mm,f=43mmであった。そして、α社製品には年齢制限が記されていないが、β社製品は13歳以下は不可、γ社製品には15歳以上との記載がそれぞれされている。
上述した、α、β、γ社のVR用のゴーグルのレンズ間距離差は、前述したように、α社(Cardboard) 60.75mm、β社(HOMIDO 62mm)、γ社(100円均一ノーブランド66mm)と3個体のみの計測でレンズの中心間距離差が5.25mmもある事が確認出来た。つまり、ゴーグルによって、レンズの中心間距離がまちまちである。
一方、瞳孔間距離差に関しては、日本人頭部データベース2001によると、瞳孔間距離差は最小値55mm、最大値71mm、平均値62.8mmとなっており、瞳孔間距離差は16mm以上ある事が確認されている。(メガネ協会では最小値55mm、最大値78mm、平均値63.5mm ※非公式)このデータからすると、ゴーグルの製造メーカは、瞳孔間距離gに関して、日本人の平均的な寸法を採用しているものの、個人差があるので、左右の目とレンズ中心とディスプレイの左右目用の表示中心が一致するような汎用性のあるゴーグルを設計できないという制約がある。
この要因は、スマートフォンの画面サイズがメーカや製品ごとに異なることも原因となっている。例えば、スマートフォンガイド.netによる2018年1月末までに発売のスマートフォン132機種の画面サイズは最小3.5インチ(アスペクト比5:3)、最大6.3インチ(アスペクト比18.5:9)となっており、2眼表示画面中心距離は最小値38.1mm、最大値72mmとなり、画面中心距離差は33.9mmもある事が確認できた。
そこで、本発明は、上述したようにゴーグル製品の各種寸法差異やスマートフォンの画面サイズの多様化に対しても個人差のある瞳孔間距離gにマッチング可能なキャリブレーションシステム、及び、瞳孔間のキャリブレーション方法を提供することを目的とする。
なお、図2は、NTTドコモ社から提供されるMO−01Jのスマートフォンを用いてVRゴーグルの人体の頭部に装着した場合の各種寸法比較した図であって、左右目用の表示ディスプレイの中央位置間距離h1と、レンズと液晶ディスプレイとの距離f1、VRゴーグルのレンズ間距離e1、目の間の距離g1を示している。図1における符号に「1」が付加された符号は、寸法は異なるが同一の箇所寸法を意味する。
また、図3は、NTTドコモ社から提供されるGalaxy(登録商標)S7のスマートフォンを用いて、VRゴーグルの人体の頭部に装着した場合の各種寸法比較した図であって、左右目用の表示ディスプレイの中央位置間距離h2と、レンズと液晶ディスプレイとの距離f2、VRゴーグルのレンズ間距離e2、目の間の距離g2を示している。図1における符号に「1」が付加された符号は、寸法は異なるが同一の箇所寸法を意味する。
なお、図2と図3とは、前記α社(Cardboard)を用いての原理説明としている。この段ボールで作られたVRゴーグルは、Googleから購入可能である。そして、このVRゴーグルの機能概要は次のようになっていると本発明者は分析した。
mobileVR_IPD="63.5" Ab0
瞳孔間距離(IPD)をミリメートル(mm)で設定
mobileVR_lens_fov="96" Ab0
垂直視野(度)
mobileVR_lens_dist="0.6" Ab0
レンズの歪みの強さ
値:0.0〜5.0,0.0 =歪みなし
この歪みは、1パスレンダリングステップで内部魚眼ビュー歪みを使用してレンダリングされます。
mobileVR_lens_dist2="1|0|0|0" Ab0
これは、第2パス後処理レンズ歪みステップです。
これは、mobileVR_lens_dist設定を使用するだけでは不十分な場合に、追加の歪みを適用するために使用できます。
歪みパラメータがズームを引き起こしているとき、画像品質は、スケーリングおよび補間のためにわずかに縮退する可能性があります。
4つの歪みパラメータがあります:
mobileVR_lens_dist2="k1|k2|k3|k4"
このレンズ歪みモデルでは、(r =レンズ中心からの距離) _
r = r * (1.0 / k1) * (1.0 + k2*r2 + k3*r4 + k4*r6)
この歪みは追加のGPU処理能力を必要とし、フレームレートを低下させる可能性があります。 _デフォルト値 _"1 | 0 | 0 | 0"を使用する場合、このステップはスキップされます。
本発明のキャリブレーションシステムは、
術野に対して左目用の手術映像および右目用の手術映像を撮像する3Dカメラと複数のアームとを有したロボット装置を制御する内視鏡下手術ロボットシステムにネットワークを介して接続されるキャリブレーションシステムであって、
前記キャリブレーションシステムは、
人体のヘッド部に装着されて使用されるVRゴーグルに設けられ、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理装置で、個人差のある瞳孔間距離のキャリブレーションを実行するものであり、
360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する画像表示手段と、
前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する処理を実行するスクロール表示手段と、
前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たした場合に、前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットするキャリブレーションデータの設定手段と、
前記内視鏡下手術ロボットシステムから前記ロボット装置が撮像する前記左目用の映像および右目用の映像をリアルタイムに取得する映像取得手段と、
を有し、
前記画像表示手段は、
前記キャリブレーションデータの設定手段の設定後、その設定されたキャリブレーションデータに基づく前記ディスプレイの位置に、前記左目用の手術映像および右目用の手術映像を調整して表示することを特徴とする。
また、本発明の瞳孔間のキャリブレーション方法は、
人体のヘッド部に装着されて使用されるVRゴーグルに設けられ、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理装置で、個人差のある瞳孔間距離のキャリブレーションを実行する瞳孔間のキャリブレーション方法であって、
360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示することと、
前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示することと、
前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たした場合に、前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットすることと、
術野に対して左目用の手術映像および右目用の手術映像を撮像する3Dカメラと複数のアームとを有したロボット装置を制御する内視鏡下手術ロボットシステムからネットワークを介して、前記内視鏡下手術ロボットシステムから前記ロボット装置が撮像する前記左目用の映像および右目用の映像をリアルタイムに取得することと、および、
あらかじめセットされた前記キャリブレーションデータに基づく前記ディスプレイの位置に、前記左目用の手術映像および右目用の手術映像を調整して表示すること、
を含む。
また、次のような発明も提供できる。
コンピュータ読取可能な非一過性の記憶媒体に記憶された本発明のキャリブレーションプログラムは、人体のヘッド部に装着されて使用されるVRゴーグルに設けられ、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理装置で、個人差のある瞳孔間距離のキャリブレーションを実行する瞳孔間のキャリブレーションプログラムであって、
360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する画像表示部と、
前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する実行するスクロール表示部と、
前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件(注視時間)を満たした場合に、前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットするキャリブレーションデータの設定部と、
前記画像表示部は、
前記キャリブレーションデータの設定部の設定後に、その設定されたキャリブレーションデータに基づいた、再生用の右目用画像と左目用画像を前記ディスプレイに表示ことを特徴とする。
この発明によれば、右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を前記ディスプレイに表示し、前記VRゴーグルを装着した使用者が、前記360度VR空間に表示される前記複数のマーカ画像の重なりを視認して、右目用と左目用のマーカ画像が重なったところを見つけて静止状態が検知され、その静止状態が予め定められた条件を満たした場合、その状態で前記ディスプレイに表示された中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータを取得し、その後の再生時のキャビテーションデータとしてセットする。これによって、個人差がある瞳孔間距離の調整をソフト的に実現することができる。
また、上述したキャリブレーションデータプログラムは、スマートフォンのアプリではなく、Webサーバにおいて実行されることが、細かい調整等やVRゴーグルや新たな端末装置に適用する迅速な対応を観点から好ましい。
すなわち、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理機能を備えた端末装置との双方向通信によって、その端末装置を操作する使用者の瞳孔間距離のキャリブレーションデータを得るために、瞳孔間のキャリブレーションプログラムを実行することで以下の処理を実行するWebサーバのコントローラを提供する。
前記コントローラは、
(a)360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する処理と、
(b)前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する処理と、
(c)前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たしたか否かを判定する処理と、
(f)前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定する処理と、
(g)前記設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットする処理と、
(h)前記キャリブレーションデータを、その後のVR動画再生時における、再生用の右目用画像と左目用画像の調整に用いるために、前記端末装置又は使用者のIDと関連付けて格納する処理。
また、コンピュータ読取可能な非一過性の記憶媒体に記憶された本発明のキャリブレーションプログラムは、
人体のヘッド部に装着されて使用されるVRゴーグルに設けられ、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理装置において個人差のある瞳孔間距離のキャリブレーションを実行する瞳孔間のキャリブレーションプログラムであって、
右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数の画像を、予め格納する記憶部と、
前記記憶部に記憶された複数の画像を、前記ディスプレイに対して、右目用画像と左目用画像として表示する画像表示部と、
前記ディスプレイに対して、右目用画像と左目用画像として表示する一対の前記複数の画像の一つを、キャリブレーション設定用のマーカ画像に設定し、このキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットするキャリブレーションデータの設定部と、
を備え、
前記画像表示部は、
前記キャリブレーションデータの設定部による設定後に、その設定されたキャリブレーションデータに基づいた、再生用の右目用画像と左目用画像を前記ディスプレイに表示することを特徴とする。
また、本発明の瞳孔間のキャリブレーション方法は、
人体のヘッド部に装着されて使用されるVRゴーグルに設けられ、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理装置において個人差のある瞳孔間距離のキャリブレーションを実行する瞳孔間のキャリブレーション方法であって、
右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数の画像を、予め格納する記憶すること、
前記記憶部に記憶された複数の画像を、前記ディスプレイに対して、右目用画像と左目用画像として、前記VRゴーグルを装着したユーザが選択可能に表示すること、
前記ディスプレイに対して、前記ユーザの選択に基づいて、右目用画像と左目用画像として表示する一対の前記複数の画像の一つを、キャリブレーション設定用のマーカ画像に設定し、このキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットすること、及び、
セットされたキャリブレーションデータに基き、再生用の右目用画像と左目用画像を前記ディスプレイに表示すること、
を含む。
この発明によれば、右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を前記ディスプレイに表示し、前記ヘッドトラッキング機能によって頭部の360度回転方向への回転に応じて、使用者が、前記ディスプレイの中央に表示される前記マーカ画像の内、重なりがより明確になるマーカを探すと、その中央に配置された状態のマーカ画像が調整用のキャリブレーションデータとして設定され、その後のVR空間に表示される映像は、このキャリブレーションデータに基づいて、個人差や年齢により変化するような瞳孔間距離の調整をソフト的に実現することができる。
スマートフォンAをセットしヘッドマウントディプレイとして使用するための、従来品VRゴーグルBの視聴のための原理図である。 NTTドコモ社から提供されるMO−01Jのスマートフォンを用いてVRゴーグルの人体の頭部に装着した場合の各種寸法比較した図であって、左右目用の表示ディスプレイの中央位置間距離h1と、レンズと液晶ディスプレイとの距離f1、VRゴーグルのレンズ間距離e1、目の間の距離gを示している。 NTTドコモ社から提供されるGalaxy(登録商標)S7のスマートフォンを用いて、VRゴーグルの人体の頭部に装着した場合の各種寸法比較した図であって、左右目用の表示ディスプレイの中央位置間距離h1と、レンズと液晶ディスプレイとの距離f1、VRゴーグルのレンズ間距離e1、目の間の距離gを示している。 VRゴーグルの周りにキャリブレーション設定用のマーカ画像の複数が配置されている状態を示しているマーカ配置概念図であり、複数のマーカ画像は、左目用のマーカ画像群と、右目用マーカ画像群が使用者の脳内で視差により立体視して認識された状態を示している。 図4に示した概念図を、2次元的に図示した概念図である。 スマートフォンのディスプレイである液晶ディスプレイを示している。 瞳孔間距離のキャリブレーションデータを得るために、WEB上のWEBサーバ1から前述した左右目用の複数のマーカ画像を端末であるスマートフォンAのディスプレイA1に表示するための概念図である。 画面の変遷によって示す処理フローである。 画面の変遷によって示す処理フローである。 VRゴーグルごとに同じスマートフォンをセットした場合でも、左右中心間距離hが異なることを示す図である。 キャリブレーションシステムの機能ブロックを示す説明図である。 変形例における左右ディスプレイにおける表示とユーザが視認する状態を示す図である。 図13は、第2の変形例の概要を示す説明図である。 図14は、第2の変形例におけるキャリブレーションシステムのブロック図である。 VRゴーグルに設定された瞳孔間距離よりも、広い瞳孔間距離を有するユーザがVRゴーグルを使用する例の説明図である。 VRゴーグルに設定された瞳孔間距離よりも、広い瞳孔間距離を有するユーザがVRゴーグルを使用する例の説明図である。 焦点距離テーブルの説明図である。 キャリブレーションシステムが実行する再調整処理のフローチャートである。
(VRゴーグルを用いた瞳孔間距離のキャリブレーション概念)
図4において、マーカ配置概念図41は、VRゴーグルの周りにキャリブレーション設定用のマーカ画像の複数が配置されている状態を示している概念図である。このマーカ配置概念図41の複数のマーカ画像は、左目用のマーカ画像群42と、右目用マーカ画像群43が使用者の脳内で視差により立体視して認識された状態を示している。つまり、マーカ配置概念図41のマーカ画像Mは、左目用のマーカ画像M1と右目用のマーカ画像M2が脳内で合成されて認識される仮想の現実画像である。
図5は、図4を2次元で表示した状態を示したものである。実際にVRゴーグルを装着した人が見る映像をマーカ配置図51に示す。左目用のマーカ画像群52は、VRゴーグルを装着した人が左目のみで見る映像であり、右目用のマーカ画像群53は、VRゴーグルを装着した人が右目のみで見る映像である。左右用のマーカ画像は、瞳孔間距離を割り出して、瞳孔間距離(IPD/Interpupillary distanceの略)のキャリブレーションを行うためのキャリブレーションデータを取得するために、左右のマーカ画像を脳内で重ねて視認する際に、個人差や年齢によって変化するIPDによって見え方、つまり、重なるマーカ画像が異なるように、前記複数のマーカ画像が左右で少しずつズレて視認されるように配置されている。
このズレた左右目用のマーカ画像を視認しつつ、左右のマーカ画像が重なってはっきりと視認できるようになったところで、後述するスマートフォン内に内蔵されたタイマーで予め設定された時間の間、静止状態が継続されたことを検知すると、中央に表示されるマーカ画像(図の場合は、「0」のマーカ画像)が選択されたと検知し、この検知されたマーカ画像に対して予め用意された瞳孔間距離のキャリブレーションデータを、後のVR画像を表示するための基準データとして、VR映像コントローラが設定する。VR映像コントローラは、スマートフォンが内蔵するCPUを含むコントローラがその役割を担う場合も想定されるが、本実施形態のように、スマートフォンが通信回線を通じて接続されるサーバのコントローラがその役割を担うように構成することができる。後者の場合には、スマートフォンのディスプレイに表示される左右目用の複数のマーカ画像は、ブラウザー上で生成されて前記スマートフォンのディスプレイに対して表示される。
左目用のマーカ画像が符号M1、右目用のマーカ画像が符号M2で表されており、両者を上位で符号Mで図に表している。「0」のマーカ画像は、M1とM2が完全に重なった状態であって、ズレが生じていない状態に表示される場合、両者が交互に表示されているような表示形態を採用している。これは、M1とM2が色などで異なった表示形態として表示するようにした場合、使用者が完全に重なっているのか、優先されて表示されるマーカMのみが表示されているのかが判定できないような恐れを解消するために、交互に左右用のマーカ画像M1とM2が表示されるように構成しているのである。
図6に示すのは、スマートフォンのディスプレイであって、幅方向の液晶サイズをH、長さ方向の液晶サイズをV、左目用の複数のマーカ画像を表示する左目用画像をLD、左目用の複数のマーカ画像を表示する左目用画像をRDとし、左右目画像の中心間距離h等の図1と同様の意味を示す符号は図1と同一の符号を用いている。
(システム概念図)
図7に示すのが、本発明の瞳孔間距離のキャリブレーションデータを得るために、WEB上のWEBサーバ1から前述した左右目用の複数のマーカ画像を端末であるスマートフォンAのディスプレイA1に表示するための概念図である。この図において、端末機器としてのスマートフォンAよりQRコード(登録商標)及びURLをリクエストし、インターネット2を経由してWebサーバーへアクセスする。Webサーバ1より、HTML形式で端末機器Aのブラウザに、端末機器Aのメモリに格納されるようなアプリケーションを介さず、IPDキャリブレーションデータを得るための前述した複数のマーカ画像、及び、瞳孔間距離のキャリブレーションデータを得て、そのキャリブレーションデータを用いてキャリブレーションデータを実行した360度VR動画を直接表示する。
前記端末機器としては、スマートフォンに限らず、タブレット端末など、本実施形態に示すように、使用者に対して左右用のキャリブレーションデータを得るための操作に使用可能なものであれば本発明を適用できるのは勿論である。
(処理フロー)
図8及び図9は、画面の変遷によって示す処理フローである。
(A)スマートフォンなどの端末装置Aを用いて、QRコード(登録商標)及びURLを介して、Webサーバー1へアクセス。図8(A)において、ディスプレイA1に表示するのは、スマートフォンのカメラ機能を用いて撮影されたQRコード(登録商標)である。
(B)Webサーバ1よりHTMLで端末機器AのディスプレイA1によって、端末装置AのブラウザにTOP画面(後述する図8(B)の選択画面)を表示。動画及びIPDキャリブレーションの選択ボタンでIPDを選択。この選択画面によって、使用者は、VR動画を視聴するか、キャリブレーションデータを得るための処理を行うかを選択できる。VR動画を視聴する場合には、使用者の識別情報の入力データを得ることで、Webサーバ1内のデータベースに予め格納された当該使用者のキャリブレーションデータに基づいた調整後のVR動画を視聴することが可能となる。
(C)IPDキャリブレーション画面に移動。画面上にウィザードで操作方法を表示。所謂、操作案内画面を表示する。
(D)IPDキャリブレーション画面-1:スマートフォン選択(端末情報を読み込んで機種を自動選択するが、適切な機種が選択されない場合は画面のインチサイズ情報をマニュアルで入力する)
(E)IPDキャリブレーション画面-2:ゴーグル選択(予め用意したゴーグルデータベースより、使用するゴーグルを選択。使用するゴーグルの該当機種が無い場合はカスタム画面にてマニュアル調整を行う)このゴーグルデータベースは、Webサーバのデータベースに備わっている。図10には、同じスマートフォンとしての端末装置AをVRゴーグルにセットしても、ディスプレイA1における左右目用の画像の中心間距離hが異なることを示しているが、このように同じ端末装置Aであっても種類が異る場合にはディスプレイA1の中心間距離hが異なるので、これを事前に設定できる工程を経ることで、より使用者に合致した瞳孔間距離のキャリブレーションデータを実行することができるようになる。
(F)IPDキャリブレーション画面-3:オブジェクト選択画面に移動、360度空間に左目用・右目用に配置されたオブジェクトより、最もズレの少ないオブジェクトを選択。選択方法は様々であろうが、本発明の場合には、前述した従来の汎用品であるVRゴーグルにスマートフォンを設け、このスマートフォンを備えたVRゴーグルを人体の頭部に装着して使用され、スマートフォンAに一般的に備わっているジャイロ機能を有するセンサと、時間の経過を検知することが可能なタイマーとして計時装置を用いて、複数のマーカ画像が鮮明に表示されているマーカ画像を、頭部の回転によって中央に持ってきて、その状態を保持(計時装置である所定の時間の経過を測定することで静止したと判定するとともに、使用者が選択したと判定する)することで、中央位置に配置されているマーカ画像に基づいてキャリブレーションデータを得るようにしている。より詳しくは、以下の(G)で説明する。
(G)IPDキャリブレーション画面-3:左右一致しているオブジェクト(左右のマーカ画像が重なった状態の画像、左右目のマーカ画像が重なった状態であるが、視認されるのはマーカ画像となる)を画面A1中心で一定時間注視(視点操作)することで瞳孔間距離を割り出し、自分に合ったIPDキャリブレーションデータを取得するのである。瞳孔間距離を数値として割り出すようにして、その後のVR動画の再生に用いた方が、キャリブレーションデータとして汎用性があるが、ある特定のVR動画の良好に視聴するだけの場合には、数値としてのキャリブレーションデータを得ることなく、前記画面A1の中央で一定時間注視したマーカ画像(上記オブジェクト)に対するキャリブレーションの処理を完了したVR再生画像を用意しておき、そのVR動画を再生するように構成することもできる。
(H)IPDキャリブレーション画面-4:IPDキャリブレーション完了画面で、左右の画像が一致していることを確認し、問題が無ければ「OK」を選択して動画選択画面へ移動。ズレていた場合は再度キャリブレーション画面に戻り選択操作を行う。
この処理は、本実施形態のように、一定時間注視で操作させ、且つ、その注視対象が多数存在ずるような場合には好適な処理となる。つまり、瞳孔間距離のキャリブレーションデータを細かく設定しようとすると、少しずつズレた前記マーカ画像Mを左右用の画像LDとRDに対して、前記マーカ画像M1・・・M1,M2・・・M2でのM1とM1との距離及びM2とM2間の距離をより短い距離にした画像を用意することになる。この場合、キャリブレーションデータを得ようとする使用者が、画面A1の中央位置に注視した操作を行ったつもりが、他のマーカ画像に注視したと、キャリブレーションデータを得る役割を担う前記コントローラが判定してしまう恐れがある。このような問題を解消するために、(H)の工程は好適となるのである。
(I)IPDキャリブレーション完了後、動画選択画面へ
以上のような処理フローを実行することによって、次のような特徴のある発明を実行できる。
すなわち、人体のヘッド部に装着されて使用されるVRゴーグルに設けられ、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理装置で、個人差のある瞳孔間距離のキャリブレーションを実行する瞳孔間のキャリブレーションプログラムであって、
360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する画像表示部と、
前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する実行するスクロール表示部と、
前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件(注視時間)を満たした場合に、前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットするキャリブレーションデータの設定部と、
前記画像表示部は、
前記キャリブレーションデータの設定部の設定後に、その設定されたキャリブレーションデータに基づいた、再生用の右目用画像と左目用画像を前記ディスプレイに表示ことを特徴とするキャリブレーションプログラム。
ここで図8と図9で前記キャリブレーションプログラムのフローを示しているが、処理ステップとして、前記画像表示部→スクロール表示部→キャリブレーションデータの設定部の処理を経て、前記キャリブレーションデータの設定部によって設定された設定値を、動画再生の場合に使用して動画再生を実行するようにしている。
また、サーバとしては次のような発明を本実施例では含んでいる。すなわち、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備え、且つ、画像処理機能を具備した端末装置との双方向通信によって、その端末装置を操作する使用者の瞳孔間距離のキャリブレーションデータを得るために、瞳孔間のキャリブレーションプログラムを実行するWebサーバのコントローラであって、
前記コントローラは、以下の処理を実行する。
(a)360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する処理と、
(b)前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する処理と、
(c)前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たしたか否かを判定する処理と、
(f)前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定する処理と、
(g)前記設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットする処理と、
(h)前記キャリブレーションデータを、その後のVR動画再生時における、再生用の右目用画像と左目用画像の調整に用いるために、前記端末装置又は使用者のIDと関連付けて格納する処理。
このようなキャリブレーションデータの取得および適用のための、上記のような処理はいずれのタイミングで行われるものであってもよい。例えば、VR動画の再生中であってもよい。尚、VR動画の再生中に、キャリブレーションデータの取得および適用を行うためのトリガーを設けることが好ましい。例えば、VR動画の再生中に呼び出し可能な設定画面に、上記のようなキャリブレーションデータの取得および適用を行うためのトリガを設けてもよい。なお、VR動画とは、単なる動画を示すものに限定されない。例えば、コンシューマゲーム機や運転シュミレータに適用する場合には、ユーザのゲームコントローラ操作に応じて生成される映像等を示す。また、内視鏡下手術用機器、および、電子顕微鏡等に適用する場合には、実際のカメラやCT(Computed Tomography)等から取得した映像を3D用にエンコードした映像等を示す。
このように、本実施形態の端末装置Aを有するキャリブレーションシステム、又は、端末装置A及びWebサーバを有するキャリブレーションシステムは、上記の処理を実行するコントローラを有している。なお、当然に、端末装置Aは、ユーザに仮想的に立体視を体験させるヘッドマウントディスプレイ等の立体表示装置であってもよい。
上記のように得られた瞳孔間距離のキャリブレーションデータに基づいて、上記のようなコントローラは、端末装置AがディスプレイA1に表示する右目用と左目用の画像の位置をリニアに調整する。即ち、上述したような、汎用的に用いることができるように平均的なIPDが設定されたVRゴーグルやヘッドマウントディスプレイ等を、この平均的なIPDとは異なるユーザが用いるような場合、コントローラは、取得したキャリブレーションデータに基づいて、右目用の画像と右目用の画像とを水平方向に移動させる。
具体的に、ヘッドマウントディスプレイには、設定されたIPDに基づく距離を離して設けられた左右の眼用のレンズを有しており、ヘッドマウントディスプレイを装着したユーザは、右眼で右眼用のレンズを介して右眼用の映像を視認し、左眼で左眼用のレンズを介して左眼用の映像を視認する。例えば、距離Dだけ離れた正面位置に仮想的な対象物をユーザに立体視させたい場合には、ディスプレイの右眼用のレンズの光軸と交差する位置に右眼用の対象物を表示し、ディスプレイの左眼用のレンズの光軸と交差する位置に左眼用の対象物を表示する。これにより、ヘッドマウントディスプレイに設定されたIPDを有するユーザにとって、焦点距離および輻輳距離が、実際に距離Dだけ離れた正面位置に配置された対象物を視認した場合と一致するものとなり、ある程度自然な状態で立体視を体験することができる。
一方で、ヘッドマウントディスプレイに設定されたIPDよりも狭いIPDを有するユーザが当該ヘッドマウントディスプレイを装着して上記と同様の映像を見た場合、レンズの光軸よりも左右の眼が内側にずれるため、右眼では右眼用の対象物を中央よりも右側にずれた位置に視認し、左眼では左眼用の対象物を中央よりも左側にずれた位置に視認することになる。即ち、ヘッドマウントディスプレイに設定されたIPDよりも狭いIPDを有するユーザにとって、対象物が距離Dに基づく視差で表示されるにも関わらず、輻輳距離は距離Dよりも遠く認識されることになる。
これに対して、本実施形態の端末装置Aのコントローラは、VR動画の再生等において、取得したキャリブレーションデータに基づく距離だけ、右眼用の画像を左へずらして表示し、左眼用の画像を右へずらして表示する。
また、ヘッドマウントディスプレイに設定されたIPDよりも広いIPDを有するユーザが当該ヘッドマウントディスプレイを装着して上記と同様の映像を見た場合、レンズの光軸よりも左右の眼が外側にずれるため、右眼では右眼用の対象物を中央よりも左側にずれた位置に視認し、左眼では左眼用の対象物を中央よりも右側にずれた位置に視認することになる。即ち、ヘッドマウントディスプレイに設定されたIPDよりも狭いIPDを有するユーザにとって、対象物が距離Dに基づく視差で表示されるにも関わらず、輻輳距離は距離Dよりも近く認識されることになる。
これに対して、本実施形態のコントローラは、VR動画の再生等において、取得したキャリブレーションデータに基づく距離だけ、右眼用の画像を右へずらして表示し、左眼用の画像を左へずらして表示する。
このように、本実施形態のコントローラは、ユーザが、ユーザから見て一致して視認される左目用マーカ画像M1と右目用マーカ画像M2とを選択するのみでキャリブレーションデータを取得し、当該キャリブレーションデータに基づく位置に再生用の右目用画像と左目用画像とをディスプレイに表示するように構成されている。即ち、ヘッドマウントディスプレイ等の立体表示装置やフラットディスプレイ付きのモバイルに取り付けるようなVR表示装置に設定されたIPDと、実際にこれらの装置を装着しているユーザのIPDとが一致していないことを一要因とする酔いや不快感、及び、上述したようなリスクを軽減することが可能となる。
ここで、端末装置A、または、端末装置AおよびWebサーバを有するキャリブレーションシステムの機能ブロックについて説明する。
図11に示すように、キャリブレーションシステム100は、ディスプレイA1、入力装置A2、メモリA3、および、コントローラA4を有している。ディスプレイA1は、上述したようなキャリブレーションに用いる左目用マーカ画像M1および右目用マーカ画像M2や、キャリブレーションを適用する対象となる再生用の右目用画像および左目用画像を表示する。なお、ディスプレイA1は、左右の目それぞれに1つずつ設けられたものであってもよいし、スマートフォンであればスマートフォンが有するディスプレイであってもよい。
入力装置A2は、ユーザが、ユーザから見て一致して視認される左目用マーカ画像M1と右目用マーカ画像M2とを選択することに用いられる。例えば、ユーザが一定時間視認したマーカを選択対象として決定する場合には、モーションセンサ等がこれに対応する。なお、これに限定されず、入力装置A2は、一般的な、マウス、キーボード、ゲーム用コントローラ等であってもよい。
メモリA3は、キャリブレーションに用いる左目用マーカ画像M1および右目用マーカ画像M2や、キャリブレーションを適用する対象となる再生用の右目用画像および左目用画像等のディスプレイA1に表示するデータを記憶する。また、上述したような瞳孔間のキャリブレーションプログラムを記憶する。メモリA3は、コンピュータが読取可能な非一過性の記憶媒体であり、例えば、ヘッドマウントディスプレイに内蔵される記憶部、スマートフォンに内蔵される記憶部、および、サーバに内蔵される記憶部等に対応する。尚、ヘッドマウントディスプレイがゲーム、内視鏡下手術用機器、電子顕微鏡、運転シミュレータ等を実現するためのVR動画を出力するコンピュータに接続されるような場合、メモリA3は当該コンピュータが内蔵する記憶部であってもよい。即ち、キャリブレーションシステム100は、このようなコンピュータを有するものであってもよい。
コントローラA4は、上述したような、瞳孔間距離のキャリブレーションデータを取得するため処理を実行するキャリブレーションデータ取得部A41と、キャリブレーションデータをVR再生用の動画に適用するための処理を実行するキャリブレーションデータ適用部A42と、を有している。キャリブレーションデータ適用部A42は、上述のVR動画を出力するコンピュータにキャリブレーションデータを提供するものであってもよい。この場合、当該コンピュータがVR再生用の動画にキャリブレーションデータを適用する。また、キャリブレーションデータ適用部A42は、このようなコンピュータから出力されるVR動画に実際にキャリブレーションデータを適用してもよい。
以下に、図11に示すキャリブレーションシステム100が記憶するキャリブレーションプログラムが実行する変形例を示す。即ち、以下の変形例に、キャリブレーションシステム100が実現するキャリブレーションデータの取得方法を示す。本変形例のキャリブレーションシステム100のコントローラA4は、上述したような右目用マーカ画像と、左目用マーカ画像と、を1つずつ表示し、それぞれがIPDを変化させるように移動させ、ユーザが選択したタイミングでの右目用マーカ画像と、左目用マーカ画像とが示すIPDに基づくキャリブレーションデータを取得することを特徴とする。
先ず、図12を参照して、第1の変形例について説明する。図12に示すように、第1の変形例において、キャリブレーションシステム100のコントローラA4は、右目用のディスプレイA11に左目用マーカ画像M11を表示し、右目用のディスプレイA12に右目用マーカ画像M12を表示する。なお、ディスプレイA11およびディスプレイA12は、1つの装置であってもよく、左右に分割された領域のそれぞれに対応する。
なお、図12に示すように、本変形例では、左目用マーカ画像M11、及び、右目用マーカ画像M12は、視差を持った立体視可能な木の画像を用いているが、これに限定されない。例えば、上述の実施形態の図4及び図5に示すようなマーカ画像を用いてもよいし、ディスプレイA11およびディスプレイA12の全体に示される景色等の立体視映像であってもよい。なお、いずれの画像を用いる場合でも、例えば、画像の中央等に基準となる座標が設定される。
ディスプレイA11において、領域を左右に分割する設定線L1、L2、および、L3が設定されている。左目用マーカ画像M11は、設定線L1〜L3の間を繰り返し移動して表示される。即ち、左目用マーカ画像M11は、設定線L1から設定線L2を通過して設定線L3に到達した後、設定線L3から設定線L2を通過して設定線L1に到達する移動を繰り返す。なお、設定線L2は、ディスプレイA11における表示中心である。また、ディスプレイA12において、領域を左右に分割する設定線R1、R2、および、R3が設定されている。右目用マーカ画像M12は、設定線R1〜R3の間を繰り返し移動して表示される。即ち、右目用マーカ画像M11は、設定線R1から設定線R2を通過して設定線R3に到達した後、設定線R3から設定線R2を通過して設定線R1に到達する移動を繰り返す。なお、設定線R2は、ディスプレイA12における表示中心である。
ここで、左目用マーカ画像M11および右目用マーカ画像M12は、左目用マーカ画像M11が設定線L1に来た時に、右目用マーカ画像M12が設定線R1に来るように移動する。また、左目用マーカ画像M11および右目用マーカ画像M12は、左目用マーカ画像M11が設定線L3に来た時に、右目用マーカ画像M12が設定線R3に来るように移動する。即ち、左目用マーカ画像M11および右目用マーカ画像M12は、これらが近づく移動を行った後、これらが離れる移動を行う動作を繰り返す。このように、左目用マーカ画像M11および右目用マーカ画像M12は、瞳孔間距離が変化するように、左右方向方向へ移動可能に表示される。即ち、左目用マーカ画像M11および右目用マーカ画像M12は、瞳孔間距離を変化可能に配置される。
従って、左目用マーカ画像M11および右目用マーカ画像M12は、設定線L2および設定線R2よりも設定線L1及び設定線R1側では、VRゴーグル等の立体表示装置に設定されたIPDよりも狭いIPDを有するユーザに適した位置となる。また、左目用マーカ画像M11および右目用マーカ画像M12は、設定線L2および設定線R2よりも設定線L3及び設定線R3側では、VRゴーグル等の立体表示装置に設定されたIPDよりも狭いIPDを有するユーザに適した位置となる。
キャリブレーションシステム100は、左目用マーカ画像M11および右目用マーカ画像M12の移動中に、入力装置A2からの入力を受け付ける。キャリブレーションシステム100は、入力を受け付けたタイミングにおける左目用マーカ画像M11および右目用マーカ画像M12の位置に応じたキャリブレーションデータを算出し、ディスプレイA11およびディスプレイA12における映像再生位置に適用する。即ち、キャリブレーションシステム100は、左目用マーカ画像M11および右目用マーカ画像M12を、VRゴーグル等を装着したユーザが左目用マーカ画像M11および右目用マーカ画像M12が複数取り得る配置から指定可能に表示する。
例えば、VRゴーグル等の立体表示装置に設定されたIPDよりも狭いIPDを有するユーザが左目用マーカ画像M11および右目用マーカ画像M12を確認した場合、当該ユーザは、設定線R1及びR2の間(設定線L1及びL2の間)において、左目用マーカ画像M11および右目用マーカ画像M12が合致する映像を視認することになる(T1)。一方、例えば、設定線R1(L1)においては、当該ユーザのIPDよりも狭いIPDになってしまうため、左目用マーカ画像M11は右にずれた位置に視認され、右目用マーカ画像M12は左にずれた位置に視認されることになる(T2)。また、例えば、設定線R2及びR3の間(設定線L2及びL3の間)においては、当該ユーザのIPDよりも広いIPDになってしまうため、左目用マーカ画像M11は左にずれた位置に視認され、右目用マーカ画像M12は右にずれた位置に視認されることになる(T3)。
図示しないが、VRゴーグル等の立体表示装置に設定されたIPDよりも広いIPDを有するユーザが左目用マーカ画像M11および右目用マーカ画像M12を確認した場合、設定線R2及びR3の間(設定線L2及びL3の間)において、T1に示されるような左目用マーカ画像M11および右目用マーカ画像M12が合致する映像を視認することになる。
ユーザがT1のように視認されるタイミングで入力装置A2への操作を行うことにより、キャリブレーションシステム100は当該ユーザにとって適切なIPDに設定するためのキャリブレーションデータを、操作が行われたタイミングにおける左目用マーカ画像M11および右目用マーカ画像M12の位置から取得する。即ち、キャリブレーションデータは、例えば、左目用マーカ画像M11に設定される座標が、設定線L2からどのくらいずれているかによって、決定される調整値である。
なお、左目用マーカ画像M11および右目用マーカ画像M12を表示する仮想的な距離は限定されないが、再生されるVR動画においてベースとなるようなオブジェクトを配置する距離に設定されることが好ましい。ベースとなるようなオブジェクトとは、VR動画においてユーザが視認する頻度が高いオブジェクト等であってもよい。
また、上記変形例において、左目用マーカ画像M11および右目用マーカ画像M12は、自動で移動するものであったがこれに限定されない。例えば、ユーザが入力装置A2を操作することで左目用マーカ画像M11および右目用マーカ画像M12を同期して移動させ、適切な位置で入力装置A2を操作することで、自身のIPDに適切な左目用マーカ画像M11および右目用マーカ画像M12の位置を決定してもよい。
このように、キャリブレーションシステム100のコントローラA4は、ディスプレイA11およびディスプレイA12のそれぞれにおいて水平方向にIPDを変化させながら繰り返し移動する左目用マーカ画像M11および右目用マーカ画像M12を表示する。ここで、コントローラA4は、左目用マーカ画像M11および右目用マーカ画像M12が合致するタイミングで入力装置A2を操作するように報知してもよい。コントローラA4は、入力装置A2からの信号のタイミングに基づき、当該タイミングでの左目用マーカ画像M11および右目用マーカ画像M12の位置を確定する。コントローラA4は、左目用マーカ画像M11および右目用マーカ画像M12の位置に基づき、キャリブレーションデータを取得する。コントローラA4は、取得したキャリブレーションデータをVR動作の再生に適用する。
なお、本変形例では、キャリブレーションシステム100のコントローラA4は、左目用マーカ画像M11および右目用マーカ画像M12が合致するタイミングで入力装置A2を操作させるものであったがこれに限定されない。即ち、キャリブレーションシステム100のコントローラA4は、左目用マーカ画像M11および右目用マーカ画像M12が離間するタイミングで入力装置A2を操作させるものであってもよい。
これは、例えば、図12のT2に示すような、ずれて表示される左目用マーカ画像M11および右目用マーカ画像M12を、ずれが無いように見ようと自然ではない眼球運動を行ってT1のように調整して視認する可能性があるからである。即ち、左目用マーカ画像M11および右目用マーカ画像M12の移動範囲において、左目用マーカ画像M11および右目用マーカ画像M12が合致する期間が存在する可能性がある。
例えば、キャリブレーションシステム100のコントローラA4は、以下のように、キャリブレーションデータを取得してもよい。具体的に、コントローラA4は、左目用マーカ画像M11を設定線L1からL3へ移動させ、右目用マーカ画像M12を設定線R1からR3へ移動させる表示を繰り返し表示する。この期間、コントローラA4は、ユーザに対して、左目用マーカ画像M11および右目用マーカ画像M12が合致して視認される状態から、左目用マーカ画像M11および右目用マーカ画像M12が離間した状態に視認されたタイミングで入力装置A2を操作するように報知する。即ち、このタイミングでの左目用マーカ画像M11および右目用マーカ画像M12の位置は、このユーザの目の調整範囲の外側限界のIPDを示すものとなる。
また、コントローラA4は、左目用マーカ画像M11を設定線L3からL1へ移動させ、右目用マーカ画像M12を設定線R3からR1へ移動させる表示を繰り返し表示する。この期間、コントローラA4は、ユーザに対して、左目用マーカ画像M11および右目用マーカ画像M12が合致して視認される状態から、左目用マーカ画像M11および右目用マーカ画像M12が離間した状態に視認されたタイミングで入力装置A2を操作するように報知する。即ち、このタイミングでの左目用マーカ画像M11および右目用マーカ画像M12の位置は、このユーザの目の調整範囲の内側限界のIPDを示すものとなる。
コントローラA4は、上述のユーザの目の調整範囲の外側限界と内側限界との中央をこのユーザの適切なIPDを示すものとして、当該中央の左目用マーカ画像M11および右目用マーカ画像M12の位置に基づいて、キャリブレーションデータを取得する。これにより、VR動画をより適切にユーザのIPDに適した位置に表示することができ、オブジェクトが近づいたり遠のいたりした場合の違和感も軽減できる可能性がある。
次に、図13を参照して、第2の変形例について説明する。第2の変形例では、上述した実施形態や第1の変形例等で取得したIPDの適用例を示す。具体的に、本変形例では、複数のキャリブレーションシステム100と、複数のキャリブレーションシステム100が再生する映像を送信する内視鏡下手術ロボットシステム200と、を有している。
内視鏡下手術ロボットシステム200は、医師が胸腔ないし腹腔の内視鏡下手術をロボットアームで行うためのシステムであり、内視鏡下手術ロボット装置210と、操作端末220と、これら内視鏡下手術ロボット装置210および操作端末220が接続される制御装置230とを有している。内視鏡下手術ロボットシステム200は、3Dリアルタイムエンコーダー201と接続されている。3Dリアルタイムエンコーダー201は、LAN等のネットワークを介して複数の3Dリアルタイムデコーダー101に接続されている。3Dリアルタイムデコーダー101のそれぞれには、キャリブレーションシステム100が接続されている。
内視鏡下手術ロボット装置210は、主な構成として、複数のアームと、左目用の映像および右目用の映像を撮像する3Dカメラとを有している。内視鏡下手術ロボット装置210は、制御装置230を介して操作端末220から送信される制御信号に基づき、複数のアームを制御し、内視鏡下手術を進行させる。また、内視鏡下手術ロボット装置210は、制御装置230へ3Dカメラが撮影した映像を送信すると共に、操作端末220から制御装置230を介して受信した制御信号に基づいて複数のアームを制御する。
操作端末220は、制御装置230を介して内視鏡下手術ロボット装置210から送信される映像(患者の術野)を立体画像として映し出すディスプレイ、および、内視鏡下手術ロボット装置210の複数のアームや3Dカメラを操作するための入力装置等を有している。入力装置が受け付けた操作は、操作信号として、制御信号を介して、内視鏡下手術ロボット装置210へ送信される。制御装置230は、上述のように、内視鏡下手術ロボット装置210が撮像する映像を操作端末220へ送信する機能を有するとともに、操作端末220からの制御信号を内視鏡下手術ロボット装置210を送信する機能を有する。
また、図13に示すように、本実施形態において、制御装置230は、内視鏡下手術ロボット装置210が撮像した左目用の映像および右目用の映像を結合して、サイドバイサイドやトップアンドボトムの形式の3Dビデオに変換する機能を有している。制御装置230によって変換された3Dビデオは、3Dリアルタイムエンコーダー201によってエンコードされて各3Dリアルタイムデコーダー101へ送信される。これにより、内視鏡下手術ロボットシステム200で撮像される術野の映像が、それぞれのキャリブレーションシステム100においてリアルタイムで確認可能となる。
各キャリブレーションシステム100では、予めディスプレイA1(図11参照)が設けられたヘッドマウントディスプレイ等を用いるユーザのIPDに応じたキャリブレーションデータがメモリA3(図11参照)に格納されている。即ち、ユーザがキャリブレーションシステム100を用いて内視鏡下手術ロボットシステム200から送信される3Dビデオを試聴する際、キャリブレーションシステム100はメモリA3のキャリブレーションデータを適用して、左右目用の映像を適切な位置に調整する。
なお、ユーザ毎のキャリブレーションデータは他のサーバ等に格納されるものであってもよい。即ち、キャリブレーションシステム100は、ユーザのログインに応じてユーザに対応するキャリブレーションデータをサーバから取得し、映像に適用するものであってもよい。
このように、上述のような複数のキャリブレーションシステム100と、内視鏡下手術ロボットシステム200とを有するシステムを構成することにより、内視鏡下手術を執刀している医師の手技が映し出される術野の3D映像が、他の複数のユーザと共有されるものとなる。そして、手術は長時間に及ぶことが想定されるが、キャリブレーションシステム100により目の負担を軽減できる。従来、平面的なモニター画面でしか確認されなかった映像が、遠隔であったとしてもネットワークを介して臨場感のある3D映像として確認できるため、これからロボット手術を学ぼうとする医師、研修医、学生のトレーニングをより効果的かつ効率的なものとすることができる。
次に、第3の変形例について説明する。
本変形例は、VR(バーチャル・リアリティ=仮想現実感)に好適な個人差のある瞳間距離のキャリブレーションの再調整に関連する技術分野に属する。
従来、例えば、国際特許公開第WO2016/069398の請求項4には、瞳孔間距離調整機構が開示されており、使用者の頭からヘッドセットを取り外さずに調整されるようにされ得るとの記載がある。
上記従来ではハードウェア的にユーザの瞳孔間距離に応じた調整を行う構成であるが、本発明者はソフトウェア的にユーザの瞳孔間距離に応じた調整を行う場合についての様々な問題の考察を経て本変形例を想到するに至った。
そこで、本変形例では、ユーザが試聴する3D映像において仮想的な焦点距離が変化する場合、変化前の焦点距離においてソフトウェア的にユーザの瞳孔間距離に適した調整が行われていたとしても、変化後の焦点距離においてはユーザの瞳孔間距離に適した調整となっていない問題を解消するキャリブレーションシステムおよびキャリブレーション方法を提供することを目的とする構成について説明する。
即ち、本変形例のキャリブレーションシステムは、
3Dコンテンツをユーザに提示するための右目用画像および左目用画像を表示するディスプレイを有した、人体のヘッド部に装着されて使用されるVRゴーグルと、
コントローラと、
を有し、
前記コントローラは、
VRゴーグルを使用するユーザの特定の焦点距離に対応したキャリブレーションデータを取得し、
前記キャリブレーションデータに基づき、前記右目用画像および左目用画像の表示位置を前記ユーザにとって適切な特定の輻輳角となるように変更して前記3Dコンテンツをユーザに提示し、
前記3Dコンテンツにおけるシーンごとの焦点距離を取得し、
前記シーンごとの焦点距離が前記特定の焦点距離と異なる場合、前記シーンごとの焦点距離および前記キャリブレーションデータに基づき、前記右目用画像および左目用画像の表示位置を前記シーンごとに前記ユーザにとって適切な輻輳角となるように変更して前記3Dコンテンツをユーザに提示する。
また、本変形例のキャリブレーション方法は、
3Dコンテンツをユーザに提示するための右目用画像および左目用画像を表示するディスプレイを有した、人体のヘッド部に装着されて使用されるVRゴーグルにおいて、
VRゴーグルを使用するユーザのIPDおよび特定の焦点距離に対応したキャリブレーションデータを取得すること、
前記キャリブレーションデータに基づき、前記右目用画像および左目用画像の表示位置を前記ユーザにとって適切な特定の輻輳角となるように変更して前記3Dコンテンツをユーザに提示すること、
前記3Dコンテンツにおけるシーンごとの焦点距離を取得すること、
前記シーンごとの焦点距離が前記特定の焦点距離と異なる場合、前記シーンごとの焦点距離および前記キャリブレーションデータに基づき、前記右目用画像および左目用画像の表示位置を前記シーンごとに前記ユーザにとって適切な輻輳角となるように変更して前記3Dコンテンツをユーザに提示すること、
を含む。
一般的に、3Dコンテンツにおいてあるオブジェクトの焦点距離が変化する場合、右目用画像および左目用画像上において、このオブジェクトは内斜視方向または外斜視方向へ移動する。この移動距離は、焦点距離の変化とVRゴーグルにとって適切なIPDとに依存するため、VRゴーグルにとって適切なIPDを有しないユーザにとっては適切でない。上記構成によれば、焦点距離の変化に応じて、使用するユーザのキャリブレーションデータに基づいた表示位置となるように前記右目用画像および左目用画像を表示する。これにより、VRゴーグルに適切なIPDが、VRゴーグルを使用するユーザと異なる場合であっても、シーンごとに適切な輻輳角となるように、右目用画像および左目用画像の表示位置が変化されて3Dコンテンツが提示される。
以下、本変形例の具体的な構成について説明する。
図14に示すように、キャリブレーションシステム1100は、ディスプレイA1001、入力装置A1002、メモリA1003、および、コントローラA1004を有している。ディスプレイA1001は、上述したようなキャリブレーションに用いる左目用マーカ画像M1および右目用マーカ画像M2や、キャリブレーションを適用する対象となる再生用の右目用画像および左目用画像を表示する。なお、ディスプレイA1001は、左右の目それぞれに1つずつ設けられたものであってもよいし、スマートフォンであればスマートフォンが有するディスプレイであってもよい。
入力装置A1002は、ユーザが、ユーザから見て一致して視認される左目用マーカ画像M1と右目用マーカ画像M2とを選択することに用いられる。例えば、ユーザが一定時間視認したマーカを選択対象として決定する場合には、モーションセンサ等がこれに対応する。なお、これに限定されず、入力装置A1002は、一般的な、マウス、キーボード、ゲーム用コントローラ等であってもよい。
メモリA1003は、キャリブレーションに用いる左目用マーカ画像M1および右目用マーカ画像M2や、キャリブレーションを適用する対象となる再生用の右目用画像および左目用画像等のディスプレイA1001に表示する3Dコンテンツのデータを記憶する。また、メモリA1003は、各種プログラムを記憶する。メモリA1003は、コンピュータが読取可能な非一過性の記憶媒体であり、例えば、ヘッドマウントディスプレイに内蔵される記憶部、スマートフォンに内蔵される記憶部、および、サーバに内蔵される記憶部等に対応する。尚、ヘッドマウントディスプレイがゲーム、内視鏡下手術用機器、電子顕微鏡、運転シミュレータ等を実現するためのVR動画を出力するコンピュータに接続されるような場合、メモリA1003は当該コンピュータが内蔵する記憶部であってもよい。即ち、キャリブレーションシステム1100は、このようなコンピュータを有するものであってもよい。
また、メモリA1003は、3Dコンテンツのシーンに対応付けて、当該シーンにおける焦点距離が記憶される。ここで、焦点距離は、予め3Dコンテンツのシーンごとに対応付けた値が記憶されるものであってもよいし、後述の焦点距離取得部A1043が3Dコンテンツの内容を解析して取得するものであってもよい。
コントローラA1004は、上述したような、瞳孔間距離のキャリブレーションデータを取得するため処理を実行するキャリブレーションデータ取得部A1041と、キャリブレーションデータをVR再生用の動画に適用するための処理を実行するキャリブレーションデータ適用部A1042と、3Dコンテンツのシーンごとの焦点距離を取得する焦点距離取得部A1043と、取得した焦点距離に基づき適切な輻輳角となるように右目用画像および左目用画像の表示位置を設定する焦点距離適用部A1044と、を有している。
キャリブレーションデータ適用部A42は、上述のVR動画を出力するコンピュータにキャリブレーションデータを提供するものであってもよい。この場合、当該コンピュータがVR再生用の動画にキャリブレーションデータを適用する。また、キャリブレーションデータ適用部A42は、このようなコンピュータから出力されるVR動画に実際にキャリブレーションデータを適用してもよい。焦点距離取得部A1043は、上述のように、3Dコンテンツのシーンに応じて、メモリA1003に記憶された焦点距離を取得するものであってもよいし、3Dコンテンツから取得するものであってもよい。焦点距離適用部A1044は、キャリブレーションデータ取得部A1041が取得したキャリブレーションデータおよび焦点距離取得部A1043が取得した焦点距離に基づいて右目用画像および左目用画像の表示位置を設定する。
次に、VRゴーグルに設定されたIPDと、異なるIPDを有するユーザがVRゴーグルを用いる際に、焦点距離の変化が生じた場合の問題点について説明する。なお、VRゴーグルに設定されたIPDよりも、広いIPDを有するユーザがVRゴーグルを使用する例について説明する。
図15Aに示すように、上記の実施形態に記載しているように、3Dコンテンツが提供される前に、予め特定の焦点距離F1に仮想的に配置された左目用マーカ画像M1および右目用マーカ画像M2を用いてキャリブレーションデータが取得され、左目用画像M1001および右目用画像M1002の表示位置が、ユーザにとって適切な特定の輻輳角となるように変更されて3Dコンテンツが表示される。
具体的に、VRゴーグル設定された瞳孔間距離D1を有するユーザと比較し、瞳孔間距離D1よりも広い瞳孔間距離D2を有するユーザに表示する左目用マーカ画像M1001および右目用マーカ画像M1002は、外斜視方向へシフトされた状態に表示されることになる。
そして、図15Bに示すように、例えば、焦点距離F1に仮想的に配置されたオブジェクトM20が焦点距離F2の位置に変更された場合、ディスプレイA1上の左目用画像M1001および右目用画像M1002におけるのオブジェクトM20は、キャリブレーションデータの適用の有無に関わらず、外斜視方向へ同じ距離移動することになる。移動したオブジェクトM20の位置は、VRゴーグル設定された瞳孔間距離D1を有するユーザにとっては適切であるが、VRゴーグル設定された瞳孔間距離D1よりも広い瞳孔間距離D2を有するユーザにとっては適正な位置とはならないため、ユーザの目に負担がかかることになる。
本変形例では、輻輳距離が固定されるようなVRゴーグルで生じる上記のような問題を解決するため、焦点距離に変更が生じた場合にはユーザのIPDに応じた適正な位置となるように、ディスプレイA1上における左目用画像M1001および右目用画像M1002の位置を外斜視方向または内斜視方向へ移動するように構成されている。例えば、上記の例では、左目用画像M1001および右目用画像M1002を外斜視方向へシフトさせることになる。
次に、キャリブレーションシステム1100の動作について説明する。本変形例では、図16に示すように、メモリA1003に、3Dコンテンツのシーンごとの焦点距離が記憶されている例を説明する。
具体的に、図16に示すように、メモリA1003には、焦点距離テーブルが記憶される。焦点距離テーブルは、シーン欄と、焦点距離欄とを有している。シーン欄には、3Dコンテンツにおける各シーンが格納される。焦点距離欄には、シーンごとの焦点距離が格納される。なお、焦点距離は、ユーザに主として見せたいオブジェクトが仮想的に配置される焦点距離である。尚、焦点距離は、仮想的な距離に限定されず、焦点距離に基づいて算出される情報であってもよい。
次に、図17を参照して、キャリブレーションシステム1100により実行される3Dコンテンツ実行中の再調整処理のプログラムについて説明する。
図17に示すように、先ず、キャリブレーションシステム1100は、キャリブレーションデータを適用して3Dコンテンツを実行する(S1)。なお、キャリブレーションデータの取得フローについては省略している。そして、キャリブレーションシステム1100は、3Dコンテンツにおいてシーンの変更があったか否かを判定する(S2)。シーンの変更があった場合(S2:YES)、キャリブレーションシステム1100は、焦点距離テーブル(図16参照)を参照してシーンに応じた焦点距離を取得する(S3)。そして、キャリブレーションシステム1100は、キャリブレーションデータおよび取得した焦点距離に応じて、ステレオマッチングの手法等を用いて画像のシフト距離を算出する(S4)。そして、算出したシフト距離だけ左目用画像M1001および右目用画像M1002を外斜視方向または内斜視方向へシフトさせる。
ステップS2において、シーンの変更が無い場合(S2:NO)、または、ステップS5が実行された後、キャリブレーションシステム1100は、ユーザから再度に調整を行う処理の要求である調整要求があったか否かを判定する(S6)。調整要求がない場合(S6:NO)、キャリブレーションシステム1100は、ステップS2へ処理を移行する。調整要求があった場合(S6:YES)、キャリブレーションシステム1100は、3Dコンテンツを一時停止して調整用マーカ画像(例えば、図4および図5の複数の左目用マーカ画像M1および右目用マーカ画像M2)を表示する(S7)。そして、キャリブレーションシステム1100は、ユーザからいずれかのマーカ画像が選択されたか否かを判定する(S8)。マーカ画像が選択されない場合(S8:NO)、キャリブレーションシステム1100は、繰り返しステップS8の処理を実行する。
一方、マーカ画像が選択された場合(S8:YES)、キャリブレーションシステム1100は、選択されたマーカ画像に基づいてキャリブレーションデータを更新する(S9)。そして、キャリブレーションシステム1100は、キャリブレーションデータを適用して3Dコンテンツを再開する(S10)。即ち、焦点距離の変更に基づいて左目用画像M1001および右目用画像M1002がシフトされている場合には、左目用画像M1001および右目用画像M1002の位置を、キャリブレーションデータを適用した位置に変更すると共に、焦点距離の変更に基づくシフトを適用する。
その後、キャリブレーションシステム1100は、3Dコンテンツが終了されたか否かを判定する(S11)。3Dコンテンツが終了されない場合(S11:NO)、キャリブレーションシステム1100は、処理をステップS2へ移行する。また、3Dコンテンツが終了された場合(S11:YES)、キャリブレーションシステム1100は、本処理を終了する。
以上、本発明の実施形態を説明したが、具体例を例示したに過ぎず、特に本発明を限定するものではなく、各部等の具体的構成は、適宜設計変更可能である。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
また、上述した詳細な説明では、本発明をより容易に理解できるように、特徴的部分を中心に説明した。本発明は、上述した詳細な説明に記載する実施形態に限定されず、その他の実施形態にも適用することができ、その適用範囲は多様である。また、本明細書において用いた用語及び語法は、本発明を的確に説明するために用いたものであり、本発明の解釈を制限するために用いたものではない。また、当業者であれば、本明細書に記載された発明の概念から、本発明の概念に含まれる他の構成、システム、方法等を推考することは容易であると思われる。従って、請求の範囲の記載は、本発明の技術的思想の範囲を逸脱しない範囲で均等な構成を含むものであるとみなされなければならない。また、要約書の目的は、特許庁及び一般的公共機関や、特許、法律用語又は専門用語に精通していない本技術分野に属する技術者等が本出願の技術的な内容及びその本質を簡易な調査で速やかに判定し得るようにするものである。従って、要約書は、請求の範囲の記載により評価されるべき発明の範囲を限定することを意図したものではない。また、本発明の目的及び本発明の特有の効果を十分に理解するために、すでに開示されている文献等を充分に参酌して解釈されることが望まれる。
上述した詳細な説明は、コンピュータで実行される処理を含むものである。以上での説明及び表現は、当業者が最も効率的に理解することを目的として記載している。本明細書では、1の結果を導き出すために用いられる各処理は、自己矛盾がない処理として理解されるべきである。また、各処理では、電気的又は磁気的な信号の送受信、記録等が行われる。各処理における処理では、このような信号を、ビット、値、シンボル、文字、用語、数字等で表現しているが、これらは単に説明上便利であるために用いたものであることに留意する必要がある。また、各処理における処理は、人間の行動と共通する表現で記載される場合があるが、本明細書で説明する処理は、原則的に各種の装置により実行されるものである。また、各処理を行うために要求されるその他の構成は、以上の説明から自明になるものである。
本発明は、個人差や年齢による変化が生じ得る瞳孔間距離のキャリブレーションをソフト的に実行し、その個人に合った左右目用の画像をディスプレイ上に表示することで、視差によって立体映像を人に視認させる際に生じるような、様々な弊害を低減することが可能となる。特に、スマートフォンのディスプレイやジャイロ機能を用いて簡易にVRを楽しむためのVRゴーグル用のキャリブレーションデータ取得プログラムとして好適なものとなり、産業上で利用できるものである。

Claims (2)

  1. 術野に対して左目用の手術映像および右目用の手術映像を撮像する3Dカメラと複数のアームとを有したロボット装置を制御する内視鏡下手術ロボットシステムにネットワークを介して接続されるキャリブレーションシステムであって、
    前記キャリブレーションシステムは、
    人体のヘッド部に装着されて使用されるVRゴーグルに設けられ、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理装置で、個人差のある瞳孔間距離のキャリブレーションを実行するものであり、
    360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する画像表示手段と、
    前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する処理を実行するスクロール表示手段と、
    前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たした場合に、前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットするキャリブレーションデータの設定手段と、
    前記内視鏡下手術ロボットシステムから前記ロボット装置が撮像する前記左目用の映像および右目用の映像をリアルタイムに取得する映像取得手段と、
    を有し、
    前記画像表示手段は、
    前記キャリブレーションデータの設定手段の設定後、その設定されたキャリブレーションデータに基づく前記ディスプレイの位置に、前記左目用の手術映像および右目用の手術映像を調整して表示することを特徴とするキャリブレーションシステム。
  2. 人体のヘッド部に装着されて使用されるVRゴーグルに設けられ、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理装置で、個人差のある瞳孔間距離のキャリブレーションを実行する瞳孔間のキャリブレーション方法であって、
    360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示することと、
    前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示することと、
    前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たした場合に、前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットすることと、
    術野に対して左目用の手術映像および右目用の手術映像を撮像する3Dカメラと複数のアームとを有したロボット装置を制御する内視鏡下手術ロボットシステムからネットワークを介して、前記内視鏡下手術ロボットシステムから前記ロボット装置が撮像する前記左目用の映像および右目用の映像をリアルタイムに取得することと、および、
    あらかじめセットされた前記キャリブレーションデータに基づく前記ディスプレイの位置に、前記左目用の手術映像および右目用の手術映像を調整して表示すること、
    を含む瞳孔間のキャリブレーション方法。
JP2020029917A 2019-02-25 2020-02-25 キャリブレーションシステム、及び、瞳孔間のキャリブレーション方法 Active JP7373800B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962809818P 2019-02-25 2019-02-25
US62/809,818 2019-02-25
US16/679,607 US20200275087A1 (en) 2019-02-25 2019-11-11 Computer-readable non-transitory storage medium, web server, and calibration method for interpupillary distance
US16/679,607 2019-11-11

Publications (2)

Publication Number Publication Date
JP2020131044A true JP2020131044A (ja) 2020-08-31
JP7373800B2 JP7373800B2 (ja) 2023-11-06

Family

ID=72140340

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020029917A Active JP7373800B2 (ja) 2019-02-25 2020-02-25 キャリブレーションシステム、及び、瞳孔間のキャリブレーション方法
JP2020029914A Active JP7471572B2 (ja) 2019-02-25 2020-02-25 キャリブレーションシステム、及び、キャリブレーション方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020029914A Active JP7471572B2 (ja) 2019-02-25 2020-02-25 キャリブレーションシステム、及び、キャリブレーション方法

Country Status (2)

Country Link
US (2) US20200275087A1 (ja)
JP (2) JP7373800B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE212021000195U1 (de) 2020-07-31 2022-01-19 Rohm Co., Ltd. SIC-Halbleiterbauelement

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3168826A1 (en) 2020-01-22 2021-07-29 Photonic Medical Inc. Open view, multi-modal, calibrated digital loupe with depth sensing
US11933988B2 (en) * 2020-05-07 2024-03-19 Sony Group Corporation Information processing apparatus, information processing method, head mounted display housing, and head mounted display system
TWI790640B (zh) * 2021-06-11 2023-01-21 宏碁股份有限公司 擴增實境顯示裝置與方法
CN115278203A (zh) * 2022-07-20 2022-11-01 广州视享科技有限公司 虚拟现实设备的校准方法、校准装置以及校准机器人

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09271043A (ja) * 1996-03-29 1997-10-14 Olympus Optical Co Ltd 立体映像ディスプレイ装置
JP2000078611A (ja) 1998-08-31 2000-03-14 Toshiba Corp 立体映像受信装置及び立体映像システム
US8614737B2 (en) 2009-09-11 2013-12-24 Disney Enterprises, Inc. System and method for three-dimensional video capture workflow for dynamic rendering
WO2012105120A1 (ja) 2011-02-03 2012-08-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
WO2012117703A1 (ja) 2011-03-02 2012-09-07 パナソニック株式会社 三次元画像処理装置、三次元画像処理方法、三次元画像視聴用眼鏡装置、三次元画像処理装置用集積回路、光ディスク再生装置、三次元映像信号再生装置および三次元映像信号表示装置
JP5002066B1 (ja) * 2011-04-06 2012-08-15 シャープ株式会社 画像処理装置、画像処理方法、コンピュータプログラム、および、記録媒体
JP6097919B2 (ja) 2011-09-01 2017-03-22 パナソニックIpマネジメント株式会社 立体視映像のための画像表示システム及び3次元表示装置
JP5450908B1 (ja) 2012-03-26 2014-03-26 パナソニック株式会社 立体映像処理装置および立体映像処理方法
JP5337282B1 (ja) 2012-05-28 2013-11-06 株式会社東芝 3次元画像生成装置および3次元画像生成方法
JP2015228543A (ja) 2014-05-30 2015-12-17 株式会社東芝 電子機器および表示処理方法
KR102299774B1 (ko) 2014-08-28 2021-09-09 삼성전자주식회사 화면 구성 방법, 전자 장치 및 저장 매체
KR102295452B1 (ko) 2014-10-24 2021-08-27 이매진 코퍼레이션 마이크로디스플레이 기반 몰입형 헤드셋
AU2016209100B2 (en) 2015-01-22 2021-05-20 Magic Leap, Inc. Methods and system for creating focal planes using an alvarez lens
JP2016212177A (ja) 2015-05-01 2016-12-15 セイコーエプソン株式会社 透過型表示装置
US9658686B2 (en) 2015-05-28 2017-05-23 Microsoft Technology Licensing, Llc Motion based view matrix tuning
EP3109734A1 (en) * 2015-06-22 2016-12-28 Samsung Electronics Co., Ltd Three-dimensional user interface for head-mountable display
US10192361B2 (en) * 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10424295B2 (en) * 2016-02-03 2019-09-24 Disney Enterprises, Inc. Calibration of virtual image displays
JP2018198750A (ja) 2017-05-26 2018-12-20 ソニー株式会社 医療用システム、医療用支持アームの制御装置、および医療用支持アームの制御方法
US10564716B2 (en) * 2018-02-12 2020-02-18 Hong Kong Applied Science and Technology Research Institute Company Limited 3D gazing point detection by binocular homography mapping
CN108491072B (zh) * 2018-03-05 2020-01-21 京东方科技集团股份有限公司 一种虚拟现实交互方法及装置
US10778953B2 (en) * 2018-12-10 2020-09-15 Universal City Studios Llc Dynamic convergence adjustment in augmented reality headsets
CN109766007B (zh) 2019-01-03 2022-05-27 京东方科技集团股份有限公司 一种显示设备的注视点补偿方法及补偿装置、显示设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE212021000195U1 (de) 2020-07-31 2022-01-19 Rohm Co., Ltd. SIC-Halbleiterbauelement
DE112021002150T5 (de) 2020-07-31 2023-01-26 Rohm Co., Ltd. Sic-halbleiterbauelement

Also Published As

Publication number Publication date
JP7471572B2 (ja) 2024-04-22
US20200275087A1 (en) 2020-08-27
US20210235063A1 (en) 2021-07-29
US11570426B2 (en) 2023-01-31
JP2020137128A (ja) 2020-08-31
JP7373800B2 (ja) 2023-11-06

Similar Documents

Publication Publication Date Title
JP2020131044A (ja) キャリブレーションシステム、及び、瞳孔間のキャリブレーション方法
US10292581B2 (en) Display device for demonstrating optical properties of eyeglasses
US11061240B2 (en) Head-mountable apparatus and methods
JP5475893B2 (ja) 視覚疲労度測定装置およびその方法
JP6339239B2 (ja) 頭部装着型表示装置、及び映像表示システム
US10516879B2 (en) Binocular display with digital light path length modulation
JP6378781B2 (ja) 頭部装着型表示装置、及び映像表示システム
KR20230144666A (ko) 깊이 평면들 간의 감소된 스위칭을 갖는 다중-깊이 평면 디스플레이 시스템
CN105943327B (zh) 具有防眩晕设备的视力锻炼保健系统
US11774759B2 (en) Systems and methods for improving binocular vision
US9805612B2 (en) Interest-attention feedback method for separating cognitive awareness into different left and right sensor displays
JP5990939B2 (ja) 立体視訓練支援装置、立体視訓練支援システム、画像処理装置、画像処理方法、及びプログラム
WO2017051595A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN104216126A (zh) 一种变焦3d显示技术
GB2595909A (en) Gaze tracking apparatus and systems
WO2017022303A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN211786414U (zh) 虚拟现实显示系统
Wu et al. Depth-disparity calibration for augmented reality on binocular optical see-through displays
JP6693656B2 (ja) 瞳孔間のキャリブレーションプログラム、前記プログラムを用いたWebサーバ、及び、瞳孔間のキャリブレーション方法
CN110794590A (zh) 虚拟现实显示系统及其显示方法
KR20160041403A (ko) 픽셀별 거리 정보를 기반으로 3d 영상 컨텐츠를 생성하는 방법, 장치 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
EP4083754B1 (en) System and method for generating motion data comprising simulated gaze information
AU2019101410A4 (en) The VRTY in Virtual Reality Digital Focussing Tool
US20220350141A1 (en) Head-mountable display apparatus and methods
WO2023243093A1 (ja) データ端末及びデータ端末の3d画像表示方法、並びにデータ処理システム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20200410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221228

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7373800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150