JP6122459B2 - ポジショントラッキング領域表示システム、及び方法 - Google Patents

ポジショントラッキング領域表示システム、及び方法 Download PDF

Info

Publication number
JP6122459B2
JP6122459B2 JP2015071100A JP2015071100A JP6122459B2 JP 6122459 B2 JP6122459 B2 JP 6122459B2 JP 2015071100 A JP2015071100 A JP 2015071100A JP 2015071100 A JP2015071100 A JP 2015071100A JP 6122459 B2 JP6122459 B2 JP 6122459B2
Authority
JP
Japan
Prior art keywords
node
area
trackable
nodes
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015071100A
Other languages
English (en)
Other versions
JP2016192027A (ja
Inventor
集平 寺畑
集平 寺畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015071100A priority Critical patent/JP6122459B2/ja
Publication of JP2016192027A publication Critical patent/JP2016192027A/ja
Application granted granted Critical
Publication of JP6122459B2 publication Critical patent/JP6122459B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ポジショントラッキングの領域を表示するシステム及び方法に関し、特に、動く非透過型ヘッドマウントディスプレイに設けられた複数のノードより発せられる信号をノードセンサが受信して、ノードセンサに対するノードの位置を算出し、算出されたノード位置に基づいて、ノードセンサのトラッキング領域を、ヘッドマウントディスプレイの表示領域に表示される3次元仮想空間内に重ねて表示するシステムに関する。
ユーザの身体に複数のポイントを設け、該複数のポイントの位置の動きに基づいてユーザの身体の動きを検出するボディトラッキングシステムが知られている。例えば、特許文献1に記載のボディモーションキャプチャ装置は、ユーザの身体に装着された複数のポイントから取得された信号に基づいて、静止ノードに対する複数のポイントの位置を算出し、ユーザの動きを推定する。
また、ユーザの頭部に装着され、眼前に配置されたディスプレイ等によってユーザに仮想空間における画像を提示することが可能なヘッドマウントディスプレイ(HMD)が知られている。
特開2007−524158号
上記背景技術に係るポジショントラッキングシステムにおいては、ユーザの身体に装着された複数のポイントから送信された信号を感知するセンサを用いて、該センサに対するユーザの身体の動きを推定することができる。ユーザは外界への視野を保っているため、ユーザは実空間におけるセンサとの位置関係を視覚的に認識することができ、ユーザはセンサの感知可能な範囲から外れることなく動くことができる。
しかしながら、ユーザが非透過型のHMDを装着している場合、ユーザはHMDのディスプレイに表示された画像のみを観察することになるため、実空間におけるセンサとのユーザとの位置関係を視覚的に認識することができない。HMDを装着しているユーザが動作中にセンサのトラッキング領域から外れてしまうと、トラッキング領域から外れた途端にポジショントラッキングが不能となり、ユーザの動きに連動してHMDの表示領域に表示される仮想空間画像が動かなくなるためユーザは不快な体験をする。
本発明は、上記に鑑みてなされたものであり、HMDに設けられたノードがノードセンサのトラッキング領域から外れる前に、HMDを装着しているユーザに対しトラッキング可能な領域を知らせるものである。また、本発明は、HMDに設けられたノードがノードセンサのトラッキング領域から外れた場合にはHMDを装着しているユーザに対し、トラッキング領域から外れたことを警告するものである。
即ち、本発明は、
(1)表示領域と、複数のノードとを備えたヘッドマウントディスプレイ(HMD)と、複数のノードからの信号をそれぞれ検出するノードセンサとを備え、仮想空間画像にノードセンサのトラッキング可能領域を重ねた表示領域へ出力される出力画像を生成するシステムで実行される方法であって、
ノードセンサがHMDの複数のノードからの信号をそれぞれ検出するステップと、
検出された複数のノードからの信号に基づいて3次元実空間内における複数のノードの位置を算出するステップと、
算出された位置に基づいて仮想空間画像を生成するステップと、
複数のノード位置の全て/または一部がトラッキング可能領域の境界領域にある場合(例えば図5のbおよびd)に、生成された仮想空間画像に、ノードセンサのトラッキング可能領域を重ねた出力画像を生成するステップと、
を備える方法に関する。
(2)さらに、本発明の他の実施形態によれば、(1)に記載の出力画像を生成するステップが、複数のノード位置の全て/または一部がトラッキング可能領域の境界領域にない場合(例えば図5のa)に、生成された仮想空間画像に、トラッキング可能領域を重ねない出力画像を生成するステップであることを特徴とする。
(3)さらに、本発明の他の実施形態によれば、検出された複数のノードからの信号がHMDに設けられた全てのノードからの信号であるかを判定するステップを、さらに含み、
全てのノードからの信号ではない場合に、出力画像を生成するステップは、複数のノード位置の全て/または一部がトラッキング可能領域の境界領域にない場合(例えば図5のc)に、生成された仮想空間画像に、警告メッセージを重ねた出力画像を生成するステップであることを特徴とする。
(4)さらに、本発明の他の実施形態によれば、(1)に記載のノードからの信号を検出するステップにおいて、ノードからの信号が全く検出されない場合(例えば図5のeおよびf)に、出力画像を生成するステップは、トラッキング可能領域から外れたことを示す出力画像を生成するステップであることを特徴とする。
(5)さらに、本発明の他の実施形態によれば、(1)に記載の仮想空間画像を生成するステップは、前回のノードからの信号の検出タイミングで算出されたノードの位置がメモリに格納されていない場合に、最新の検出タイミングで算出されたノードの位置と、最後の検出タイミングで算出されたノード位置との間のオフセットを算出し、該オフセットと、最新の検出タイミングで算出されたノードの位置とに基づいて仮想空間画像を生成するステップであることを特徴とする。
(6)さらに、本発明の他の実施形態によれば、ノードセンサのトラッキング可能領域はノードセンサに応じてあらかじめ規定されていることを特徴とする。
(7)さらに、本発明の他の実施形態によれば、ノードセンサのトラッキング可能領域は境界領域を含み、該境界領域はトラッキング可能領域よりも狭く、ユーザがトラッキング可能領域外に出てトラッキング不能となる十分前にユーザに通知可能な程度の領域を有していることを特徴とする。
(8)また、本発明の他の実施形態によれば、
表示領域と、複数のノードとを備えたヘッドマウントディスプレイ(HMD)と、複数のノードからの信号をそれぞれ検出するノードセンサとを備え、仮想空間画像にノードセンサのトラッキング可能領域を重ねた表示領域へ出力される出力画像を生成するシステムであって、
ノードセンサにより検出されたHMDの複数のノードからの信号のそれぞれに基づいて3次元実空間内における複数のノードの位置を算出するノード位置検出部と、
算出された位置に基づいて仮想空間画像を生成する仮想空間画像生成部と、
複数のノード位置の全て/または一部がトラッキング可能領域の境界領域にある場合(例えば図5のbおよびd)に、生成された仮想空間画像に、ノードセンサのトラッキング可能領域を重ねた出力画像を生成する警告画像生成部と、
を備えるシステムに関する。
この発明の上記の、及び他の特徴及び利点は、この発明の実施例の以下のより特定的な説明、添付の図面、及び請求の範囲から明らかになるであろう。
本発明によれば、HMDを装着しているユーザに対して、トラッキング可能な領域を知らせることができる。
本発明の一実施例に従った、本発明の一実施例に従った、HMDシステム100の概略図を示す。 本発明の一実施例に従った、HMDシステム100の機能的構成図を示す。 本発明の一実施例に従った、HMDシステム100のノードセンサ130に基づいて規定されるトラッキング可能領域、境界領域、中心領域を示す。 本発明の一実施例に従った、HMDシステム100の処理の流れを示すフローチャートを示す。 本発明の一実施例に従った、図3に示す領域を線Aで切断した場合のトラッキング可能領域、境界領域、中心領域と、HMDに設けられた各ノードとの関係を示す。 図6A、Bは本発明の一実施例に従った、HMDの表示領域に示されるスクリーンショットを示す。 本発明の一実施例に従った、HMDの表示領域に示されるスクリーンショットを示す。 本発明の一実施例に従った、HMDの表示領域に示されるスクリーンショットを示す。 本発明の一実施例に従った、HMDの表示領域に示されるスクリーンショットを示す。
複数のノードを設けたHMDと、該複数のノードからの信号を検出可能なポジショントラッキングセンサ(ノードセンサ)を用いることにより、ノードセンサを基準として複数のノードの3次元実空間内における位置を算出できる。これによりHMDを装着しているユーザは様々な動作、例えば、ユーザはオブジェクトの下や、オブジェクトの上、オブジェクトの角から向こう側を覗きこむ動作を行うことができ、ユーザは3次元仮想空間内で様々な視点を持つことができる。一方、非透過型HMDを装着しているユーザは、外界への視界を完全に失い、ノードセンサと、自身(HMD)との実空間内における位置関係を把握することができない。従って、このようなユーザが実空間内で移動してしまうと、意図せずにノードセンサが検知できる範囲外に出てしまい、トラッキング不能となることがある。
本発明によれば、3次元実空間内で移動するユーザに対して、ノードセンサのトラッキング領域から外れる前に、HMDを装着しているユーザに対し、トラッキング領域から外れそうであることを感覚的に知らせるものである。
図1は、本発明に従って構成されたHMDシステム100の外観図である。図1に示すようにHMDシステム100は、HMD110と、制御部120と、ノードセンサ130とを含む。HMD110は、ユーザの視界を完全に覆うよう構成された非透過型表示装置であり、表示領域112と、複数のノード114を備える。HMD110に設けられた複数のノード114が発する信号を、基準点に固定されたノードセンサ130が捉えることで、HMDのポジショントラッキングを行うことができる。HMD110はさらにスピーカ(図示せず)や、振動部(図示せず)、加速度センサ(図示せず)、角速度センサ(図示せず)を備えることができる。
表示領域112は、制御部120により生成された仮想空間画像を出力することができる。該HMD110を装着したユーザは表示領域112に表示される画面のみを観察することができ、外界の視界を全て失うため、制御部120において実行されるアプリケーション・プログラムにより表示される仮想空間に完全に没入することができる。
ノード114は、HMD110の前面等に複数設けられており、ノードセンサ130に対して信号、例えば赤外線信号を発信することができる。ノード114は、HMD110の上面、下面、背面、横面にも設けることができる。例えばHMD110の背面にノード114が設けられている場合、HMDを装着したユーザがノードセンサ130に対して背を向けたとしてもノードセンサ130はノード114から発信される信号を取得することができる。
スピーカはユーザの耳付近に位置するようHMDに設けられており、制御部120からの信号に基づいて音を出力する。振動部は、HMDに設けられており、制御部120からの信号に基づいて、HMDを振動させる。
加速度センサは表示領域112近辺に設けられており、ユーザの頭部に装着されたHMD110(ディスプレイ112)の動きに応じて、HMD110のX、Y、Z軸方向の加速度を経時的に検出することができる。角速度センサは表示領域112近辺に設けられており、ユーザの頭部に装着されたHMD110(ディスプレイ112)の動きに応じて、HMD110のX、Y、Z軸回りの角速度を経時的に検出することができる。HMD110の3次元実空間における位置は、ノードセンサ130から得られた情報、または角速度センサ、加速度センサから得られた角速度、加速度情報、またはこれらの組み合わせにより算出することができる。これらの組み合わせにより、3次元実空間におけるHMDの位置をより正確に把握することができる。また、ノードセンサ130と、HMD110との間に障害物があり、ノードセンサ130が各ノード114からの信号を取得することのできない場合は、角速度センサ、加速度センサから得られた角速度、加速度情報を用いて3次元実空間における位置を取得することもできる。
ノードセンサ130は、例えば赤外線センサ、光学センサであり、3次元実空間内の固定位置にあり、HMD110及び制御部120に通信可能に接続されている。ノードセンサ130は、HMD110に設けられた複数のノード114がトラッキング可能領域(図3に示す領域302)にある場合に、各ノード114から発せられる信号、例えば赤外線信号を経時的に検出し、該検出した信号を制御部120へ送信する。ノードセンサ130がHMD110に設けられた各ノード114から発せられる信号を検出し、制御部120が該検出された信号に基づいて各ノードの位置、方向の解析を行うことにより、各ノードのノードセンサに対する位置を算出することができ、HMDのポジショントラッキングを実現することができる。ノードセンサ130の検知できるトラッキング可能領域はあらかじめ規定されている。
制御部120は、プロセッサ、メモリ、通信部を備えることができ、これらがバスにより相互にデータ通信可能に接続されている。制御部120のメモリには、本発明の一実施形態によるアプリケーション・プログラム及びデータが格納されており、これらアプリケーション・プログラムがプロセッサにより実行されて、ユーザは非透過型のHMDを装着して、種々のアプリケーションを楽しむことができる。なお、メモリには、プロセッサがアプリケーション・プログラムに従って動作している間に生成したデータやプロセッサによって利用されるデータや、各ノードの位置、トラッキング可能領域、境界領域、中心領域の3次元実空間内での座標データと、それに対応する仮想空間内での座標データ等を格納することができる。通信部はプロセッサの制御により制御部120とノードセンサ130、HMD110との接続を確立する。制御部120は、HMDに設けられた各ノード114から発信された赤外線信号をノードセンサ130より受信して、受信した信号に基づきノードセンサからの各ノード114までの3次元実空間内での位置を算出して、HMD110の動きを求めることができる。そして、制御部120は、実空間におけるHMD110の動きに基づいて、ユーザが観察することのできるHMD110の表示領域112に表示される仮想空間画像をフレーム毎に生成し、HMDの表示領域112へ出力することができる。制御部120は、ユーザの頭部に装着されるHMD110に搭載することもできるし、HMD110に搭載せずに別のハードウェア、例えば公知のパーソナルコンピュータ等により構成することができる。
図2は、本発明の一実施例に従った、HMDシステム100の表示処理を実現するための機能的構成を示す。制御部120はノードセンサ130とHMD110に通信可能に接続されており、ノード位置検出部210、表示制御部220、警告信号生成部230を備えることができる。
ノード位置検出部210はノードセンサ130により取得されたノード114より発信された信号に基づいて、各ノードの位置、方向の解析を行うことにより、各ノード114のノードセンサ130に対する3次元実空間における位置を算出する。
表示制御部220は、判定部222、仮想空間画像生成部224、警告画像生成部226を備えることができ、仮想空間画像を生成し、生成した仮想空間画像を出力画像としてHMDの表示領域112へ出力する。
より詳細には、判定部222は、3次元実空間における位置の算出されたノードが、HMDに設けられた全てのノードであるか、一部のノードであるかを判定する。また、位置の算出されたノードが、トラッキング可能領域(図3に例示する領域302)内にあるか、境界領域(図3に例示する304)内にあるか、中心領域内(図3に例示する領域306)にあるかを判定することができる。
仮想空間画像生成部224は、算出されたノード114のそれぞれの3次元実空間における位置に基づいて、3次元仮想空間画像を出力画像としてフレーム毎に生成する。
警告画像生成部226は、検出されたノード114の3次元実空間内の位置の一部又は全てが、境界領域304にある場合等に、ノード114の3次元実空間内の位置に基づいて、生成された3次元仮想空間画像に、ノードセンサのトラッキング可能領域(図3に示す領域302)、境界領域(図3に示す領域304)、中心領域(図3に示す領域306)のうち一部、又は複数を重ねた3次元仮想空間画像を出力画像として生成することができる。境界領域が表示領域に表示されると、HMDを装着したままの状態でユーザは自身が境界領域内にいることを認識することができる。また、中心領域が表示領域に表示されると、HMDを装着したままの状態でユーザはどの方向に移動すれば、中心領域に入ることができるかを認識することができる。従って、外界への視野を失った状態でもユーザはノードセンサに対しより良い位置を確保するために移動することができる。
さらに、警告画像生成部226は、全てのノード114の位置が検出できない場合に、仮想空間画像を例えば画面全体をフェードアウトした画像や暗転した画像等を出力画像として生成することができる。
さらに、警告画像生成部226は、検出されたノード114の3次元実空間内の位置の一部又は全てが、境界領域304にある場合や、位置が検出できないノード114がある場合に、トラッキング可能領域等を重ねた3次元仮想空間画像に警告メッセージを重ねた出力画像を生成することができる。例えば、ノードが境界領域にある場合に「トラッキング領域から外れます」等の警告メッセージを、また、ユーザとノードセンサとの間に障害物が置かれており、信号が検出できない該ノードが或る場合には「障害物があります」等の警告メッセージを3次元仮想空間画像に重ねた出力画像を生成することができる。
警告信号生成部230は、検出されたノード114の3次元実空間内の位置の一部又は全てが境界領域304にある場合や、位置が検出できないノード114がある場合に、HMDに設けられたスピーカ(図示せず)に出力させる警告音を生成することや、HMDに設けられた振動部(図示せず)を振動させる信号を生成することができる。
図3は、本発明の一実施例に従った、実空間におけるノードセンサ100のトラッキング可能領域302、境界領域304、中心領域306を示す。トラッキング可能領域302はノードセンサ130によりトラッキング可能な領域であり、トラッキング可能領域302の形状、範囲はノードセンサの種類ごとにあらかじめ規定されている。トラッキング可能領域302の形状は、図3では円錐系であるが、他の形状、例えば円錘台形、楕円錐台系でもよい。トラッキング可能領域302は、網掛けで示される中心領域306(円錐形)と、該中心領域306の周りを囲む境界領域304を含むことができる。本実施例においては、境界領域304はトラッキング可能領域302を外縁とする中空の円錐形であり、中に中心領域306を含むが、外縁をトラッキング可能領域302の内側に規定することや、形状を他の形状、例えば円錐台形にしてもよい。中心領域306は、トラッキング可能領域302のうち、境界領域304の中に設けられた領域であり、ユーザの動きに対して安定的に位置をトラッキング可能な領域である。境界領域、中心領域の大きさや形状は図3に示す例に限定されない。
トラッキング可能領域302外に全てのノード114が移動すると、ノードセンサ130はノードの位置を検出することができなくなる。この場合、ユーザが実空間内で移動してもユーザの移動はトラッキング不能となり、ユーザの移動に応じてユーザの観察している仮想空間内の画像が変化しなくなるため、ユーザは不快を感じる。特に、ユーザが移動する際にトラッキングがなされなくなると、ユーザは仮想空間内で方向感覚を失い、不快な視野を観察することになり、結果として実行中のアプリケーションに対する没入感を損なうことになる。本実施例では、ユーザが意図せずにトラッキング領域から出て不快を感じることのないように、ユーザがトラッキング領域から出てトラッキング不能になる前に、すなわちユーザが境界領域304にいる間に、ユーザに対して種々のユーザインタフェース(表示領域、スピーカ等)を介して警告を通知することができる。トラッキング可能領域302に規定される境界領域304が狭いと、ユーザが境界領域304に到達した途端に警告がなされないままトラッキング可能領域302の外に出てしまう可能性がある。従って、境界領域304は、ユーザがトラッキング可能領域外に出てトラッキング不能となる十分前にユーザに対して警告できるよう、トラッキング可能領域302に対して十分に広い領域を確保するよう規定される。
なお、図1においてノード114はHMD110の前面(ユーザの向いている方向)及び横面に設けられているが、HMDの後面に設けることもできる。HMDの後面にノード114が設けられている場合、ユーザがノードセンサ130に対して頭だけ後ろを向けた場合や背を向けて移動する場合にも、ノードセンサ130はノード114の位置がトラッキング可能領域内にある限り、トラッキングすることができる。
図4は、本発明の一実施例に従った、HMDシステム100の表示処理を実現するための処理フローを示す。なお、図4に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理の順序を入れ替えても良い。
まず、ステップS402において表示制御部220は、本体装置120においてアプリケーション・プログラムを起動し、各種パラメータの初期値を設定、例えばトラッキング可能領域の設定、中心領域の設定、境界領域の設定等をする。
次に、ステップS404においてノードセンサ130は、各ノード114からの信号を検出する。ノード位置検出部210は該検出された信号に基づいて、ノードセンサに対する各ノードの位置、方向を分析し、各ノード114の3次元実空間における位置を算出する。なお、ステップS404において、ノード位置検出部210は、HMDに設けられた加速度センサからの加速度の値、角速度センサからの角速度の値を取得することもできる。ノードセンサ130から得られた情報に加えて、加速度や角速度の値を用いてHMD110の3次元実空間における位置を算出することにより、HMDのより正確な位置を算出することができる。
次に、ステップS406において、判定部222は、ステップS404において信号が検出されたノードがHMD上に設けられた全てのノードであるか否かを判定する。全てのノードからの信号が検出された場合(例えば図5のa、b)には、ステップS408に進む。
ステップS408において、前回検出され、算出されたノード位置がメモリに記憶されているか否かを判定する。ノードセンサ130はノード114からの信号を逐次検出している。前回検出され算出されたノード位置とは、前回の検出タイミングで検出され算出されたノード位置のことである。
ステップS408において前回検出され算出されたノード位置がメモリに記憶されている場合、すなわち一部又は全てのノードからの信号が前回の検出タイミングで検出され、それらの位置が算出されていた場合はステップS410へ進む。
ステップS410において、仮想空間画像生成部224は、3次元実空間における各ノード114の最新の検出タイミングで検出された信号に基づいて算出された位置に基づいて、3次元仮想空間画像を生成する。ここで、各ノード114の最新の位置とは、直前のステップS404により算出されたノード位置である。なお、ステップS410において、オフセットがメモリに格納されている場合には、各ノード114から検出された信号に基づいて算出された最新の各ノード114の3次元実空間における位置から、メモリに格納された各軸のオフセットを減算した実空間における位置に基づいて、3次元仮想空間画像を生成する。オフセットとは、最新の(すなわち直前のステップS404で算出された)3次元実空間における各ノード114のX、Y、Z軸の位置と、後述する最後に算出された3次元実空間における各ノード114のX、Y、Z軸の位置との間の差分値である。
一方、ステップS408において前回の検出タイミングで検出され算出されたノード位置がメモリに格納されていない場合、すなわち全てのノードからの信号が前回の検出タイミングで検出できなかった場合はステップS412へ進む。前回の検出タイミングで検出され算出された全てのノード位置がメモリに記憶されていない場合とは、例えば障害物が存在したこと(図5のf)、トラッキング可能領域外に移動したこと(図5のe)などにより、前回の検出タイミングで全てのノード114からの信号が検出されなかった場合を指す。算出されたノードの位置は逐次メモリへ格納されており、メモリに格納されている最新のノード位置が、最後に算出された3次元実空間における各ノード114の位置、すなわちノード位置が検出されなかった期間の直前に検出されたノードの位置となる。なお、最後に算出されたノード位置は、初期設定においては、ノードの初期位置である。
そして、ステップS412において、仮想空間画像生成部224は、3次元実空間における各ノード114の最新の位置ではなく、最後に算出された3次元実空間における各ノード114の位置に基づいて、3次元仮想空間画像を生成する。ノードセンサ130は、トラッキング可能領域302内に各ノード114が存在する場合であっても、ノードセンサ130と各ノード114との間に障害物がある場合や、各ノードがトラッキング可能領域302外にある場合には、ノード114からの信号を検出することができない。このため、本実施例においては、全てのノード114からの信号を検出することができなかった場合でも、最後にノードからの信号が検出された3次元仮想空間内の位置にユーザが戻れるように、3次元仮想空間内の位置に対応づけて、実空間において算出されたノード位置を逐次メモリへ格納することができる。また、ステップS412において、最新の3次元実空間における各ノード位置114と、最後に算出された3次元実空間における各ノード114との間の差分値を算出し、オフセットとしてメモリへ格納することができる。
次に、ステップS414において、判定部222は、ステップS404において位置が算出されたノードの一部又は全ての位置が境界領域304内にあるか否かを判定する。ステップS414において、算出されたノードの一部又は全ての位置が境界領域304内にあると判定された場合(例えば図5のb)に、ステップS416へ進む。
次に、ステップS416において、警告画像生成部226は、算出されたノード114の3次元実空間内の位置に基づいて、ステップS408において生成された3次元仮想空間画像に、トラッキング可能領域302,境界領域304、中心領域306のうちいずれか又は複数を重ねた出力画像を生成する。表示制御部220は生成された出力画像を、表示領域112へ出力し、表示制御部220はステップS404にて算出された各ノード114の位置を仮想空間における座標と対応付けて各々メモリへ格納する。そして、ステップS404へ戻る。また、ステップ416において、警告信号生成部230は、警告音を生成し、スピーカに出力させたり、HMDを振動させたりすることにより、ユーザに対して警告を通知することができる。
本実施例では、ノードがトラッキング可能領域302から外れそうになった時に、すなわち、ノードの一部又は全てが境界領域304にある場合にトラッキング可能領域302等を重ねた画像を表示領域112へ出力して、ユーザにトラッキング可能領域302等から外れそうである旨の警告することができる(図8)。すなわち、トラッキング可能領域302を表示出力することで、ユーザに対してトラッキング不能になることを避けるためにどうすべきかをユーザに通知することができる。また、生成された3次元仮想空間画像に、中心領域306を重ねた画像を表示出力することで、ユーザに対してどの方向に中心領域があるかをユーザに通知することができ、ユーザに対してより良い位置を確保するためのフィードバックを提供することができる。
なお、本実施例においては、ノードの一部又は全てが境界領域304にある場合にトラッキング可能領域を重ねた画像を表示領域112へ出力しているが、図6A、図7に示すようにノードが中心領域にある場合であってもこのような画像を表示領域112へ出力することができる。
一方、ステップS414において算出されたノードの一部又は全ての位置が境界領域304内にないと判定された場合(すなわち全てのノード位置が中心領域にある場合、例えば図5のa)に、ステップS418へ進む。
ステップS418において、表示制御部220は、ステップS412、410にて生成された仮想空間画像(すなわちトラッキング可能領域が重なっていない仮想空間画像)を表示領域112へ出力し、ステップS404で算出された各ノード114の位置を仮想空間における座標と対応付けて各々メモリへ格納し、ステップS404へ戻る。トラッキング可能領域は、全てのノードが中心領域に或る場合も仮想空間画像に表示することが可能であるが、仮想空間画像にトラッキング可能領域が重ねて表示されると画面が見づらい可能性がある。従って、全てのノード114が中心領域にある場合にはトラッキング可能領域を表示せず、一部のノード114/又は全てのノードが境界領域内にある場合に、トラッキング可能領域を重ねて表示することができる。
また、ステップS406において、判定部222が、ステップS404において信号が検出されたノードがHMD上に設けられた全てのノードでないと判定した場合(例えば、図5のc、d、e、f)に、ステップS420に進む。
ステップS420において、判定部222は、信号が検出されたノード114があるか否かを判定する。ステップS420において信号が取得されたノードがある場合(例えば、図5のc、d)には、ステップS422に進む。
ステップS422において、前回検出され、算出されたノード位置がメモリに記憶されているか否かを判定する。ステップS422において前回の検出タイミングで検出され算出されたノード位置がメモリに記憶されている場合、すなわち一部又は全てのノードからの信号が前回の検出タイミングで検出され、それらの位置が算出されていた場合はステップS424へ進む。
ステップS424において、仮想空間画像生成部224は、3次元実空間における各ノード114の最新の位置に基づいて、3次元仮想空間画像を生成する。なお、ステップS424において、オフセットがメモリに格納されている場合には、各ノード114から検出された信号に基づいて算出された最新の各ノード114の3次元実空間における位置から、メモリに格納された各軸のオフセットを減算した実空間における位置に基づいて、3次元仮想空間画像を生成する。
一方、ステップS422において前回の検出タイミングで検出され算出されたノード位置がメモリに格納されていない場合、すなわち全てのノードからの信号が前回の検出タイミングで検出できなかった場合はステップS426へ進む。
そして、ステップS426において、仮想空間画像生成部224は、3次元実空間における各ノード114の最新の位置ではなく、最後に算出された3次元実空間における各ノード114の位置に基づいて、3次元仮想空間画像を生成する。また、ステップS426において、最新の3次元実空間における各ノード位置114と、最後に算出された3次元実空間における各ノード114との間の差分値を算出し、オフセットとしてメモリへ格納する。
次に、ステップS428において、判定部222は、ステップS404において位置が算出されたノードの一部又は全ての位置が境界領域304内にあるか否かを判定する。ステップS428において、算出されたノードの一部又は全ての位置が境界領域304内にあると判定された場合(例えば図5のd)に、ステップS430へ進む。
ステップS430において、警告画像生成部226は、算出されたノード114の3次元実空間内の位置に基づいて、ステップS408において生成された3次元仮想空間画像に、トラッキング可能領域302、境界領域304、中心領域306のうちいずれか又は複数を重ねた出力画像を生成する。表示制御部220は生成された出力画像を表示領域112へ出力し、表示制御部220はステップS404にて算出された各ノード114の位置を仮想空間における座標と対応付けて各々メモリへ格納する。そして、ステップS404へ戻る。また、ステップ430において、警告信号生成部230は、警告音を生成し、スピーカに出力させたり、HMDを振動させたりすることにより、ユーザに対して警告を通知することができる。
一方、ステップS428において、算出されたノードの一部又は全ての位置が境界領域304内にないと判定された場合、すなわち信号の検出された全てのノードの位置が中心領域に或る場合(例えば、図5のc)に、ステップS432へ進む。ステップS432は、信号の検出された全てのノードの位置は中心領域にあるが、HMDに設けられた全てのノードからの信号は検出されていない場合であり、例えばノードとノードセンサとの間に障害物がある場合を指す。
次に、ステップS432において、警告画像生成部226は、算出されたノード114の3次元実空間内の位置に基づいて、ステップS426又はステップS428において生成された3次元仮想空間画像(すなわちトラッキング可能領域が重なっていない仮想空間画像)に、警告メッセージ、例えば障害物があることを示す警告メッセージを表示した出力画像を生成し、表示領域112へ出力し、ステップS404へ戻る。このとき、ステップS404にて算出されたノード114の位置を仮想空間における座標と対応付けて各々メモリへ格納する。
一方、ステップS420において信号が検出されたノードが全くない場合、ステップS434に進む。ステップ434は、全てのノードがトラッキング可能領域302にある場合でも、障害物などによってノードからの信号を検出できない場合(図5のf)や、全てのノードがトラッキング可能領域内にない場合(図5のe)に対応する。ステップ434において、出力画像生成部224はトラッキング可能領域外にあることを示す画像、例えば暗転した画像、画像全体をフェードアウトした画像を生成し、表示領域112へ出力する。
なお、ステップS434において、信号が検出されたノード114が全くない場合に、全てのノードがトラッキング可能領域302内にあるか、トラッキング可能領域302外にあるか否か、さらにはトラッキング可能領域302からどのくらいの距離離れているかは、ノードからの信号のみでは検出することができない。この場合、加速度センサ、角速度センサから取得された加速度及び/又は角速度の値を用いることにより、ノード(HMD)がトラッキング可能領域内にあるか否か、トラッキング可能領域302からどのくらいの距離離れているかを検出することができる。
例えば、直前の検出タイミングでは、各ノードがトラッキング可能領域302にあるが、直後の検出タイミングでは全てのノードの信号が検出できなかった場合に、加速度センサから取得された加速度の値を取得して、該加速度値を2回積分することにより、3次元実空間における現在のHMDの位置を求めることができる。求められたHMDの位置が、トラッキング可能領域内にある場合は、ノードセンサと各ノードとの間に例えば障害物が存在していることがわかる。この場合、例えば、画像全体をフェードアウトした画像等ではなく、障害物がある旨の警告メッセージを仮想空間画像に重ねた出力画像を生成して表示領域へ出力しても良い。また、求められたHMDの位置が、トラッキング可能領域外にある場合は、HMDの位置とトラッキング可能領域との位置関係を算出し、図9に示すように、該位置関係に基づいて表示領域に警告メッセージ、例えば「右に移動してください」を表示するとともに、トラッキング可能領域までの距離と向きを示すアイコン、例えば矢印を表示領域に表示することができる。HMDの位置からトラッキング可能領域までの位置に応じて矢印の長さや向きを変更することができる。ユーザがトラッキング可能範囲外に移動してしまった場合でも、表示領域に表示される警告メッセージとアイコンにより示される情報に基づいて移動することで、ユーザはトラッキング可能範囲に再び戻ることができる。トラッキング可能範囲に再び戻ると、本実施例においては最後に観察していた仮想空間画像をユーザは観察することができる。なお、加速度センサ、角速度センサから取得された加速度及び/又は角速度の値を用いることにより、トラッキング可能領域を外れてもHMDの正確な位置が検出される場合、トラッキング可能領域の内外に関わらず、3次元実空間におけるHMDの位置に連動して常に仮想空間画像を表示することも可能である。
図5は、図3及び図4に関連しており、図3に示す円錐形を線Aで切断したときに現れる断面におけるトラッキング可能領域302、境界領域304、中心領域306と、HMDとの関係を示す断面図である。図5のaからfは、HMD110とHMDに設けられている複数のノード114(図5においては8つのノード)を概略的に示しており、図4に示すアルファベットaからfにそれぞれ対応する。ノード114から発信された信号がノードセンサにより検出される場合は白又はグレーの丸で示し、検出されない場合は黒の丸で示す。例えばaは、HMD110のノード114の全てが中心領域に存在し、かつ全てのノードからの信号が検出可能であることを示す。bはHMD110のノード114の一部が中心領域に、一部が境界領域に存在し、かつ全てのノードからの信号が検出可能であることを示す。cは、ノード114の全てが中心領域に存在するが、障害物などにより、一部のノードからの信号は検出できないことを示す。dは、HMDのノード114の一部が境界領域304内にあり、一部がトラッキング可能領域302外にあるために、トラッキング可能領域外にあるノードからの信号は検出できないことを示す。eは、HMDのノードの全てがトラッキング可能領域302外にあるために、信号が全く検出できないことを示す。fは、HMDのノード114の全てが中心領域306にあるものの、障害物などにより、全てのノード114からの信号が検出できないことを示す。
図6A、Bは、本発明の一実施例に従った、HMDの表示領域に示されるスクリーンショットを示す。
図6Aは、ノード114の位置が3次元実空間における中心領域306の中心にある場合に、HMD110の表示領域112へ出力される仮想空間画像である。図6Aにおいては、ノード114の位置が中心領域306にある場合であってもトラッキング可能領域302を複数の円で表示しているが、上述したように中心領域306にある場合はトラッキング可能領域302を仮想空間画像に重ねなくてもよい。図3に示すトラッキング可能領域302を示す円錐は、図6Aにおいて複数の円602を用いて表されており遠近感を表すために、1つの円内の色を連続的に変化させて、グラデーション表示している。
図6Bは、ノード114の位置が3次元実空間におけるトラッキング領域302外にある場合に、HMD110の表示領域112へ出力される仮想空間画像である。図3に示すトラッキング可能領域302を示す円錐は、画面右に表示されており、全てのノード位置がトラッキング領域302外にあることを示している。トラッキング領域外にある場合に、HMD110を装着したユーザが実空間内で移動しても、ノードセンサ130はノード114からの信号を取得できないため、ユーザの移動に応じて仮想空間画像は変化しない。このためユーザは、仮想空間内で方向感覚を失い不快な視野を有することになる。図6Bにおいては、トラッキング可能領域302は画面右に表示されているが、ユーザの移動方向、移動距離によっては、仮想空間内に示されるトラッキング可能領域302の位置が実空間における位置に対応するとは限らず、場合によっては実空間ではユーザの左側にトラッキング可能領域302が存在することもあり得る。従って、このような場合に、トラッキング可能領域302を表示するとユーザに混乱を生じさせるため、仮想空間画像を完全に暗転(画面全体を真っ暗に)することもできる。
図7〜9は、本発明の一実施例に従った、HMDの表示領域に示されるスクリーンショットを示す。
図7は、ノード114の位置が3次元実空間における中心領域306の中心にある場合に、HMD110の表示領域112へ出力される仮想空間画像である。図7においては、ノード114の位置が中心領域306にある場合であってもトラッキング可能領域302を表示しているが、上述したように中心領域306にある場合はトラッキング可能領域302を仮想空間画像に重ねなくてもよい。
図8は、ノード114の位置が3次元実空間における境界領域304にある場合に、HMD110の表示領域112へ出力される仮想空間画像である。
図9は、ノード114の位置が3次元実空間におけるトラッキング領域302外にある場合に、HMD110の表示領域112へ出力される仮想空間画像である。
以上、本発明の一実施形態につき説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施態様の変更がなされうることを当業者は理解するであろう。

Claims (12)

  1. 表示領域と、複数のノードと、加速度センサ及び/又は角速度センサとを備えたヘッドマウントディスプレイ(HMD)と、前記複数のノードからの信号をそれぞれ検出するノードセンサとを備え、仮想空間画像に前記ノードセンサのトラッキング可能領域を重ねた前記表示領域へ出力される出力画像を生成するシステムで実行される方法であって、
    前記ノードセンサがHMDの前記複数のノードからの信号をそれぞれ検出するステップと、
    前記検出された前記複数のノードからの信号に基づいて3次元実空間内における前記複数のノードの位置を算出し、メモリに格納するステップと、
    前記算出された位置に基づいて仮想空間画像を生成するステップと、
    前記複数のノード位置の全て/または一部が前記トラッキング可能領域の境界領域にある場合に、前記生成された前記仮想空間画像に、前記ノードセンサのトラッキング可能領域を重ねた出力画像を生成するステップと、
    を備え、前記トラッキング可能領域は、前記複数のノード位置の全てが前記トラッキング可能領域外にある場合に、前記ノードセンサが前記複数のノードからの信号を検出できない領域であり、
    前記ノードからの信号を検出するステップにおいて、ノードからの信号が全く検出されない場合に、前記出力画像を生成するステップは、前記加速度センサにより検出された加速度の値及び/又は前記角速度センサにより検出された角速度の値に基づく位置がトラッキング可能領域外であれば、トラッキング可能領域から外れたことを示すと共にトラッキング可能領域へ戻るように案内するための警告メッセージを含む出力画像を生成し、前記加速度の値及び/又は前記角速度の値に基づく位置がトラッキング可能領域内であれば、障害物があることを示す警告メッセージを含む出力画像を生成するステップである、方法。
  2. 前記出力画像を生成するステップは、前記複数のノード位置の全て/または一部が前記トラッキング可能領域の境界領域にない場合に、前記生成された仮想空間画像に、前記トラッキング可能領域を重ねない出力画像を生成するステップであることを特徴とする請求項1に記載の方法。
  3. 前記検出された前記複数のノードからの信号がHMDに設けられた全てのノードからの信号であるかを判定するステップを、さらに含み、
    全てのノードからの信号ではない場合に、前記出力画像を生成するステップは、前記複数のノード位置の全て/または一部が前記トラッキング可能領域の境界領域にない場合に、前記生成された仮想空間画像に、警告メッセージを重ねた出力画像を生成するステップであることを特徴とする請求項1に記載の方法。
  4. 前記仮想空間画像を生成するステップは、前回の検出タイミングで算出されたノードの位置がメモリに格納されていない場合に、最新の検出タイミングで算出されたノードの位置と、最新のノード位置の直前にメモリに格納されたノード位置との間のオフセットを算出し、該オフセットと、最新の検出タイミングで算出されたノードの位置とに基づいて仮想空間画像を生成するステップであることを特徴とする請求項1に記載の方法。
  5. 前記ノードセンサのトラッキング可能領域は前記ノードセンサに応じてあらかじめ規定されていることを特徴とする請求項1に記載の方法。
  6. 前記ノードセンサのトラッキング可能領域は境界領域を含み、該境界領域は前記トラッキング可能領域よりも狭く、ユーザがトラッキング可能領域外に出てトラッキング不能となる十分前にユーザに通知可能な程度の領域を有していることを特徴とする請求項1に記載の方法。
  7. 表示領域と、複数のノードと、加速度センサ及び/又は角速度センサとを備えたヘッドマウントディスプレイ(HMD)と、前記複数のノードからの信号をそれぞれ検出するノードセンサとを備え、仮想空間画像に前記ノードセンサのトラッキング可能領域を重ねた前記表示領域へ出力される出力画像を生成するシステムであって、
    前記ノードセンサにより検出されたHMDの前記複数のノードからの信号のそれぞれに基づいて3次元実空間内における前記複数のノードの位置を算出し、メモリに格納するノード位置検出部と、
    前記算出された位置に基づいて仮想空間画像を生成する仮想空間画像生成部と、
    前記複数のノード位置の全て/または一部が前記トラッキング可能領域の境界領域にある場合に、前記生成された前記仮想空間画像に、前記ノードセンサのトラッキング可能領域を重ねた出力画像を生成する警告画像生成部と、
    を備え、前記トラッキング可能領域は、前記複数のノード位置の全てが前記トラッキング可能領域外にある場合に、前記ノードセンサが前記複数のノードからの信号を検出できない領域であり、
    前記警告画像生成部は、前記複数のノードからの信号が全く検出されない場合に、前記加速度センサにより検出された加速度の値及び/又は前記角速度センサにより検出された角速度の値に基づく位置がトラッキング可能領域外であれば、トラッキング可能領域から外れたことを示すと共にトラッキング可能領域へ戻るように案内するための警告メッセージを含む出力画像を生成し、前記加速度の値及び/又は前記角速度の値に基づく位置がトラッキング可能領域内であれば、障害物があることを示す警告メッセージを含む出力画像を生成する、システム。
  8. 前記出力画像を生成する警告画像生成部は、前記複数のノード位置の全て/または一部が前記トラッキング可能領域の境界領域にない場合に、前記生成された仮想空間画像に、前記トラッキング可能領域を重ねない出力画像を生成することを特徴とする請求項7に記載のシステム。
  9. 前記検出された前記複数のノードからの信号がHMDに設けられた全てのノードからの信号であるかを判定する判定部を、さらに含み、
    全てのノードからの信号ではない場合に、前記出力画像を生成する警告画像生成部は、前記複数のノード位置の全て/または一部が前記トラッキング可能領域の境界領域にない場合に、前記生成された仮想空間画像に、警告メッセージを重ねた出力画像を生成することを特徴とする請求項7に記載のシステム。
  10. 前記仮想空間画像生成部は、前回の検出タイミングで算出されたノードの位置がメモリに格納されていない場合に、最新の検出タイミングで算出されたノードの位置と、最新のノード位置の直前にメモリに格納されたノード位置との間のオフセットを算出し、該オフセットと、最新の検出タイミングで算出されたノードの位置とに基づいて仮想空間画像を生成することを特徴とする請求項7に記載のシステム。
  11. 前記ノードセンサのトラッキング可能領域は前記ノードセンサに応じてあらかじめ規定されていることを特徴とする請求項7に記載のシステム。
  12. 前記ノードセンサのトラッキング可能領域は境界領域を含み、該境界領域は前記トラッキング可能領域よりも狭く、ユーザがトラッキング可能領域外に出てトラッキング不能となる十分前にユーザに通知可能な程度の領域を有していることを特徴とする請求項7に記載のシステム。
JP2015071100A 2015-03-31 2015-03-31 ポジショントラッキング領域表示システム、及び方法 Active JP6122459B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015071100A JP6122459B2 (ja) 2015-03-31 2015-03-31 ポジショントラッキング領域表示システム、及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015071100A JP6122459B2 (ja) 2015-03-31 2015-03-31 ポジショントラッキング領域表示システム、及び方法

Publications (2)

Publication Number Publication Date
JP2016192027A JP2016192027A (ja) 2016-11-10
JP6122459B2 true JP6122459B2 (ja) 2017-04-26

Family

ID=57246710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015071100A Active JP6122459B2 (ja) 2015-03-31 2015-03-31 ポジショントラッキング領域表示システム、及び方法

Country Status (1)

Country Link
JP (1) JP6122459B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6466383B2 (ja) * 2015-09-29 2019-02-06 積水化学工業株式会社 ポリオレフィン系樹脂発泡シート及び粘着テープ
GB2557593A (en) * 2016-12-09 2018-06-27 Sony Interactive Entertainment Inc Virtual reality
WO2018190327A1 (ja) * 2017-04-11 2018-10-18 株式会社バスキュール 仮想現実提供システム、3次元表示データ提供装置、仮想空間提供システム及びプログラム
US10304207B2 (en) 2017-07-07 2019-05-28 Samsung Electronics Co., Ltd. System and method for optical tracking
JP6401841B1 (ja) * 2017-09-13 2018-10-10 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
JP7073228B2 (ja) * 2018-08-23 2022-05-23 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4393169B2 (ja) * 2003-12-04 2010-01-06 キヤノン株式会社 複合現実感提示方法および装置

Also Published As

Publication number Publication date
JP2016192027A (ja) 2016-11-10

Similar Documents

Publication Publication Date Title
JP6122459B2 (ja) ポジショントラッキング領域表示システム、及び方法
CN110536665B (zh) 使用虚拟回声定位来仿真空间感知
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6344380B2 (ja) 画像処理装置および方法、並びにプログラム
JP2019070909A (ja) 情報処理装置、情報処理方法及びプログラム
JP6675209B2 (ja) 情報処理装置およびユーザガイド提示方法
JP6499384B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
WO2019142560A1 (ja) 視線を誘導する情報処理装置
US11288869B2 (en) Information processing device, and information processing method
JP6332652B1 (ja) 表示制御装置、及びプログラム
US10573083B2 (en) Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system
JP2009169622A (ja) 画像処理装置、画像処理方法
JPWO2019131143A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017062598A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019067323A (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2014003099A1 (ja) 映像演出装置
JP2020115353A (ja) 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
JP7413077B2 (ja) ヘッドマウントディスプレイ、制御方法、情報処理装置、情報処理方法、およびプログラム
JP2016110177A (ja) 3次元入力装置及び入力システム
US20070200847A1 (en) Method And Device For Controlling A Virtual Reality Graphic System Using Interactive Techniques
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP2018022349A (ja) 情報提示装置
JP2016218916A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6467039B2 (ja) 情報処理装置
JP6496391B1 (ja) 表示システム及び表示方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170331

R150 Certificate of patent or registration of utility model

Ref document number: 6122459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250