JP2020031413A - 表示装置、移動体、移動体制御システム、これらの製造方法、および映像の表示方法 - Google Patents
表示装置、移動体、移動体制御システム、これらの製造方法、および映像の表示方法 Download PDFInfo
- Publication number
- JP2020031413A JP2020031413A JP2019016774A JP2019016774A JP2020031413A JP 2020031413 A JP2020031413 A JP 2020031413A JP 2019016774 A JP2019016774 A JP 2019016774A JP 2019016774 A JP2019016774 A JP 2019016774A JP 2020031413 A JP2020031413 A JP 2020031413A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- display device
- speed
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 81
- 238000004519 manufacturing process Methods 0.000 title description 7
- 230000008859 change Effects 0.000 claims abstract description 118
- 238000006073 displacement reaction Methods 0.000 claims abstract description 98
- 238000003384 imaging method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 24
- 230000002123 temporal effect Effects 0.000 claims description 11
- 230000012447 hatching Effects 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 description 44
- 230000000694 effects Effects 0.000 description 36
- 238000012545 processing Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 19
- 230000002093 peripheral effect Effects 0.000 description 15
- 230000004397 blinking Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000002834 transmittance Methods 0.000 description 11
- 238000013519 translation Methods 0.000 description 10
- 239000003795 chemical substances by application Substances 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 230000036461 convulsion Effects 0.000 description 7
- 241000282412 Homo Species 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000000638 stimulation Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000002845 discoloration Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 239000013585 weight reducing agent Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000004279 orbit Anatomy 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 230000004800 psychological effect Effects 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000392 somatic effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
Abstract
【課題】 操作者に直感的な映像の情報を提供すること。【解決手段】 対象に関する情報を含む第1の映像とともに、前記対象とは空間的あるいは時間的に異なる変化をする要素を含む第2の映像と、を表示可能な表示装置であって、前記要素の変化もしくは変化率のスケールは、前記第1もしくは第2の映像の表示スケールとは独立であるとともに、前記第1の映像を生成する視点の存在する空間における該視点の変位に関する情報のスケールと所定の関係を有することを特徴とする。【選択図】図5
Description
本発明は、表示装置、移動体、および移動体制御システムに関し、とくに操作者が遠隔にて操作する移動体の制御システムに関する。
近年、遠隔操作が可能なロボット(移動体)が広く用いられるようになってきている。遠隔操作ロボットは、人間の立ち入ることのできない災害現場で活用されている。また遠隔操作ロボットは、自律ロボットには手に負えない作業に、人間の能力を援用する目的で活用されている。
操作者は、表示装置を通じて、カメラ(撮像装置)で取得された外界の映像を観察することで、遠隔操作ロボットの動作に関する視覚フィードバック情報をうける。操作者は、この情報によって、遠隔操作ロボットの位置や速度を推定する。この推定に習熟すると、操作者は、遠隔操作ロボットを自分の意図の通りに操作できるようになる。
しかしながら、遠隔操作ロボットに固定されたカメラの視点で生成される映像は、幾何学的に歪んでいたり、3次元情報が欠落したり、表示倍率が未知であったりする。あるいは、視点が操作者と異なったり、光学的なゴーストが発生したり、通信遅延が生じたりする。
したがって、操作者が、映像から遠隔操作ロボットの位置や速度を推定するのは困難である。遠隔操作ロボットの移動範囲は近年ますます広範囲におよんでいる。したがって、操作者は、上記の推定を繰り返さなければならない。
このため、推定にかかる負荷、推定を誤る確率が増え、遠隔操作ロボットの操作精度の低下につながる課題があった。また、遠隔操作ロボットの操作に高度なスキルが求められ、操作の習熟が困難である課題があった。この課題に対して、操作者への情報提示に関する発明が開示されている。
特許文献1には、自動車の運転手に対しパターンの流れを提示する構成が開示されている。パターンの流れは、その表示位置において車窓から見える外界の風景の流れと等価となるように、かつ、運転手の周辺視野に提示される。これにより、操作者である運転手は、風景を注視していても、周辺視野で車速が視認できる。
特許文献2では、ロボットに2つの光源を設ける構成が開示されている。ロボットと、対象との距離が変わると、光源から対象に投影される2つのスポットの重なり具合が変わることを利用して、操作者にロボットと対象の距離の情報を付加的に与えられる。
特許文献1の開示を遠隔操作ロボットの操作のための映像の表示に適用すると、映像から見える風景と等価なパターンの流れを表示することになる。このため、提示される視覚情報は、前述した映像の有する種々の性質を反映してしまう。したがって、特許文献1の開示は、風景の映像化の過程で生じる情報の欠落を補うことができない課題があった。さらには、この情報がかえって操作を妨げてしまう課題があった。
特許文献2の開示では、直感的な距離情報が得られない課題があった。すなわち操作者は、実際の距離と、スポットの重なり具合と、の対応関係に習熟する必要があった。また、周囲の環境次第で、距離と、スポットの重なり具合と、の対応関係が変わってしまう場合があった。そのため、その対応関係に習熟しなければならない課題があった。
以上の課題を鑑みて本発明は、操作者に直感的な映像の情報を提供することである。
本発明の表示装置は、対象に関する情報を含む第1の映像とともに、前記対象とは空間的あるいは時間的に異なる変化をする要素を含む第2の映像と、を表示可能であって、前記要素の変化もしくは変化率のスケールは、前記第1もしくは第2の映像の表示スケールとは独立であるとともに、前記第1の映像を生成する視点の存在する空間における該視点の変位に関する情報のスケールと所定の関係を有することを特徴とする。
別の観点では、本発明の所定の関係は、表示装置の観察者のパラメーターの決定手段により特定されることを特徴とする。
別の観点では、本発明の要素は、前記視点の変位の情報を表現する形状、模様、色彩のうちの少なくともひとつを含み、前記表現は、前記形状、前記模様、前記色彩、あるいは前記形状、模様、色彩のうちの少なくともひとつの位置、動き、速度のうち少なくともひとつを変化させることを特徴とする。
別の観点では、本発明の第2の映像は透過され、前記第1の映像に重畳されることを特徴とする。
別の観点では、本発明の表示面は、該表示面の中心を含む第1の領域と、前記中心を含まない第2の領域と、を有し、前記第2の映像は、前記第2の領域のうち少なくとも一部の領域に表示されることを特徴とする。
別の観点では、本発明の移動体制御システムは、撮像装置を備えた移動体と、該移動体の操作装置と、該移動体の操作者に該移動体に関する映像を表示する請求項1乃至20のいずれか一項に記載の表示装置と、前記映像を制御する表示制御部と、を有し、前記撮像装置は、前記移動体の存在する空間における第1の方向の前記第1の映像を撮像し、前記第2の映像は、前記第1の方向と交差する第2の方向の情報を含むことを特徴とする。
別の観点では、本発明は、撮像装置を備えた移動体であって、前記撮像装置は、該移動体の操作者が観察可能な該移動体の存在する空間の対象に関する第1の映像を撮像し、前記第1の映像とともに前記移動体の操作者が観察可能な第2の映像は、前記第1の映像上で変位する前記対象とは空間的あるいは時間的に異なる変化をする要素を含み、前記要素の変化もしくは変化率のスケールは、前記第1もしくは第2の映像の表示スケールとは独立であるとともに、前記移動体の存在する空間における該移動体の変位に関する情報のスケールとは所定の関係を有することを特徴とする。
また、本発明の製造方法は、操作者による操作が可能な操作対象と、前記操作対象の操作の目標を示すターゲットと、表示装置と、を用意する工程と、前記操作者が前記操作対象の少なくとも一部の動作過程を目視できないように、かつ、前記表示装置の表示する映像を目視可能に構成されたマスクと、を用意する工程と、前記操作者が前記表示装置からの映像に基づいて前記操作対象を前記ターゲットに向けて変位させ、到達させた位置と前記ターゲットとの誤差を計測する工程と、前記誤差を用いて、前記表示装置に表示される映像に含まれる要素の変化あるいは変化率を特定する工程と、を含むことを特徴とする。
また、本発明の映像の表示方法は、操作者による操作が可能な操作対象と、前記操作対象の操作の目標を示すターゲットと、表示装置と、を用意する工程と、前記操作者が前記操作対象の少なくとも一部の動作過程を目視できないように、かつ、前記表示装置の表示する映像を目視可能に構成されたマスクと、を用意する工程と、前記操作者が前記表示装置からの映像に基づいて前記操作対象を前記ターゲットに向けて変位させ、到達させた位置と前記ターゲットとの誤差を計測する工程と、前記誤差を用いて、前記表示装置に表示される映像に含まれる要素の変化あるいは変化率を特定する工程と、を含むことを特徴とする。
本発明によれば、操作者に直感的な映像の情報を提供することができる。
本発明の一つの実施形態である表示装置は、第1および第2の映像を表示可能である。第1の映像と第2の映像とは異なる映像である。ただし、後述するように、第1の映像と第2の映像は、第1の映像を生成する視点を介して所定の関係を有する映像である。観察者は、本発明の表示装置を用いて、自身が存在する空間と異なる空間において何らかのタスクを行うことができる。
第1の映像は、タスクの目的となる対象に関する映像である。対象には、観察対象や、操作対象を含む。たとえば、タスクが遠隔地での移動であれば、対象は移動の目標となる何らかの物体、ランドマーク、風景等である。たとえば、タスクが物体の把持(マニピュレーション)であれば、対象は被把持物体、ワーク等である。対象は、同一タスク内でも時々刻々と変更され得る。
視点は、対象が存在する空間(実空間)での視点である。この視点は、本発明の表示装置を用いた観察者の存在する空間での視点に変えて用いられる。この視点に基づき、第1の映像が生成される。本発明にかかる表示装置では、対象と視点との相対的な移動により、観察者に第1の映像での視点の変更(移動)があったことを知覚させることができる。
たとえば、本発明の表示装置が遠隔操作ロボットの操作に用いられる場合、タスクに関する第1の映像が、遠隔操作ロボットが有する撮像装置等から操作者に提示される。このときの操作者の視点は、遠隔にある遠隔操作ロボットの視点と実質的に同一に知覚される。すなわち、第1の映像の視点は、遠隔操作ロボットの有する撮像装置の視点である。遠隔操作ロボットの視点の変更は、遠隔操作ロボットの移動に伴って生じる対象との相対的変位にて、観察者に知覚させることができる。
ここで本発明において実質的とは、公差ばらつき、取付・調整誤差、予め定めた許容範囲、観察者が同一と知覚する範囲(心理学上の主観的等価値の範囲)のばらつき、等に起因して、発生が十分に想定されるばらつきを含む概念である。好ましくは、実質的とは、基準(同一の位置・姿勢等)から30%以内であることが望ましい。人間の特性から、主観的等価値の範囲のばらつきは大きいためである。より好ましくは、10%以内であることが望ましい。
たとえば、観察者が仮想空間を歩き回る用途では、タスクに関する第1の映像は、仮想空間における観察者のエージェントの視点等から観察者に提示される。このときの観察者の視点は、エージェントの視点と実質的に同一に知覚される。すなわち、第1の映像の視点は、エージェント座標系で定められる点である。エージェントの視点の変更は、対象である何らかのCGと仮想視点との相対的変位にて、観察者に知覚させることができる。
たとえば、観察者が遠隔空間にて他者とコミュニケーションを図る用途では、タスクを行う空間に関する第1の映像は、観察者のアバターの視点等から観察者に提示される。このときの観察者の視点は、アバターの視点と実質的に同一に知覚される。すなわち、第1の映像の視点は、アバターの有する撮像装置の視点である。アバターの視点の変更は、対象である遠隔地の何らかの物体や対話の相手等と遠隔視点との相対的な変位にて、観察者に知覚させることができる。
これにより、本発明の表示装置を用いると、操作者(観察者)は、第1の映像を生成する視点と、第1の映像上に表示される対象との相対変位から、自己の第1の映像空間における位置、変位を知覚することができる。これにより、操作者は、あたかも第1の映像を生成する視点の存在する空間内で移動している感覚を得ることができる。
本発明の表示装置の第2の映像は、第1の映像上で変位する対象の変化とは区別される必要があるので、これらと空間的、あるいは時間的に異なる変化をする要素に関する。第2の映像は、より好ましくは、第1の映像よりも通信や表示や表示にかかる計算等の負荷が小さく、遅延が小さいように構成されていることが望ましい。
要素とは、第1の映像における視点の変位の情報を表現する形状、模様、色彩のうちの少なくともひとつを有するものである。第1の映像に表示される種々の対象の変化と区別がつけば、これに限られない。より好ましくは、要素には、シンボル、パターン、テクスチャー、グラデーション、ハッチングパターン、ランダムドットパターンの少なくとも一つを用いることが望ましい。
要素は、その形状、模様、色彩、あるいは形状、模様、色彩のうちの少なくともひとつの位置、動き、速度、表現のうち少なくともひとつを変化させることで、第1の映像とは区別された情報を表現し、操作者に伝達する。
要素の時間的あるいは空間的な変化は、第1の映像上の対象の空間的な変化と区別される必要がある。本発明の一つの形態では、要素の位置の変化を表現する変位である。本発明の別の形態では、要素のサイズの拡大あるいは縮小である。本発明の別の形態では、要素の色彩の変更である。本発明の別の形態では、表現の変化、すなわちたとえば要素の点滅、これに伴う仮現運動(アニメーション)の生成である。第1の映像上の対象の空間的な変化と区別可能な変化であれば、これらの形態に限られない。
第2の映像が要素の変化や変化率によって表現するのは、操作者の視点に変わる遠隔空間あるいは仮想空間の視点の変位に関する情報であって、そのスケール(縮尺)には視点の存在する空間のスケールを用いる。第2の映像の要素の変化や変化率のスケールは、第1あるいは第2の映像の表示スケールとは独立している。
言い換えれば、第2の映像の要素の変化や変化率は、視点の存在する空間のスケール(たとえば距離)を変数とする関数で表現できる。一方、第2の映像の要素の変化や変化率のスケールは、第1あるいは第2の映像の表示スケールに関しては(たとえば表示装置が画素を有していればその画素単位で)正規化されている。
第1の映像上の対象の変位の情報のスケールは、視点の存在する空間における視点の変位の空間的・時間的スケールとは異なる。これは、第1の映像生成の過程で、第1の視点の存在する空間の3次元情報が、2次元情報に変更されるとともに、表示倍率等、対象の大きさ感に関わる情報が変更されるためである。あるいは、第1の映像生成の過程で、第1の映像は通信遅延や表示遅延や計算遅延を含むためである。
このため、視点の変位のスケールが第1もしくは第2の映像の表示スケールに依存していると、操作者は正しい(視点の存在する空間における)スケールにて変位の情報を知覚できない。言い換えれば、正しい情報が保証されない。もし、第1もしくは第2の映像の表示スケールが拡大されたり縮小されたりするのに伴って、第2の映像上の要素の変化や変化率のスケールが変更されると、操作者は正しいスケールにて変位の情報を取得できない。
より好ましくは、第1の映像の表示スケールが、この映像を生成する視点の存在する空間における視点の変位に関する情報のスケールと実質的に等倍であることが望ましい。仮にそうであっても、その対象周辺の映像上での表示スケールは、映像生成の過程で歪む。したがって、第2の映像の要素の変化もしくは変化率のスケールは、第1の映像の表示スケールではなく、第1の映像の視点の存在する空間のスケールを用いて特定される必要がある。そうすると、操作者は正しいスケールにて視点の変位の情報を得られる。
したがって、第2の映像の要素の変化もしくは変化率のスケールは、第1もしくは第2の映像の表示スケールとは独立であるとともに、視点の存在する空間における該視点の変位に関する情報のスケールとは所定の関係を有する。
視点の変位に関する情報は、第1の映像において操作者(観察者)の実空間での視点に変えて用いられる遠隔あるいは仮想視点の移動の情報を有するものである。本発明の別の形態では、視点の変位に関する情報は、視点の速度の情報である。
なお視点の存在する空間とは、視点が遠隔の実空間を撮像していれば実空間、視点が仮想的なものであれば仮想空間を表す。仮想空間も、要素の変化もしくは変化率のスケールが参照すべき(操作者に知覚されるべき)真のスケールをもっているという意味で、以下、実空間と表現する場合がある。
たとえば、第1の映像が縮小されて表示されている場合、第1の映像上の対象の変位は、実空間の視点の変位のスケールとは当然異なる。この場合に本発明では、第2の映像の要素は、映像上の変位スケールではなく、実空間の変位スケールによって変化する。この実空間の変位スケールを有しているのが、第1の映像を生成する視点の変位に関する情報である。
視点の変位に関する情報は、視点の存在する空間スケールでの速度の情報として用いることができれば良く、たとえば、加速度、加加速度(躍度)、変位時間、等の情報であっても構わない。
第2の映像を構成する要素の変化あるいは変化率は、第2の映像が視点の変位に関する情報の絶対値を表現していない。ただし変化がない場合は除く。すなわち、視点の変位をそのまま表現するか、もしくは視点の変位の変化率を表現することを示している。
これにより、従来、操作者は、たとえば移動体の速度の情報を絶対値で提示されていたところ、本発明によれば、速度の情報を体感として、身体情報として、オプティック・フロー(光の流れ)の情報のまま、直感的に知覚できる。
視点の変位に関する情報が変位であれば、第2の映像は、その変化率である速度の情報を要素の変化で表現することで、操作者に直感的な速度の情報を伝達する。視点の変位に関する情報が速度であれば、第2の映像は、それを要素の変化で表現することで、操作者に直感的な速度の情報を伝達する。より好ましくは、変位の方向は、第1の映像のオプティック・フローの方向と実質的に同一であることが望ましい。オプティック・フローに関しては後述する。
所定の関係は、第1の映像を生成する視点の存在する空間スケールでの視点の変位と、第2の映像の要素の変化あるいは変化率との関係を規定する。
本発明の一つの形態では、所定の関係は、第1の映像を生成する視点の存在する空間スケールに対して所定の比率を用いて特定される。また所定の比率は視点の存在する空間のスケールでの速度に対して実質的に等倍の場合もあるし、変化する(異なる)場合もある。所定の関係は、たとえば非線形の関係、離散的な関係となる場合もある。さらに、操作者の特性に合わせて経時的に変化しても構わない。
本発明の一つの形態では、所定の関係は、操作者のパラメーターを特定する手段により特定される。この手段は、本発明にかかる表示装置の製造時に基本パラメーターを特定するものであってもよい。この手段は、ユーザー(操作者あるいは観察者)が、自ら設定もしくは調整可能なものであってもよい。
操作者のパラメーターの決定手段とは、操作者の特性をたとえば実験的な手段、あるいは統計的な手段により特定するものである。操作者の特性は、操作者がたとえば遠隔操作ロボット、仮想エージェント、アバター等の操作対象の運動の純粋な予測に基づき特定される。操作者による操作対象の動きの知覚、予測に関するパラメーターを取得すれば、本発明は実施可能である。
たとえば、操作者のパラメーターの決定手段を以下に説明する。この手段では、操作者の予測に関するパラメーターを取得できる。
決定手段は、操作者による操作が可能な操作対象と、操作対象の操作の目標位置あるいは目標運動等を示すターゲットと、表示部材と、を備える。
決定手段は、操作者がターゲットおよび操作対象の少なくとも一部の動作(運動)過程を目視できないように、かつ、表示部材の表示する映像を目視可能にするマスクを備える。マスクは、任意のタイミングで一時的に操作対象の動作を隠してもよいし、本発明の表示装置の製造時にのみ隠すようにしてもよい。前者は、たとえば本発明の表示装置において電子的に第1の映像のみ隠すように構成してもよいし、ソフト的にマスク映像を表示してもよいし、撮像装置の絞りによってもよいし、別体のマスクを用いてもよい。表示部材として、本発明の表示装置そのものを用い、本手段で調整してゆくこともできる。
決定手段は、操作者が表示部材からの映像に基づいて操作対象を前記ターゲットに向けて変位させるタスクを計測する。たとえば、到達位置と前記ターゲットとの誤差を計測する。この計測の計測部としては、本発明の表示装置を含むシステムの撮像装置や、本発明の表示装置外部の撮像装置や、その他の計測装置を用いて実施することができる。
決定手段は、取得された誤差を用いて、所定の関係を特定する。この特定には、複数の取得結果を用いた統計的な手法や、数学的な手法や、その他の手法を用いることができる。完全に統計あるいは数学的な手法によらなくても、決定手段に予め記録された経験則に基づく調整が一部含まれていても構わない。その経験則には、別の実験や個人的な好みや能力、心理的な法則等に基づくものが含まれるが、いずれも本発明の表示装置(その内部の制御部)で数値的に表現され、反復可能な形態で用いられる。
決定手段は、上記の様々な手段により表示部材に表示される映像の少なくとも一部の変化を特定して、その結果を本発明の表示装置に記録する。以上により、操作者の純粋な予測にかかわるパラメーターが決定できる。
より好ましくは、第2の映像の要素は、所定の関係により規定された変化もしくは変化率で表示されるとともに、透過され、第1の映像に重畳させることが好ましい。あるいは、第1、第2の映像の表示領域は分割され、すなわち各々一部の領域に表示され、第1の映像は本発明の表示装置の表示面の中心を含む領域に表示されることが望ましい。
本発明の別の実施形態は、撮像装置を備えた移動体と、移動体の操作装置と、操作者に移動体に関する映像を表示する表示装置と、前記映像を制御する表示制御部と、を有する移動体制御システムである。撮像装置は、移動体の外界における第1の方向の第1の映像を撮像し、第2の映像は、前記第1の方向と交差する第2の方向の情報を含むことを特徴とする。
本発明の別の実施形態は、撮像装置を備えた移動体である。撮像装置は、移動体の操作者が観察可能な移動体の外界における第1の映像を撮像し、第1の映像とともに移動体の操作者が観察可能な第2の映像は、第1の映像上で変位する対象とは空間的あるいは時間的に異なる変化をする要素を含む。また、移動体の変位に関する情報と、要素の変化もしくは変化率と、は所定の関係を有することを特徴とする。
本発明の別の実施形態は、表示装置の製造方法である。製造方法は、以下の工程を含む。すなわち、はじめの工程では操作者による操作が可能な操作対象と、前記操作対象の操作の目標を示すターゲットと、表示装置を用意する。次の工程では、操作者がターゲットおよび操作対象の少なくとも一部の動作過程を目視できないように、かつ、表示装置の表示する映像を目視可能に構成されたマスクと、を用意する。次の工程では、操作者が表示装置からの映像に基づいて操作対象をターゲットに向けて変位させ、到達位置とターゲットとの誤差を計測する。次の工程では、誤差を用いて、表示装置に表示される映像の少なくとも一部の変化を特定する。
本発明の別の実施形態は、映像の表示方法である。表示方法は、以下の工程を含む。すなわち、はじめの工程では操作者による操作が可能な操作対象と、前記操作対象の操作の目標を示すターゲットと、表示装置を用意する。次の工程では、操作者がターゲットおよび操作対象の少なくとも一部の動作過程を目視できないように、かつ、表示装置の表示する映像を目視可能に構成されたマスクと、を用意する。次の工程では、操作者が表示装置からの映像に基づいて操作対象をターゲットに向けて変位させ、到達位置とターゲットとの誤差を計測する。次の工程では、誤差を用いて、表示装置に表示される映像の少なくとも一部の変化を特定する。
(第1の実施例)
以下、本発明に係る第1の実施例について、添付の図面を参照しながら詳細に説明する。図1は、本発明の第1の実施例に係る移動体制御システムの概念図である。
以下、本発明に係る第1の実施例について、添付の図面を参照しながら詳細に説明する。図1は、本発明の第1の実施例に係る移動体制御システムの概念図である。
(システム)
移動体制御システム100は、移動ロボット(移動体)11、ホストコンピュータ(外部処理装置)12、ヘッドマウントディスプレイ(表示装置)13、コントローラ(操作装置)14と、を含む。
移動体制御システム100は、移動ロボット(移動体)11、ホストコンピュータ(外部処理装置)12、ヘッドマウントディスプレイ(表示装置)13、コントローラ(操作装置)14と、を含む。
(移動体)
本実施例で説明する操作(観察)対象としての移動ロボット11は、車輪である移動機構113を用いて平面上を移動する。本実施例で例示するような移動機構とは異なる機構や方式を用いても、本発明は実施可能である。また、本発明に係る移動ロボットが、移動以外の機能を備えていてもよい。たとえば、マニピュレータ等を有し、操作者によって操作可能に構成されていてもよい。あるいは、自動で掃除を行う、等の付加的な機能を有していてもよい。
本実施例で説明する操作(観察)対象としての移動ロボット11は、車輪である移動機構113を用いて平面上を移動する。本実施例で例示するような移動機構とは異なる機構や方式を用いても、本発明は実施可能である。また、本発明に係る移動ロボットが、移動以外の機能を備えていてもよい。たとえば、マニピュレータ等を有し、操作者によって操作可能に構成されていてもよい。あるいは、自動で掃除を行う、等の付加的な機能を有していてもよい。
(視線カメラ)
移動ロボット11は、視線カメラ(撮像装置)110を2つ有する。視線カメラ110は、それぞれの位置、角度、アライメント等を調整された状態で取り付けられる。
移動ロボット11は、視線カメラ(撮像装置)110を2つ有する。視線カメラ110は、それぞれの位置、角度、アライメント等を調整された状態で取り付けられる。
視線カメラ110は、移動ロボット11の外界において、方向F(第1の方向)の外界の映像(第1の映像)をステレオにて撮像する。方向Fは、移動ロボット11の前進方向にあたる。すなわち、視線カメラ110の各光軸OAが前進方向を向く。なお、本実施例においてはステレオ映像を取得する例を説明するが、視線カメラ110は単数であっても、2つ以上あっても本発明は実施可能である。
(速度カメラ)
移動ロボット11は、速度カメラ111をさらに有する。本実施例において速度カメラ111は、移動ロボット11の側面に取り付けられる。速度カメラ111の光軸(不図示)の向きは、鉛直下向きの方向(第2の方向、移動ロボット11の自重が床面Gに力を加える方向、第1の方向と直交する方向)Uの向きである。すなわち、速度カメラ111は、移動ロボット11の走行する面(床面G)の映像を、その面の法線方向から撮像する。
移動ロボット11は、速度カメラ111をさらに有する。本実施例において速度カメラ111は、移動ロボット11の側面に取り付けられる。速度カメラ111の光軸(不図示)の向きは、鉛直下向きの方向(第2の方向、移動ロボット11の自重が床面Gに力を加える方向、第1の方向と直交する方向)Uの向きである。すなわち、速度カメラ111は、移動ロボット11の走行する面(床面G)の映像を、その面の法線方向から撮像する。
速度カメラ111は、生成された視線映像の視点に対して相対的に変位する対象の実空間での変位に関する情報(変位の変化率である速度の情報)に対して、所定の関係(所定の比率)で変化(変位)する映像(第2の映像)を撮像する。なお、実空間の変位(の速度)は、視線映像上における前記対象の変位(の速度)とは異なる。詳細は後述する。
(カメラの取り付け方向)
本実施例においては、速度カメラ111が鉛直下向きに取り付けられた(固定された)例を説明する。しかし後述のように、方向Fと交差する向きであれば本発明の効果を得られる。
本実施例においては、速度カメラ111が鉛直下向きに取り付けられた(固定された)例を説明する。しかし後述のように、方向Fと交差する向きであれば本発明の効果を得られる。
あるいは、視線カメラ110と速度カメラ111との光軸が平行となる向きであっても本発明の効果を得ることができる。すなわち、速度カメラ111の画角が大きく、視線カメラ110の方向Fと交差する方向の映像が撮像できればよい。より好ましくは、速度映像は、操作者(観察者)から見た速度映像の鉛直上側が、視線カメラ110の進行方向Fと一致して取得されるように、速度カメラ111が構成されていることが望ましい。このようにすることで、速度映像からは視線映像と実質的に同一の向きのオプティック・フローを得ることができる。
より好ましくは、方向Fと速度カメラ111の撮像方向とは、その交差角のうち小さい方の角の角度が80度から110度の範囲にあればよい。さらに好ましくは、この角度が取り付け等の誤差を含み実質的に90度になるように取り付けられることが望ましい。
視線カメラ110が可動の場合は、視線カメラ110の基準位置がこの関係を満たしていればよい。交差角が視線カメラ110の動作によって変動し、視線カメラ110と速度カメラ111との光軸が平行となる向きとなっても構わない。
(操作方法)
操作者Oは、ヘッドマウントディスプレイ13を頭部に装着する。操作者Oは、ヘッドマウントディスプレイ13を介して視線カメラ110からの映像を観察する。
操作者Oは、ヘッドマウントディスプレイ13を頭部に装着する。操作者Oは、ヘッドマウントディスプレイ13を介して視線カメラ110からの映像を観察する。
映像信号は、ホストコンピュータ12から、ヘッドマウントディスプレイ13に送信される。本実施例ではヘッドマウントディスプレイ13とホストコンピュータ12の通信を有線にて行うが、無線等、その他の方式を利用しても構わない。
操作者Oは、コントローラ14を把持する。操作者Oは、コントローラ14の操作により、ホストコンピュータ12を介して移動ロボット11に所望の操作信号を送信する。これにより、操作者Oは、移動ロボット11を操作できる。本実施例では、コントローラ14とホストコンピュータ12とは無線接続されているが、構成はこれに限られない。
(通信方法)
移動ロボット11は、通信装置(ゲートウェイ)112を備える。本実施例では移動ロボット11の外部に通信装置112が構成された例を説明する。しかしながら、通信装置が移動ロボット11の内部に(一体的に)設けられる構成でも本発明は実施可能である。
移動ロボット11は、通信装置(ゲートウェイ)112を備える。本実施例では移動ロボット11の外部に通信装置112が構成された例を説明する。しかしながら、通信装置が移動ロボット11の内部に(一体的に)設けられる構成でも本発明は実施可能である。
通信装置112は、視線カメラ110および速度カメラ111から移動ロボット11の情報を取得し、ホストコンピュータ12に送信する。また、通信装置112は、ホストコンピュータ12から、操作者Oの無線方式の操作信号を受け取り、移動ロボット11に送信する。なお、通信装置112は、コントローラ14から直接信号を受け取っても構わない。
移動ロボット11の移動の制御は、操作信号に基づいて、通信装置112あるいは移動ロボット11の備える駆動制御部(不図示)で実行される。本実施例では駆動制御部(不図示)は移動ロボット11の内部に構成されているが、駆動制御部としての機能をホストコンピュータ12に持たせても、通信装置112にもたせても構わない。
(表示制御部)
ホストコンピュータ12は、表示制御部120を有する。表示制御部120は、ヘッドマウントディスプレイ13に表示される映像に関する処理を実行する。なお、移動ロボット11やヘッドマウントディスプレイ13が表示制御部120を(一体的に)有する構成でも構わない。
ホストコンピュータ12は、表示制御部120を有する。表示制御部120は、ヘッドマウントディスプレイ13に表示される映像に関する処理を実行する。なお、移動ロボット11やヘッドマウントディスプレイ13が表示制御部120を(一体的に)有する構成でも構わない。
(表示装置)
図2は、図1のヘッドマウントディスプレイ13にから操作者Oに映像を表示可能な表示面130を示した概念図である。また図2は、表示面130に表示される外界の風景映像の一例を示す。
図2は、図1のヘッドマウントディスプレイ13にから操作者Oに映像を表示可能な表示面130を示した概念図である。また図2は、表示面130に表示される外界の風景映像の一例を示す。
本実施例における図1のヘッドマウントディスプレイ13は、両眼立体視に対応している。本実施例では、図1の操作者Oの左目および右目のそれぞれに映像を提示する表示面が設けられており、図1の2台の視線カメラ110のそれぞれに対応する映像が表示されている。図2で示す表示面130は、左右に2つ設けられたうちの1つである。
この構成により、図1の操作者Oは視差のある映像を観察できる。なお、1つの表示面を2つの領域に分割して、両眼立体視の映像を提示する方式でも構わない。また、本実施例では2台の視線カメラ110を構成した例で説明するが、これを1台として、ホストコンピュータ12等の処理装置にて適切な視差を有する映像を生成しても構わない。
(視線映像)
以下、図2に示すような操作者が視認する外界の風景の映像を、視線映像と称する。操作者は、視線映像からの視覚フィードバックの情報をもとに、遠隔操作を行う。
以下、図2に示すような操作者が視認する外界の風景の映像を、視線映像と称する。操作者は、視線映像からの視覚フィードバックの情報をもとに、遠隔操作を行う。
表示面130には、中心近傍に対象物140が表示されている。対象物140の周辺には、非対象物141が表示されている。
対象物140は、タスク遂行に際して重要な情報をもつ。一般に操作者は、移動ロボット11を、表示面130の中心領域に対象物140を表示させるように適切に操作して、タスクに必要な所望の視覚フィードバックの情報を得る。非対象物141は、タスクの対象である対象物140に対して、背景に該当する。
(速度映像の原理)
以下、視線映像とは異なる付加的な映像を、速度映像と称する。速度映像に含まれる要素は、図1の移動ロボット11の移動に伴う視線カメラ110の視点の移動に対して、視線映像上で相対的に変位する対象物140の速度の情報と、空間的あるいは時間的に異なる変化をする。本実施例では、速度映像は、速度カメラ111が撮像する映像である。詳細は後述する。
以下、視線映像とは異なる付加的な映像を、速度映像と称する。速度映像に含まれる要素は、図1の移動ロボット11の移動に伴う視線カメラ110の視点の移動に対して、視線映像上で相対的に変位する対象物140の速度の情報と、空間的あるいは時間的に異なる変化をする。本実施例では、速度映像は、速度カメラ111が撮像する映像である。詳細は後述する。
本発明において空間的とは、要素の変化が2次元あるいは3次元的な変化を含むことを表現している。たとえば、対象物140の変位とは異なる変位をすること、すなわち、異なる速度や加速度での変位や、異なる形状あるいはサイズへの変化(拡大や縮小)を含んでいる。本実施例では、速度映像の要素は、その位置が表示面130上で平面的に変化することで、変位を表現する。
また、本実施例において時間的とは、要素の表現の変化が時間的(経時的)であることを含んでいる。時間的という表現は、たとえば、点滅、変色、これに伴う仮現運動の生成等を含んでいる。
以下、図3を参照しながら本発明の速度映像の原理について詳細に説明する。図3は、本発明の原理の説明図である。
(状況)
図3(a)は、視線カメラ110の視点(座標系Rの原点)が、移動ロボット(不図示)の移動に伴って、観察対象としてのオブジェクトTに速度1[m/s]で近づいている状況を示している。以下、この状況を用いて本発明の原理について述べる。
図3(a)は、視線カメラ110の視点(座標系Rの原点)が、移動ロボット(不図示)の移動に伴って、観察対象としてのオブジェクトTに速度1[m/s]で近づいている状況を示している。以下、この状況を用いて本発明の原理について述べる。
視線カメラ110は、対象物であるオブジェクトTを撮影している。図3(b)は視線カメラ110が取得(生成)した映像を示す。オブジェクトTは操作者(不図示)の注目対象であるから、表示面130のほぼ中央部に表示される。
図3(a)および図3(b)を用いて、視線カメラ110の視点に原点が固定された座標系Rをもとに、表示面130におけるオブジェクトTおよびその周囲の映像の変位について説明する。
なお本実施例では、視線カメラ110の視点は、視線カメラ110の有する光学系(レンズ群)の主点とし、これを用いて説明する。
視線カメラ110が、座標系RのX方向正の向きに移動する場合、座標系Rに対して、オブジェクトTはX方向負の向きに相対的に移動する。すなわち、オブジェクトTは視線カメラ110の視点に近づいてくるように相対的に変位する。変位するオブジェクトTの相対速度は、視線カメラ110の移動速度と等しくなる。このとき、表示面130では、オブジェクトTが拡大される(図3(d)の破線で示されるオブジェクトT‘も参照のこと)。
(オプティック・フロー)
視線映像からは、オプティック・フロー(オプティカル・フロー、光学的流動)が得られる。オプティック・フローは、映像から得られる光配列の流動の情報を含む。図3(b)においてオプティック・フローを概念的に矢印OFで示す。
視線映像からは、オプティック・フロー(オプティカル・フロー、光学的流動)が得られる。オプティック・フローは、映像から得られる光配列の流動の情報を含む。図3(b)においてオプティック・フローを概念的に矢印OFで示す。
本実施例では、オプティック・フローOFは、中央近傍(オブジェクトT近傍)からその外側に向かって、映像が空間的に変化(変位あるいは拡大)していくように操作者(不図示)に観察される。
通常、人間の肉眼で得られる実空間の風景のオプティック・フローは、このような映像化された風景から得られるオプティック・フローとは異なる。この一因は、映像が平面的な情報で人間に与えられるためである。また、前述した映像化の過程での情報の欠損に起因するためである。
オプティック・フローの差異は、映像を介して観察する空間の歪みや、距離感、変位量、速度、位置、パース等の狂いを生じ、ときに観察者に違和感を及ぼす。
(例示した状況でのオプティック・フロー)
視線カメラ110とオブジェクトTとの距離が近づくほど、視線映像上の(表示面130上の)オブジェクトTのサイズは大きくなる。
視線カメラ110とオブジェクトTとの距離が近づくほど、視線映像上の(表示面130上の)オブジェクトTのサイズは大きくなる。
同様に、視線カメラ110に対して手前側の位置に生じるオプティック・フローOFの流れ(変位量)は、奥側(オブジェクトT側)の位置に生じる流れよりも大きくなる。逆に、カメラに対して奥側の位置であるほど、オプティック・フローOFの流れは小さくなる。
オプティック・フローOFの流れの大きさは、オプティック・フローOFの起点である視線カメラ110と、実空間上での任意の対象との距離に依存する。しかしながら、オプティック・フローOFは、その大きさにかかわらず同一の時間スケールの中で生じる。
したがって、オプティック・フローOFの速度(変位の単位時間あたりの変化率)も、同様に、視線カメラ110に対して手前で大きく、奥で小さくなる。
オプティック・フローや速度の情報は、移動ロボット11の位置、速度の推定に利用される重要な情報のひとつである。操作者(不図示)は、速度の情報を、自己(図1の移動ロボット11)の位置の推定を正確にするために用いることができる。操作者(不図示)は、視線映像から様々な速度の情報(運動の情報)を、視覚にて取得することになる。
(幾何関係)
図3(c)は、図3(b)のオプティック・フローOFの速度情報の大きさを推定するための幾何関係の説明図である。
図3(c)は、図3(b)のオプティック・フローOFの速度情報の大きさを推定するための幾何関係の説明図である。
図3(a)に示した視線カメラ110は、その内部に撮像素子1100、撮像レンズ群1101を保持している。なお、撮像レンズ群1101は図3(c)に示したように1枚の構成に限られない。図3(c)の撮像レンズ1101は、複数枚のレンズで構成されるレンズ群である場合、そのレンズ群を1枚のレンズとみなして(近似して)示したものである。
また、撮像レンズ1101と撮像素子1100の間隔は変動する場合がある。図3(c)では、これらの間隔が、ある基準状態にあることを示す。
撮像レンズ1101の内部に示した座標系Rの原点は、撮像レンズ1101の主点を示す。
いま、実空間でのオブジェクトTの高さを1[m]、オブジェクトTの根本にあたる位置をT0、オブジェクトTから撮像素子1100の側に1[m]の位置をT1とする。T0とT1の距離は、視線カメラ110がオブジェクトTに向かって速度1[m/s]で移動した際の、座標系RにおけるオブジェクトTの(相対)速度ベクトルVの大きさに当たる。
また、座標系Rの原点から、オブジェクトTの移動前の位置T0までの距離は3[m]、撮像レンズ1101と撮像素子1100の間隔は0。1[m]とする。
以上の状況では、速度ベクトルVの大きさは、撮像素子1100上に0。015[m]で投影される。また、オブジェクトTの大きさは0。03[m]で投影される。
(オプティック・フローの大きさ推定)
図3(d)は、図3(a)の視線カメラ110が取得したオブジェクトTの映像サイズが1[m]となるように拡大した図である。
図3(d)は、図3(a)の視線カメラ110が取得したオブジェクトTの映像サイズが1[m]となるように拡大した図である。
オブジェクトTと同様の倍率で速度ベクトルVを拡大すると、その大きさは約0。46[m]になる。これは、1[s]後にはオブジェクトTがオブジェクトT‘の位置に0。46[m]変化(変位および拡大)することを示す。つまり、位置の変化の単位時間あたりの変化率であるオブジェクトTのオプティック・フローは速度0。46[m/s]である。
したがって、操作者(不図示)がオブジェクトTを注視していたとき、オプティック・フローは、実空間での視線カメラ110の速度1[m/s]とは当然異なる。通常、実空間では、人間は様々な奥行き情報を知覚できるから、このことに違和感を覚えない。
(視線映像による実空間推定)
しかし、移動ロボット11の制御においては、操作者Oは、表示面130上に表示された平面的な映像を用いる。つまり、操作者(不図示)は、奥行き情報が欠損した表示面130の平面的な視線映像から、移動ロボット11の速度、変位量、位置等を推定しなければならない。すなわち、上述の例では、表示面130のオブジェクトTのオプティック・フロー0。46[m/s]から、移動ロボット11の変位量1[m/s]を推定しなければならない。
しかし、移動ロボット11の制御においては、操作者Oは、表示面130上に表示された平面的な映像を用いる。つまり、操作者(不図示)は、奥行き情報が欠損した表示面130の平面的な視線映像から、移動ロボット11の速度、変位量、位置等を推定しなければならない。すなわち、上述の例では、表示面130のオブジェクトTのオプティック・フロー0。46[m/s]から、移動ロボット11の変位量1[m/s]を推定しなければならない。
さらに前述のように、映像からは、奥行き情報の欠損以外にも様々な影響が生じている。したがって、映像から得られるオブジェクトTのオプティック・フロー0。46[m/s]は、実空間で得られるものと異なる量や性質を示している場合がある。
したがって、視線映像からの種々の推定は困難であり、違和感がある。
しかし人間は、奥行き情報が大幅に失われた平面的な視線映像からでも、高精度な速度(移動量、位置)の推定が可能になるメカニズムを有している。たとえば複数の平面的な奥行き情報手がかり(陰影、空気透視、絵画的手がかり、遮蔽、遠近法、運動視差、等)を柔軟に用いることができる。またたとえば、視覚フィードバックのメカニズムを用いることができる。
しかしながら、推定能力の習得には労力がかかる。本発明は、この習得にかかる労力を減じようとすることも目的としている。
なお、本実施例のように両眼立体視の原理を用いて奥行き情報を付加して、推定の精度を上げることができる。しかしながら、本発明を用いれば更に、推定の精度を向上させることできる。
(速度映像を生成する構成)
図4は、本発明における速度情報(運動情報)取得のメカニズムの説明図である。
図4は、本発明における速度情報(運動情報)取得のメカニズムの説明図である。
いま、再び以下のように座標系Rを説明する。すなわち、移動ロボット11(視線カメラ110の視点)に固定された座標系Rにおいて、X軸の正の方向を移動ロボット11の前進方向と定める。また、Y軸の正の方向を移動ロボット11の左折方向と定める。Z軸の正の方向を移動ロボット11の床面G(移動面)から、移動ロボット11に作用する力(自重に対する抗力N)の方向と定める。
前述したように、本実施例における速度カメラ111は、座標系RにおけるX軸正の方向に対して実質的に90度で交差しており、座標系RにおけるZ軸負の方向(鉛直下向き)を向いて取り付けられている。すなわち、移動ロボット11の移動機構113が接触する床面Gを、座標系RにおけるZ軸負の方向に向かって撮像できる。
(床面のオプティック・フロー)
速度カメラ111が取得する映像は、床面Gのオプティック・フローを含む。このオプティック・フローの流れの単位時間あたりの大きさ(速度)は、速度カメラ111と床面Gとの相対速度に等しい。すなわち、速度カメラ111が取得する床面Gの速度映像に含まれる速度情報は、移動ロボット11の並進速度情報と等しい。
速度カメラ111が取得する映像は、床面Gのオプティック・フローを含む。このオプティック・フローの流れの単位時間あたりの大きさ(速度)は、速度カメラ111と床面Gとの相対速度に等しい。すなわち、速度カメラ111が取得する床面Gの速度映像に含まれる速度情報は、移動ロボット11の並進速度情報と等しい。
以下、速度カメラ111が生成する速度情報を、移動ロボット11の速度情報と等しいという意味で、正規速度情報OFGと称する。本実施例では、速度情報として正規速度情報OFGを用いる構成を説明する。
なお、速度情報は、正規速度情報OFGを用いて、所定の比率により変換された速度情報も含む。本実施例は、正規速度情報OFGを実質的に等倍となる比率で用いることに該当する。
床面Gには、一般にパターンやグラデーション等の要素が含まれる。図5(a)(b)は、床面Gから得られる正規速度情報OFGを説明する図である。図5(b)の矢印OFGは、正規速度情報OFGの流れる方向と大きさを示す。
正規速度情報OFGの流れる方向は、移動ロボット11の進行方向と逆方向である。すなわち、座標系RにおけるX軸負の方向である。実際の正規速度情報OFGは、床面GからのパターンGPの流れで表現される。
図5(a)には、パターンGPを模式的に示している。実際には、床面Gの模様、輝度の変化、移動体の陰影等がパターンを形成することになる。言い換えると、床面Gの模様に依存せず、床面Gは何らかのパターン等の要素を有しているので、床面Gからは何らかの正規速度情報OFGの情報を得られる。たとえばマット等を敷設して、パターン要素を直接床面Gに設けても本発明は実施可能である。
(オプティック・フローの付加)
本実施例では、速度カメラ111から生成される正規速度情報OFGの情報を速度映像として、操作者(不図示)の観察する視線カメラ110の映像に付加する。この際、付加される速度の情報は、正規速度情報OFGと、移動ロボット11の実空間での速度とが、所定の関係を有するように構成されている。本実施例では、付加される速度の情報が、移動ロボット11の実空間での速度と実質的に等倍の比率となるように所定の関係を特定する。
本実施例では、速度カメラ111から生成される正規速度情報OFGの情報を速度映像として、操作者(不図示)の観察する視線カメラ110の映像に付加する。この際、付加される速度の情報は、正規速度情報OFGと、移動ロボット11の実空間での速度とが、所定の関係を有するように構成されている。本実施例では、付加される速度の情報が、移動ロボット11の実空間での速度と実質的に等倍の比率となるように所定の関係を特定する。
所定の関係を実質的に等倍とするために、本実施例では、速度カメラ111の撮像画角が、図1のヘッドマウントディスプレイ13に表示される映像の画角(表示画角)と等しくなるように構成する。すなわち、光学系(視線カメラ110、図1のヘッドマウントディスプレイ13等が有する光学部品、その制御部品、それらの設定等)が所定の要件を満たすように公知の方法で構成する。
一般に、撮像画角と表示画角とが等しければ、操作者(不図示)は実空間スケールのオブジェクトTと、映像上のオブジェクトTとの大きさを、実質的に同等に認知できる。なお、映像上の対象の大きさの認知のされ方は、様々な要因によって左右される。大きさを完全に一致させるには、操作者の映像観察位置や、視線カメラ110とオブジェクトTとの距離、撮像光軸と表示光軸の一致、像高比、等を統制する必要があるが、説明は省略する。
図5(b)は、操作者Oが観察する視線映像に速度映像を付加した状態を示す。本実施例において、操作者は図5(b)の映像を、図1のヘッドマウントディスプレイ13を介して観察する。
また、本実施例の速度映像は、その透過率を操作され、速度カメラ111の生成した映像が半透明となるように構成されている。半透明の速度映像は、視線カメラ110の映像に重畳される。この付加の処理は、図1のホストコンピュータ12に設けられた表示制御部120にて実行される。
ここで半透明とは、透過率が50%である場合に限られない。透過率は、経時的に変調されても構わない。また、速度映像の付加の方式は重畳に限られず、速度情報をトリミングして視線映像に組み込む等他の形態でも構わない。速度映像の付加については、後の実施例2の説明で述べる。
(制御方法)
図6は、表示制御部120が、視線映像に速度映像を付加(重畳)する制御方法としての処理方法の流れを示すフローチャートである。表示制御部120は、コンピュータ・プログラムとしての制御プログラムにしたがって、本処理を実行する。
図6は、表示制御部120が、視線映像に速度映像を付加(重畳)する制御方法としての処理方法の流れを示すフローチャートである。表示制御部120は、コンピュータ・プログラムとしての制御プログラムにしたがって、本処理を実行する。
表示制御部120は、図1の移動ロボット11(の視線カメラ110、ホストコンピュータ12、コントローラ14、等)の起動に応じて、その処理を開始する。
ステップ151において、表示制御部120は、視線カメラ110からの視線映像を取得し、ステップ152に進む。たとえば、ステップ151において、撮像画角が表示画角と異なる場合には、視線映像から表示画角に対応する範囲をトリミングする処理を含んでも構わない。
ステップ152において、表示制御部120は、速度カメラ111からの速度映像を取得し、ステップ153に進む。
ステップ153において、表示制御部120は、予め設定された透過率となるように、速度映像の透過性を調整する。たとえば、視線カメラ110の周囲の環境から得られる情報を加味して、透過率を調整する処理が含まれても構わない。たとえば、周囲の環境が明るいときは、速度映像の透過率を下げて視認性を向上させ、正規速度情報OFGを強調する方が効果的な場合もある。そののち、表示制御部120はステップ154に進む。
ステップ154において、表示制御部120は、視線映像と、透過率を調整された速度映像とを、視線カメラ110および速度カメラ111を同期させ、重畳させる。同期の方法は、たとえば、視線カメラ110と速度カメラ111との時間情報を、ホストコンピュータ12の時間情報と動悸させる方法を用いてもよい。そののち、表示制御部120はステップ155に進む。
ステップ155において、表示制御部120は、速度映像に視線映像が重畳された合成映像を、ヘッドマウントディスプレイ13に送信する。このとき、通信制御部(不図示)を介しても構わない。そののち、表示制御部120はステップ156に進む。
ステップ156において、表示制御部120は、移動ロボット11あるいはヘッドマウントディスプレイ13、の電源がOFFされていないかを判断する。OFFされていない場合には、上記の処理を繰り返す。
(効果)
本実施例は、操作者Oが、床面Gからの正規速度情報OFGを、視線映像とともに、直接的に視認できる作用を奏する。したがって、視線映像に含まれる対象の距離感やサイズ感、パース感、等に狂いが生じていたとしても、速度情報を速度映像から補い、移動ロボット11の位置、変位量、速度等の推定に用いることができる。
本実施例は、操作者Oが、床面Gからの正規速度情報OFGを、視線映像とともに、直接的に視認できる作用を奏する。したがって、視線映像に含まれる対象の距離感やサイズ感、パース感、等に狂いが生じていたとしても、速度情報を速度映像から補い、移動ロボット11の位置、変位量、速度等の推定に用いることができる。
したがって、移動ロボット11の位置、変位量、速度等の推定の精度を向上させることができる効果を奏する。
仮に、視線映像に数字や文字や記号で表現される速度の値の表示があっても、値と映像の変化との対応関係を習得しなければ、移動ロボット11に関する推定できない。
具体的には、たとえば自動車の速度メーター等の従来の速度の値を表示する方法は、実空間の速度が1[m/s]であっても、映像上の速度は必ずしも1[m/s]ではない。このため、数値で表現された速度と、映像上の速度と、実際の速度との対応関係を習熟しなければならない。
また、数値での速度の表示は、ある時刻での速度の値のみを示すものである。本発明の速度映像は、ある時間的な区間での対象の位置の変化率を、その要素の変化によって表現するものである。この観点でも、本発明は、速度メーター等の従来の速度の表示の方法とは異なり、前述の効果を奏するものである。
すなわち本発明では、実空間である移動ロボットが作業する環境の映像に、移動ロボットの速度の情報を、実空間と一致、あるいは所定の関係により特定されたスケールで提示する。
したがって、視線映像上で観察される速度の情報は、奥行き等の情報の大部分が損なわれているため、速度の推定が困難であるところ、本発明は、その情報を実空間のスケールの方法にて補充する効果を奏する。つまり、速度を直感的に提示する効果を奏する。これにより、操作難易度の軽減・操作の効率化に寄与する。
すなわち、映像上のスケールと実空間のスケールとの差異に関しする習熟の敷居を低下させ、容易に移動ロボットを操作できる。
(その他の実施形態)
(カメラの取り付け)
本実施例では、速度カメラ111が、移動ロボット11の前進方向(視線カメラ110の撮影方向)に対して実質的に直交して、鉛直下向きに取り付けられた例を説明した。
(カメラの取り付け)
本実施例では、速度カメラ111が、移動ロボット11の前進方向(視線カメラ110の撮影方向)に対して実質的に直交して、鉛直下向きに取り付けられた例を説明した。
この構成により、視線カメラ110と床面Gとの距離は、移動ロボット11の移動に際して、実質的に一定に保たれる。視線カメラ110と床面Gとの距離は、車輪113によって規定される。したがって、大きさの変動の少ない、また、明るさ等の変動の少ない、安定した正規速度情報OFGを取得できる。
しかしながら、速度カメラ111の取り付け姿勢はこれに限られず、たとえば、壁面や天面からも、正規速度情報OFGを検出できる。
すなわち、図4の座標系RにおけるY軸正、あるいは負の方向、Z軸正の方向を向くように、速度カメラ111を取り付けることができる。たとえば、移動ロボット11が狭い空間を走行するケースでは、光源が、床面Gに当たりにくい状況が推測される。そうすると、パターンの変位に含まれる正規速度情報OFGが取得しにくい場合がある。しかしながら、本例のように速度カメラ111を配置すれば、環境光を良好に採取できる。したがって、明るさ等の変動の少ない、安定した正規速度情報OFGを生成することができる。
また、正規速度情報OFGとは若干異なる速度情報を与えることで、作業によい影響をもたらすとされる報告もある。すなわち、本発明では、正規速度情報OFGに対して、等倍以外の所定の関係で、正規速度情報OFGとは異なる速度の情報を有する速度映像が生成されるように構成できる。
たとえば、時間遅れが発生する系においては、あえて、実空間よりも小さいスケールで映像上のオプティック・フローを与えると、操作情報と遠隔操作ロボットの動作との時空間的な整合性が取れる場合もある。また、このような構成は、操作者に疑似触覚(Psuedo−haptics)という新たな情報を与える、という報告もなされている。
このように、所定の関係(比率)として、実質的に等倍以外の関係を用いることで、本発明にさらなる効果を付加できる。所定の関係は、たとえば、速度カメラ111の取り付け角度によって変更できる。あるいは、所定の関係が、表示制御部120によって変更されても構わない。所定の関係については、以下でさらに説明する。
また、本実施例では、床面Gから並進方向の速度の情報に関して安定した正規速度情報OFGを得られるが、回転(曲がる)方向の速度の情報については、並進方向に比べて不自然となる。すなわち、正規速度情報OFGのベクトルが時々刻々と回転していく。
この場合、図4の座標系RにおけるY軸正、あるいは負の方向を向くように速度カメラ111を取り付けることで、並進と回転で乖離の少ない正規速度情報OFGを取得できる。
(カメラ駆動)
また、本実施例では、速度カメラ110が、移動ロボット11の進行方向に対して、移動ロボット11の側面に固定された例を説明した。もちろん、速度カメラ111の固定位置はこれに限られない。
また、本実施例では、速度カメラ110が、移動ロボット11の進行方向に対して、移動ロボット11の側面に固定された例を説明した。もちろん、速度カメラ111の固定位置はこれに限られない。
速度カメラ111(および視線カメラ110)は、移動ロボット11に位置・姿勢を変更可能に保持されることもできる。たとえば、操作者Oが移動ロボット11を操作する際に、操作者Oの視線の向き(角度)と対応するよう(実質的に一致するよう)、速度カメラ111を回転可能に保持することができる。この回転は、駆動制御部(不図示)や表示制御部120やホストコンピュータ12等で駆動の制御をしてもよい。
このように構成することで、所定の関係が操作者Oの姿勢(視線)に合わせて変更できる。したがって、操作者Oは、姿勢の変化に応じて適切な速度情報を取得できる。
(カメラ画角)
また、広画角のカメラ(たとえば360度撮影可能なもの)が知られており、これを本発明の視線カメラ110、あるいは速度カメラ111として構成することができる。視線カメラ110としてこれを用いることで、視線カメラ110は正規速度情報OFGの検出部を兼ねることができる。
また、広画角のカメラ(たとえば360度撮影可能なもの)が知られており、これを本発明の視線カメラ110、あるいは速度カメラ111として構成することができる。視線カメラ110としてこれを用いることで、視線カメラ110は正規速度情報OFGの検出部を兼ねることができる。
すなわち、正規速度情報OFGを得るために、視線カメラ110とは別に速度カメラ111を設ける必要がなくなる。このことは、小型化・軽量化・部品点数の削減の観点で有利である。
(所定の関係)
本実施例では速度映像に表示される要素(パターン)の変化率の情報(変化速度の情報)と、視線映像の生成視点(視線カメラ110の主点)の変位に関する情報(速度情報)との所定の関係が、実質的に等倍の比率となるように構成した。
本実施例では速度映像に表示される要素(パターン)の変化率の情報(変化速度の情報)と、視線映像の生成視点(視線カメラ110の主点)の変位に関する情報(速度情報)との所定の関係が、実質的に等倍の比率となるように構成した。
いま、操作者Oが操作者Oの位置から、ヘッドマウントディスプレイ13を介して、視線映像を観察する際の肉眼の視点を現実視点とする。また、映像を取得している速度カメラ111(あるいは視線カメラ110)の位置から、仮想的に床面Gを観察する際の視点を、操作者Oの仮想視点とする。
本実施例で説明した設定の場合、操作者Oの仮想視点は、移動ロボット11の側面にて、鉛直下方向を向いている状況となる。この状態で取得できる速度情報は、確かに、移動ロボット11の速度とほぼ1:1で対応する正規速度情報OFGであるものの、この状態に起因して違和感が生じる場合もある。
つまり、現実視点(視線)と、速度カメラ111の仮想視点(視線)とが異なることに起因して、操作者Oに違和感がもたらされる場合がある。前述のように、正規速度情報OFGとは若干異なる速度情報を与えることで、作業によい影響をもたらすとされる報告もある。
そこで、所定の関係を変え、速度映像に含まれる要素の速度情報を変更することで、本発明のさらなる効果を得ることができる。
(所定の関係の決定手段)
本発明の所定の関係は、操作者のパラメーターを取得する手段により特定される。所定の関係を、たとえば、以下の方法で特定(あるいは評価)することができる。
本発明の所定の関係は、操作者のパラメーターを取得する手段により特定される。所定の関係を、たとえば、以下の方法で特定(あるいは評価)することができる。
本実施例では、操作者のパラメーターを取得する手段を表示装置とは独立に構成し、表示装置に搭載する速度映像の初期設定を行う例を説明する。
しかしながら、操作者のパラメーターを取得する制御装置(不図示)を表示装置に含めるように構成してもよい。すなわち、操作者がこの表示装置を用いて移動ロボットを操作する際に、制御装置が操作者のパラメーターを測定・変更し、速度変調をするように構成しても、本発明は実施可能である。操作者自身が、表示装置に構成された操作者のパラメーターを取得する手段を操作し、表示装置の初期設定を行っても構わない。
図7は、所定の関係を特定する手段の一例の説明図である。所定の関係は、その他の手法によっても決定可能である。しかし、本発明の所定の関係は、例示する方法によって得られる値と対応付けることができる(導出可能である)設定値を含む。
本方法のはじめの工程では、操作者Oによる操作が可能な操作対象16を用意する。操作対象は、図1の移動ロボット11と異なる構成でも、同じ構成でもよい。適切に運動が設定された、シミュレータ上の仮想の移動体でも構わない。より好ましくは、所定の関係を特定すべき移動体と、同じ構成、同じ機構を有することが望ましい。また、操作可能であれば、遠隔通信による操作でなくても、有線による通信操作や、マニピュレータを用いた操作でも構わない。
望ましくは、操作者Oが、コントローラ14等を介して、なるべく操作対象16からの視覚以外の情報を得られないように構成されていることが好ましい。たとえば、操作に際して抵抗感が大きかったり、抵抗感が可変であったりすると、触覚情報や力覚情報が得られる。これらの体性感覚に起因する情報は、遠隔操作の精度に影響を及ぼすと考えられるためである。
次の工程では、本方法のターゲットとしてのオブジェクトT、マスクM、表示部材17を用意する。
本方法においては、オブジェクトTと操作対象16との位置の誤差を計測して用いる。操作対象16には、操作対象16のある時点での位置を明示するマーカMKを取り付けておくことが好ましい。
オブジェクトTは、マスクM上に配置される。また、オブジェクトTの位置は、操作者Oから目視可能である。マスクMは、操作者Oに、操作対象16の動作過程の少なくとも一部を目視させないことを目的に配置される。本実施例では、操作者Oに操作対象16の動作序盤を目視させ、動作終盤(オブジェクトTの近傍)での動作を不可視とする。
より望ましくは、操作対象16の動作序盤の運動は、表示部材17の一領域や、ヘッドマウントディスプレイ(不図示)等を介して、映像(視線映像)として視認させることが好ましい。
また、目的に応じて、それ以外の視覚情報の提示をしても構わない。マスクM、オブジェクトTおよび操作対象16は、オブジェクトTが視認でき、操作対象16の動作過程の少なくとも一部を視覚的に遮蔽できていれば、どのように配置されても構わない。
マスクMの天面(法線方向が、座標系R2におけるZ軸正の方向と一致する面)には、表示部材17を配置する。表示部材17の表示面170は、マスクMとオブジェクトTとに挟まれている。表示部材17が、マスクMの役割を兼ねることもできる。
表示部材17は、本実施例のようにフラットパネルディスプレイでもよいし、本発明の表示装置を用いることもできる。より好ましくは、実施例1で説明した構成により近い環境での本方法の実施のために、図1のヘッドマウントディスプレイ13を用いることが好ましい。
このように構成することで、表示部材17の表示面170からの情報は、マスクMKに妨げられない。
次の工程では、操作者Oは、操作対象16をコントローラ14にて操作する。このとき、操作者Oは、ターゲットとしてのオブジェクトTに向けて、操作対象16を変位させる。言い換えれば、操作者Oは、操作対象16を用いて遠隔のオブジェクトTに対して、遠隔からの到達運動を行う。
その際、操作者Oには表示部材17から刺激映像Sが与えられる。刺激映像Sは、擬似的な速度情報にあたる。刺激映像Sについては後述する。操作者Oは、この刺激映像Sからの擬似的な速度情報をもとに、操作対象16の操作を実行する。
操作の終了後、オブジェクトTと、マーカMKとの位置の誤差(到達位置誤差)を計測する。本発明では、以上の方法により取得された誤差の情報をもちいて、所定の関係を決定できる。所定の関係の決定の例については後述する。
(刺激映像)
擬似的な速度情報である刺激映像Sとしては、パターン要素を用いる。本方法では、ハッチングのような直線シンボルを並べたパターンという意味で、ハッチングパターンを用いる。
擬似的な速度情報である刺激映像Sとしては、パターン要素を用いる。本方法では、ハッチングのような直線シンボルを並べたパターンという意味で、ハッチングパターンを用いる。
速度情報が、変位量(位置の変化)や変形量(形状の変化)、模様の変化、色彩の変化(グラデーションの変化)、動きの変化、により操作者Oに与えられれば、パターン要素に限られない。刺激映像Sとしては、以下の実施例2の説明において速度映像の例として述べる、種々の映像を用いることもできる。
また、刺激映像Sのパラメーターとしては、刺激の変化の速度、加速度、加加速度(躍度)、軌道、形状、色彩、輝度、コントラスト、等を設定できる。また、刺激の提示の範囲、変位の距離、配置、等もパラメーターとなる。これ以外のパラメーターを設定しても、本発明の効果を得ることができる。
ハッチングパターンは、複数水準の速度情報を持つように、複数用意する。望ましくは、正規速度情報OFGを含むことが好ましい。その他のパラメーターを変更されたハッチングパターンを含むこともできる。
操作者Oは、ランダムに与えられる複数水準の速度情報を目視しつつ、ターゲットとしてのオブジェクトTに向けて、操作対象16を変位させる。到達位置誤差は、各試行それぞれについて取得(測定)される。
(所定の関係の特定)
所定の関係は、最も単純には、到達位置誤差が最小となる刺激映像Sを特定して、これを図1のヘッドマウントディスプレイ13やその他の表示装置の表示面130にて再現されるように決定する。再現には、表示画角等の情報を考慮する。
所定の関係は、最も単純には、到達位置誤差が最小となる刺激映像Sを特定して、これを図1のヘッドマウントディスプレイ13やその他の表示装置の表示面130にて再現されるように決定する。再現には、表示画角等の情報を考慮する。
もしくは、特定された刺激映像Sから速度の情報を取り出し、それを再現するように、図1の表示制御部120の設定を行う。もしくは、速度カメラ111の取り付け姿勢を変更する。
視線映像の視点の速度と、速度映像の要素の速度との所定の関係は、単純には、以下のように特定できる。すなわち、視線映像の視点の速度は、得られた刺激映像Sの速度情報の値を含む何らかの関数によりほぼ(近似的に)関係付けられる。たとえば、得られた刺激映像Sの速度情報の値を含む比例関数、2次関数、高次関数、べき乗関数等で関係づけられる。
あるいは、所定の関係が関数で表現されない非線形な関係として特定される場合もある。たとえば、移動ロボット11の実空間での速度の各水準に対して、速度映像の要素の速度がそれぞれ特定され、これらの水準間を(線形)補間すると、移動ロボット11の速度の変化と、速度映像の要素の速度の関係は非線形な関係となる。
あるいは、上記の方法にて得られたデータを統計的に解析し、移動ロボットの運動に反映させることもできる。たとえば、複数の操作者から複数のデータを取得して、このデータにあう統計的モデルを構築する。たとえば、単純線形モデル等を設定して、モデルをデータの状態に応じて適切にリンクさせ、探索的に(解析的に)最適なモデルを構築することができる。
またあるいは、前述の方法で得られたデータを事前の情報として用い、移動ロボットが運動する中で、事前の情報を逐次更新する手法をとっても構わない。たとえば、ベイズ推定の枠組みを用いることができる。
つまり、所定の関係を反映した速度映像としては、刺激映像Sをそのまま再現することもできるし、これに限らず、目的に応じて最適の刺激の形態を決定できる。なお所定の関係は、関数で規定される関係に限られず、たとえば離散的な値をケースに応じて設定する方式でも構わない。
また、前述の方法は、本発明の表示装置の製造方法にも適用できる。すなわち、本発明の表示装置は、この方法を用いて特定された誤差を用いて、表示される映像の少なくとも一部の変化を特定する(速度映像の変化率を設定する)工程を含むことにより製造できる。この工程および前述した工程は、同型あるいは類似型の表示装置につき、一度実施すれば本発明の効果を得ることができる。
また、移動ロボットが動作する個々の状況や、操作者個人の特性(個人差)に応じて、速度映像を調整するための映像の調整方法(表示方法)として本方法を用いることができる。
(その他)
速度映像に表示される要素には、実空間上での視点の変位に対して何ら所定の関係も有さない、単なる文字、記号、数字等の情報は含まない。すなわち、本発明は、自動車の速度メーター等のような絶対的な速度表示機能を企図したものとは異なる。なお、視線映像に速度表示機能を設けることは妨げない。
速度映像に表示される要素には、実空間上での視点の変位に対して何ら所定の関係も有さない、単なる文字、記号、数字等の情報は含まない。すなわち、本発明は、自動車の速度メーター等のような絶対的な速度表示機能を企図したものとは異なる。なお、視線映像に速度表示機能を設けることは妨げない。
(第2の実施例)
以下、図8から12を参照しながら本発明の第2の実施例について詳説する。図8は第2の実施例における移動体制御システム200の構成の説明図である。なお、第1の実施例と同一の構成には同一の符号を付し、説明は省略する。
以下、図8から12を参照しながら本発明の第2の実施例について詳説する。図8は第2の実施例における移動体制御システム200の構成の説明図である。なお、第1の実施例と同一の構成には同一の符号を付し、説明は省略する。
(移動体の構成)
第2の実施例における移動ロボット21は、速度カメラに変えて、速度センサ(検出部)211が備えられる点で、第1の実施例と異なる。またホストコンピュータ22は、表示制御部220を有している。
第2の実施例における移動ロボット21は、速度カメラに変えて、速度センサ(検出部)211が備えられる点で、第1の実施例と異なる。またホストコンピュータ22は、表示制御部220を有している。
本実施例では速度センサ211として、ジャイロセンサを用いる。速度センサ211として、光学式のセンサを用いても、磁気センサを用いても、その他電気、音波、機構的なセンサを用いても本発明は実施可能である。
あるいは、移動ロボット21の駆動情報から、速度情報を取得、あるいは算出しても本発明は実施可能である。あるいは、加速度センサ、位置センサ、角度センサ等、間接的に速度情報を算出しても本発明は実施可能である。
あるいは、予め移動ロボット21の速度のモードを数種類に限定しておき、予めそれらに対応した速度情報を生成するようにデータテーブルを構成する等しても、本発明は実施可能である。この場合は、速度センサを構成しなくても本発明は実施可能である。
(制御方法)
図9は、表示制御部220が、視線カメラ110の映像と速度センサ211の情報を合成する制御方法としての処理方法の流れを示すフローチャートである。表示制御部220は、コンピュータ・プログラムとしての制御プログラムにしたがって、本処理を実行する。
図9は、表示制御部220が、視線カメラ110の映像と速度センサ211の情報を合成する制御方法としての処理方法の流れを示すフローチャートである。表示制御部220は、コンピュータ・プログラムとしての制御プログラムにしたがって、本処理を実行する。
表示制御部220は、移動ロボット21の起動に応じて、その処理を開始する。
ステップ151において、表示制御部220は、視線カメラ110からの視線映像を取得し、ステップ252に進む。
ステップ252において、表示制御部220は、速度センサ211からの速度に関する情報を取得し、ステップ253に進む。直接速度に関する情報を取得しない場合は、取得した情報から速度を算出したり、データテーブルを参照したりして、速度の情報を取得しても構わない。そののち、ステップ253に進む。
ステップ253において、表示制御部220は、ステップ252で取得された速度情報に基づいて、速度映像を生成する。本実施例では、速度映像として、速度センサ211からの速度情報(変位量)に対して所定の関係の速度(変位の変化率)を有する要素を含む映像を生成する。
要素として、たとえば、パターン情報を用いると、速度の情報以外の情報(たとえば、方向の情報、数値的な情報、背景の情報、等)を排することが容易になる。
なお、映像を生成するのではなく、予め速度の数値(パラメータ)のみ変更可能である映像を記憶しておき、表示する速度の情報のみを反映させるような構成でも本発明は実施可能である。そののち、ステップ154に進む。
ステップ154以下における表示制御部220の実行する処理は、第1の実施例における表示制御部120の実行する処理と同様である。
(効果)
以上のように構成することで、小型の移動ロボットが構成可能でありながら、直感的に速度情報が取得可能なものを提供することができる。
以上のように構成することで、小型の移動ロボットが構成可能でありながら、直感的に速度情報が取得可能なものを提供することができる。
また、速度映像の通信負荷が小さくなり、映像遅延が小さくなる。
更には、移動ロボット21の移動速度に応じて、提示する速度情報を変調させる、通信量を削減して復元する、等、より複雑な速度情報の提示が可能となる。
(その他の実施形態)
(映像の構成)
本実施例では、速度の情報から、柔軟に正規速度情報OFGに対して所定の関係での変調を加えた要素を含む、速度映像を生成する事ができる。図10は、生成する速度映像の要素の例である。いずれの例においても、これらの要素は、たとえば実施例1で説明した方法等で特定された速度情報にしたがって、空間的に変化(変位、拡大等)、あるいは時間的に変化する。
(映像の構成)
本実施例では、速度の情報から、柔軟に正規速度情報OFGに対して所定の関係での変調を加えた要素を含む、速度映像を生成する事ができる。図10は、生成する速度映像の要素の例である。いずれの例においても、これらの要素は、たとえば実施例1で説明した方法等で特定された速度情報にしたがって、空間的に変化(変位、拡大等)、あるいは時間的に変化する。
図10(a)は、テクスチャー要素の例である。テクスチャー要素は、実施例1のように外界(床面)から直接、速度映像を生成する場合の表現に近い表現となる。
図10(b)(c)は、パターン要素の例である。図10(b)は、ドットパターンの例である。操作者の注意の分散を妨げないように、その密度を柔軟に変えることができる。また、ランダムドットパターン(不図示)は心理的実験の刺激としてよく用いられる。図10(c)は、ハッチングパターンである。
図10(d)は、グラデーション要素の例である。これらの要素は、カラーでもモノクロでも構わない。
このように、速度映像に含まれる要素は、対象の変位の速度を表現する形状、模様、色彩等の少なくとも1つ含んでいる。また、形状、模様、色彩、あるいは対象の変位の速度を表現する形状、模様、色彩の位置、動き、速度等が変化するように構成されていれば、本発明の効果を得ることができる。
(シンボル)
速度映像の要素には、シンボルを用いても構わない。なお前述のように、自動車の速度メーターに代表される速度の値の表示は、対象の変位の情報を反映していない文字等の情報、単なるインジケーターは本発明に含まれない。
速度映像の要素には、シンボルを用いても構わない。なお前述のように、自動車の速度メーターに代表される速度の値の表示は、対象の変位の情報を反映していない文字等の情報、単なるインジケーターは本発明に含まれない。
ただし、文字、記号、数字等がシンボルとして用いられ、これらが本発明で特定される所定の関係に従って、時間的あるいは空間的に変化(変位、拡大、形状の変更、点滅、変色等)するような場合はこの限りではない。
図11は、実施例2にかかる表示面230に表示される映像であって、視線映像に、シンボル(矢印形状)28の要素により構成された速度映像を合成した合成映像の例を示す。要素(シンボル28)は、実施例1のように透過させなくても構わない。また、本実施例では要素の形状は矢印形状であるが、形状はこれに限られない。
図11(a)は、ある時点での移動状態におけるシンボル28の状態を模式的に示す。図11(b)から(e)は、操作の対象が進行方向の前方(オブジェクトTに近づく方向)に移動している状態のシンボル28の状態を模式的に示す。
なお、本実施例ではシンボル28には2次元平面図形を用いるが、パース感(奥行き感)のある3次元立体をシンボルとして用いてもよい。あるいはシンボルを3次元的に配置しても構わない。このようにすることで、シンボルに注意を割かせやすくなり、たとえば速度超過等の警告のような用途に好適である。
図11(b)では、シンボル28の大きさ(サイズ)が空間的に変化して、拡大している。この拡大の速度(変化率)が、対象の速度情報に対して所定の関係になるように構成されている。すなわち、図11(a)から図11(b)で示される状態にかけて、対象が加速したことを示す。
この例の場合は、速度一定であればシンボル28が変化しないので、後述するその他の方法や、前述したパターン等の情報と組み合わせて用いることが好ましい。
図11(c)では、シンボル28の位置が、映像上で上方に空間的に変化している。この変位の速度が、対象の速度情報に対して所定の関係になるように構成されている。シンボル28が表示面230から外に変位した場合、再び初期位置に戻るように構成するのが好ましい。シンボル28がオブジェクトTを遮るような位置に変位しないように、制御をするのも好ましい。
図11(d)では、複数のシンボル28を点滅させ、操作者(不図示)に仮現運動(アニメーション)を知覚させるように構成している。表示制御部(不図示)が点滅の間隔や点滅のパターン、点滅の位置等を制御することで、対象の速度情報に対して所定の関係になるようにシンボル28の仮現運動が生じる。
この例では、シンボル28の形状を有する光源(たとえばLED)を所定の位置に構成して、その点滅を時間的に制御すればよいから、構成が容易である。この例は、以下の実施例3で詳細に説明する。
図11(e)は、オプティック・フローを模したシンボル28を配置し、変位の方向を表示した例である。この例は、前述した3次元的な配置の一例である。
(要素を配置する領域)
要素を配置する領域も、本実施例の限りではない。図12は、速度情報を表現する要素の配置の説明図である。
要素を配置する領域も、本実施例の限りではない。図12は、速度情報を表現する要素の配置の説明図である。
図12(a)は、パターン要素を、表示面230の中心を含む中心領域(第1の領域)に対して、中心領域の外の領域である周辺領域(第2の領域)に表示した例である。表示面230の中心は、図12(a)においてオブジェクトTが配置されている箇所にあたる。
この例のように構成することで、操作者の周辺視野の特性を活かすことができる。すなわち、周辺視野は、観察対象(本実施例ではパターン要素)の速度変化を知覚しやすいという利点を活かすことができる。
一方で、背景Bはタスクにあまり重要な視線情報を含まない。したがって、速度映像を合成しても問題は少ないという利点もある。もちろん、パターン要素を半透明化して、周辺領域に重畳しても本発明は実施可能である。
加えて、移動ロボット(不図示)を用いたタスクに必要な情報は、一般に中心領域に入る。より詳しくは、そのように操作者が移動ロボット11を操作する場合が多い。したがって、中心領域にパターン要素等の情報を重畳しないことにより、タスクが効率化できる。さらに、本例の構成では、中心視野では精密な情報を得られるという利点を活かせる。
近年、人間の有する有効視野領域(Useful Field of View:UFOV)の活用が注目されている。操作者Oが表示面230の中心を注視している場合、有効視野領域は中心領域の内部にあたり、表示面230の中心を含む領域である。有効視野領域のサイズの精密な測定法は、未だ明らかにされていないが、有効視野領域のサイズ(面積)は周辺視野に対して小さい。
図12(b)は、有効視野領域に視線映像を提示する例である。この例では、中心領域の面積が、周辺領域よりも小さい。たとえば、有効視野領域の面積と、表示面230の面積との実質的な比を1:3となるように構成することができる。表示面230のレイアウトをこのように構成することで、なるべく速度映像を多く操作者に提示できる。なおかつ、有効視野領域における効率的なタスク遂行を妨げない。
本実施例では、図8のヘッドマウントディスプレイ13が、操作者Oの左右の目にそれぞれ対応した映像を見せられるよう、左右に独立した表示面230を備えた例で説明した。図12(c)は、表示面230のうち図8の操作者Oの左目に提示される表示面の例である。
本実施例のヘッドマウントディスプレイ13を用いる操作者は、両眼立体視の原理により、左右の表示面の映像を融像して、立体映像を観察する。図12(c)ではこのような両眼視を考慮して、両眼視状態における周辺視野に当たる領域において、パターン要素を表示している。
すなわち、左右に2つの表示面を並べ、その中心を含む領域を中心領域、中心領域の外の領域を周辺領域とすれば、片方の表示面は図12(c)に示されるレイアウトとできる。この例では、周辺領域における背景Bをぼかす処理等を加えると更に自然な観察が可能になる。
また、図12(d)に示したように、表示面230の一部の領域にパターン要素を配置すれば、タスクに直接関わる視線情報への影響をより少なくすることができる。両眼立体視の原理を用いる場合には、融像の観点から、各表示面の外側(操作者からみて側頭部の側)の領域の一部を活用するのがより好ましい。
(速度情報の変調)
速度映像の要素の表示の割合が、中心領域から周辺領域になるにつれ、高くなるように構成してもよい。速度映像の表示の割合は、たとえば速度映像の透過率の設定で規定されるものを含む。すなわち、中心領域で透過率が高く、周辺領域で透過率が低くなるように構成できる。その他、速度映像の表示の割合は、表示される要素の密度や、要素の色彩の彩度、グラデーションの勾配等も含む。
速度映像の要素の表示の割合が、中心領域から周辺領域になるにつれ、高くなるように構成してもよい。速度映像の表示の割合は、たとえば速度映像の透過率の設定で規定されるものを含む。すなわち、中心領域で透過率が高く、周辺領域で透過率が低くなるように構成できる。その他、速度映像の表示の割合は、表示される要素の密度や、要素の色彩の彩度、グラデーションの勾配等も含む。
また、本実施例の速度映像は、様々な大きさの表示面に表示される可能性がある。すなわち、速度映像の表示倍率が変わる場合がある。表示装置毎に適した倍率に合わせて、速度映像の要素のサイズが、要素の空間的変化と実空間での変位の速度との所定の関係が保たれるように変更されるよう、表示制御部を構成するのが好ましい。
また、操作者Oが移動しながら表示面を観察する場合、操作者Oの移動の速度を考慮して、要素の速度を操作者Oの速度と、操作対象の速度の相対速度にするように表示制御部を構成できる。
操作対象の特性に応じて、要素の速度プロファイルがベル型の波形となるように、速度映像を生成してもよい。一般にベル型速度プロファイルは人間の動きをよく近似すると言われている。この例では、操作対象が生物を模した形状である場合等に、より、直感的な速度情報を提示できる。
さらには、操作中に経時的に、速度情報の変調を行っても本発明は実施可能である。経時的な変調とは、たとえば、以下の構成も含まれる。すなわち、最適な速度映像が、移動ロボットの速度レベルに対して大きく異なる場合は、速度映像と実空間速度との所定の関係が、移動ロボットの速度に応じて離散的に変化させる必要がある。
また、操作者が移動ロボットの操作に十分習熟した場合には、速度映像の相対的な重要度が低下する。このため、たとえば、合計操作時間に応じて速度映像の透過率を上げたり、合計操作回数に応じて速度映像の重畳面積を減らしたり、設定に応じて速度映像を非表示としたりすることができる。
(要素のオプティック・フローの方向)
正規速度情報OFGの方向は、図11(e)で示したように、あるいは実施例1で示したように、移動ロボット11の進行方向とは逆向きでもよい。あるいは、図11(b)、図11(c)、図11(d)において図11(a)との関係で示したように、移動ロボット11の進行方向と一致していてもよい。更には、たとえばシンボル28の拡大・縮小の変化率で移動ロボット11の正規速度情報OFGを表現する場合のように、正規速度情報OFGの方向はいずれの方向でも構わない。
正規速度情報OFGの方向は、図11(e)で示したように、あるいは実施例1で示したように、移動ロボット11の進行方向とは逆向きでもよい。あるいは、図11(b)、図11(c)、図11(d)において図11(a)との関係で示したように、移動ロボット11の進行方向と一致していてもよい。更には、たとえばシンボル28の拡大・縮小の変化率で移動ロボット11の正規速度情報OFGを表現する場合のように、正規速度情報OFGの方向はいずれの方向でも構わない。
(合成処理)
速度映像は、半透明化処理によって視線映像に重畳されても構わないし、タスクの対象となるオブジェクトTを切り出して、速度映像に合成する処理を行っても構わない。逆に、速度映像を切り出して視線映像に合成してもよいし、図12(d)の例のように速度映像を視線映像の一部の領域にそのまま表示するような表示でも構わない。
速度映像は、半透明化処理によって視線映像に重畳されても構わないし、タスクの対象となるオブジェクトTを切り出して、速度映像に合成する処理を行っても構わない。逆に、速度映像を切り出して視線映像に合成してもよいし、図12(d)の例のように速度映像を視線映像の一部の領域にそのまま表示するような表示でも構わない。
また、表示領域を分ける場合にひとつのディスプレイ上で領域を分割する必要はない。すなわち、視線映像と速度映像のそれぞれにディスプレイを用意し、視線映像ディスプレイの周囲に速度映像ディスプレイを配置するような構成でも本発明の効果を得ることができる。
また、視線映像と速度映像の表示方式を異なるものにすることもできる。たとえば、視線映像をディスプレイ、速度映像を光源装置(プロジェクター等)で投影することができる。あるいは、速度映像を、光学的に表示する(ホログラム等の)方式でも本発明は実施できる。
速度映像の表示箇所は、ディスプレイ外でも、操作者が視覚によってその情報を取得できる箇所であれば、本発明は実施することができる。たとえば、ディスプレイに対して直交する面、あるいは交差する面に速度映像を表示(投影)すると、より床面あるいは天面、壁面のオプティック・フローであることを強調できる。
この場合、ディスプレイに係る映像の生成・通信の負荷を減らしたり、奥行き感をもってより効果的に速度映像を提示したりすることができる。
(第3の実施例)
以下、本発明の第3の実施例に係る移動体制御システム300について、添付の図を参照しながら詳細に説明する。実施例1あるいは2と同一の構成には同一の符号を付し、説明は省略する。
以下、本発明の第3の実施例に係る移動体制御システム300について、添付の図を参照しながら詳細に説明する。実施例1あるいは2と同一の構成には同一の符号を付し、説明は省略する。
(構成)
図13は、第3の実施例に係る移動体制御システムおよび表示装置の説明図である。本実施例において移動体は、ホストコンピュータ32によって生成された仮想空間における仮想移動体(エージェント)である点が、第1および第2の実施例と異なる。また、表示装置としてフラットパネルを備えたディスプレイ33を用いる。
図13は、第3の実施例に係る移動体制御システムおよび表示装置の説明図である。本実施例において移動体は、ホストコンピュータ32によって生成された仮想空間における仮想移動体(エージェント)である点が、第1および第2の実施例と異なる。また、表示装置としてフラットパネルを備えたディスプレイ33を用いる。
(仮想環境)
VR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)等のいわゆるXR技術が知られている。近年、XR技術を活用したサービス、すなわちコンピュータ・グラフィックス(CG)により構築する仮想環境を活用したサービスが普及してきている。
VR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)等のいわゆるXR技術が知られている。近年、XR技術を活用したサービス、すなわちコンピュータ・グラフィックス(CG)により構築する仮想環境を活用したサービスが普及してきている。
本実施例では、操作者Oは、仮想空間VEにおいて仮想の(CGの)移動体である仮想移動体(不図示)を操る。これにより、操作者Oはあたかも仮想空間VE内部で仮想移動体を操作している感覚を得ることができる。
さらに、本実施例における視線映像は、操作者Oの1人称視点に対応する。したがって、視線映像には仮想移動体の映像は含まれない。このように構成することで、操作者Oは、あたかも仮想空間VE内部で自らが歩き回っているような没入感を得ることができる。
本実施例は、仮想空間VEとして美術館を想定した例である。したがって操作者Oは、仮想の美術館で絵画を鑑賞する体験をすることができる。たとえば、仮想の美術館として実在する美術館をCGで再構成したものを用いれば、あたかも実際に美術館に行ったような体験をすることができる。仮想空間VEとして実際のモデルが存在しない美術館を構築しても、その他の施設等を構築しても、現実空間と一部合成しても(MR、AR)本発明は実施可能である。
(速度映像)
本実施例における速度映像は、点滅するシンボル38で構成されている。シンボル38の点滅は、表示制御部320を含むホストコンピュータ32により制御される。
本実施例における速度映像は、点滅するシンボル38で構成されている。シンボル38の点滅は、表示制御部320を含むホストコンピュータ32により制御される。
シンボル38の点滅のパターンやタイミングは、予め設定された仮想移動体の動作の設定に基づき決定される。すなわち、シンボル38の仮現運動の空間的な変化の変化率は、仮想移動体の一人称視点の変位(速度)に関する情報に関して特定される。仮現運動の向きは、操作者Oの進行方向でも、操作者Oの進行方向とは逆向き(オプティック・フローの方向)でも本発明は実施可能である。
これを、仮想移動体の並進移動を例にとって説明する。仮想移動体が並進方向に移動すると、ホストコンピュータ32(の有する表示制御部320あるいはCG制御部(不図示))によって、並進移動に応じた3次元的な仮想環境が計算される。
この計算は、仮想移動体の一人称視点における仮想環境の見え方に関するものである。すなわち、予め構築された仮想環境の座標系(ワールド座標系)の位置および姿勢を、仮想移動体の視点を原点とする座標系(エージェント座標系)の位置および姿勢に変換する計算を含む。
仮想環境を構成するCGは予めホストコンピュータ32に保存されている。CGは、計算結果に応じて逐次描き換えられる。
したがって、操作者Oが仮想環境の視線映像から得る、仮想移動体の並進速度の情報(オプティック・フロー)は、各実施例で説明したように、仮想移動体に予め設定された並進速度の情報とは異なる。
そこで、ホストコンピュータ32は、予め設定された並進速度の情報を、所定の関係に基づいて変調して、シンボル38の点滅のタイミングの制御に用いる。所定の関係は、実施例1で説明した方法で同様に定まる。
(制御方法)
図14は、ホストコンピュータ32が実行する仮想空間VEの視線映像の生成(更新)方法、およびシンボル38の制御方法としての処理方法の流れを示すフローチャートである。ホストコンピュータ32は、コンピュータ・プログラムとしての制御プログラムにしたがって、本処理を実行する。
図14は、ホストコンピュータ32が実行する仮想空間VEの視線映像の生成(更新)方法、およびシンボル38の制御方法としての処理方法の流れを示すフローチャートである。ホストコンピュータ32は、コンピュータ・プログラムとしての制御プログラムにしたがって、本処理を実行する。
ステップ351において、ホストコンピュータ32は、操作者Oのコントローラ14の操作情報を取得し、仮想環境における視線映像を生成するステップ352と、速度映像を生成するステップ362に進む。
(視線映像の生成)
ステップ352において、ホストコンピュータ32は、操作情報から現在の仮想移動体の位置、姿勢(視点)を算出する。すなわち、エージェント座標系のワールド座標系における位置および姿勢を算出する。その後、ステップ353に進む。
ステップ352において、ホストコンピュータ32は、操作情報から現在の仮想移動体の位置、姿勢(視点)を算出する。すなわち、エージェント座標系のワールド座標系における位置および姿勢を算出する。その後、ステップ353に進む。
ステップ353において、ホストコンピュータ32は、算出したエージェント座標系における仮想環境を構成する各CGの位置、姿勢を算出する。すなわち、ワールド座標系の情報を、仮想移動体座標系の情報に変換する。その後、ステップ354に進む。
ステップ354においてホストコンピュータ32は、エージェント座標系の情報に基づいてCGを描き変える。その後、ステップ355に進む。
(速度情報の生成)
一方、ステップ362において、ホストコンピュータ32は、操作情報と、予め設定された仮想移動体の視点の変位に関する情報(速度の情報)と、から、図13のシンボル38の点滅タイミングを決定し、速度映像を生成する。その後、ステップ355に進む。
一方、ステップ362において、ホストコンピュータ32は、操作情報と、予め設定された仮想移動体の視点の変位に関する情報(速度の情報)と、から、図13のシンボル38の点滅タイミングを決定し、速度映像を生成する。その後、ステップ355に進む。
(合成)
ステップ355において、ホストコンピュータ32は、CGと速度映像を同期、合成し、ステップ356に進む。
ステップ355において、ホストコンピュータ32は、CGと速度映像を同期、合成し、ステップ356に進む。
ステップ356において、ホストコンピュータ32は、合成映像をディスプレイ33に送信する。
ホストコンピュータ32は、電源がOFFされるまで、上記のステップを繰り返し逐次的に実行する。
(効果)
本実施例によれば、直感的な移動体の操作が、仮想環境における仮想移動体の操作においても可能である。
本実施例によれば、直感的な移動体の操作が、仮想環境における仮想移動体の操作においても可能である。
(第4の実施例)
以下、本発明の第4の実施例に係る表示装置であるヘッドマウントディスプレイ400について、添付の図を参照しながら詳細に説明する。実施例1、2あるいは3と同一の構成には同一の符号を付し、説明は省略する。
以下、本発明の第4の実施例に係る表示装置であるヘッドマウントディスプレイ400について、添付の図を参照しながら詳細に説明する。実施例1、2あるいは3と同一の構成には同一の符号を付し、説明は省略する。
(移動体)
図15は、移動体としての移動者O4が、仮想空間VE内を移動し、VR(あるいはMR)体験をしている際の説明図である。
図15は、移動体としての移動者O4が、仮想空間VE内を移動し、VR(あるいはMR)体験をしている際の説明図である。
VR用のヘッドマウントディスプレイは、没入感向上のために現実空間を目視できない構成が多くなってきている。本実施例では、移動者O4は、ヘッドマウントディスプレイ400の表示面430から得られる仮想の(CGの)視線映像を用いて、仮想空間VE内を歩き回る。
(速度映像)
本実施例における速度映像401は、仮想空間VE内の床面に相当する部分に重畳されたドットパターンである。このように構成することで、ドットパターンが仮想空間VE内での体験に及ぼす、注意の分散等の影響を小さくできる。
本実施例における速度映像401は、仮想空間VE内の床面に相当する部分に重畳されたドットパターンである。このように構成することで、ドットパターンが仮想空間VE内での体験に及ぼす、注意の分散等の影響を小さくできる。
図16は、ヘッドマウントディスプレイ400の表示面430周辺の拡大図を示している。また、表示面430には、速度映像のみを示している。このように、本実施例では、速度映像を表示面430の床側の領域に提示している。これにより、視線映像における床面の領域と速度映像とを重ねやすくなる。
速度映像を提示する領域は、表示面430の固定の領域ではなく、表示面430に映る床面の領域を算出して、変更するようにホストコンピュータ(不図示)等を構成することもできる。
速度映像は、床面に限らず、実空間の天面や壁面の領域と一致する可能性が高い領域に提示しても構わない。
ヘッドマウントディスプレイ400は、ジャイロセンサ(不図示)を有している。ジャイロセンサは、移動者O4の視点に近しい頭部における変位に関する情報(速度の情報、実施例1から3における正規速度情報OFG)を取得できる。
速度映像401は、移動者O4の速度の情報と所定の関係にある速度で、移動者O4の進行方向とは逆向きに流動するように構成されている。また、床面が視野から外れる場合は、仮想空間VE内のその他の領域に速度情報401が表示(移動)されるように構成されている。たとえば、表示面430の四隅に速度情報を表示するように構成できる。
(実施例4の所定の関係)
VR用の視線映像は情報量が大きく、通信遅延も大きい。したがって、仮想空間VE内のCGの描き換えが、移動者O4の移動速度よりも遅くなる場合が考えられる。そうすると、移動者O4が転倒する等の可能性がある。
VR用の視線映像は情報量が大きく、通信遅延も大きい。したがって、仮想空間VE内のCGの描き換えが、移動者O4の移動速度よりも遅くなる場合が考えられる。そうすると、移動者O4が転倒する等の可能性がある。
そこで本実施例では、移動者O4が、実空間での実際の速度よりも速い速度で移動している、と感じられるように、所定の関係を設定する。すなわち、移動者O4が、一定の速度で移動している場合には、速度情報401が、移動者O4の速度の情報よりも所定の比率で大きくなるように設定する。
また、移動者O4が加速している際には、速度情報401が、その加加速度(躍度)が最小になるように、かつ、加速度が移動者O4の速度に関する情報(加速度)よりも大きくなるように設定する。
また、移動者O4が減速している際には、速度情報401が、その加加速度が最小になるように、かつ、加速度が移動者O4の加速度よりも小さくなるように設定する。
これにより、移動者O4により安全で快適なVR体験を提供することができる。逆に、設定によっては、仮想空間VEが、実空間よりも大きく感じられるような体験を構成することもできる。
(その他の実施例)
図17および図18は、本発明のその他の実施形態を示した説明図である。図17(a)および(b)は、複数のディスプレイ(表示装置)を用いる例である。図17(a)は正面から見たディスプレイ500およびディスプレイ501を示す。
図17および図18は、本発明のその他の実施形態を示した説明図である。図17(a)および(b)は、複数のディスプレイ(表示装置)を用いる例である。図17(a)は正面から見たディスプレイ500およびディスプレイ501を示す。
ディスプレイ500は、オブジェクトTを含む視線映像とともに、速度映像50を表示している。視線映像からは移動ロボット11の一部が視認できる。本実施例の速度映像50は、グラデーションを用いている。また速度映像50は、実空間上のあたかも壁面であるように、オブジェクトTの周辺を取り囲むような領域に、3次元的な表現で表示されている。これにより、操作者(不図示)は、より効果的に速度映像50を視認できる。
ディスプレイ500の下部には、ディスプレイ501が構成されている。ディスプレイ501は、速度映像51を表示している。ディスプレイ501は、ディスプレイ500の補助的な役割で配置されている。
速度映像51は、多数のシンボルが下方向に変位して(流れて)いくように構成されている。操作者は、必要に応じて注視するディスプレイを選択できる。ディスプレイ500においては、速度映像50を表示しないこともできる。
図17(b)に示したディスプレイ502は、オブジェクトT、風景を含む視線映像とともに、速度映像52を表示している。本実施例の速度映像52は、大きさの違うシンボルを並べ、シンボルが表示面の手前側の方向に拡大しながら変位するように構成されている。速度映像52は、実空間上のあたかも天面であるように知覚される。また、速度映像52が表示される領域は、ディスプレイ502の表示面の中でも重要度の低い(オブジェクトTが写りにくい)領域である。
ディスプレイ502と交差する面には、ディスプレイ502の手前側(操作者側)にディスプレイ503が構成されている。ディスプレイ503は、速度映像53を表示している。本実施例の速度映像53は、テクスチャーを用いて、地面を模している。
本構成では、操作者は、視野の下部(眼窩部よりも下部)という、より自然な(床面に平行な)領域にて、速度映像53を知覚できる。
図18は、ヘッドマウントディスプレイ504の一部である。その表示面530には、オブジェクトTや風景を含む視線映像が表示されている。ヘッドマウントディスプレイ504は、遮光フード(アイカップ)54を有している。
遮光フード54は、外界からの光の入射を遮り、視線映像の観察時のゴーストの発生や、没入感の向上に寄与している。また、遮光フード54は、装着者の顔面に当接し、ヘッドマウントディスプレイ504の装着感を高めている。
遮光フードには、速度映像55および速度映像56が表示されている。本実施例では、ヘッドマウントディスプレイ504内部の光源(不図示)から、速度映像55および速度映像56を構成するハッチングパターンを投影するように構成している。なお、その光路が装着者の視野を横切らないように投影する構成である。
速度映像55および速度映像56は、表示面530と交差する面に配置されている。これらの交差角の設定に応じて、速度映像55および速度映像56の表示する要素と、視点の実空間における移動速度との所定の関係は変更される。
このようにすることで、視線映像の視野角を遮らずに、ヘッドマウントディスプレイ504の操作者に速度映像を自然に提示することができる。また、ディスプレイを削減でき、ヘッドマウントディスプレイ504の軽量化に寄与できる。
(表示領域の制御手段)
実施例4では、速度映像401を視線映像の床面と対応する領域に表示した。表示領域を測定する測定手段と、制御手段とを有する構成とすれば、本発明のさらなる効果を得ることができる。
実施例4では、速度映像401を視線映像の床面と対応する領域に表示した。表示領域を測定する測定手段と、制御手段とを有する構成とすれば、本発明のさらなる効果を得ることができる。
制御手段は、測定結果から表示領域を導出し、その領域に合わせて速度映像の形状を変更し、その領域に速度映像を位置合わせし、その領域に速度映像を重畳するように構成される。位置合わせの方法としては、自然特徴点を検出するものでも、マーカ等を判別するものでも構わない。
この場合、速度映像を過剰に操作者の意識に上らせずに、操作者に知覚させることができる。これにより、操作者が所望のタスクにさらに集中できる効果を奏する。
(操作者のパラメーターを取得する手段の構成)
実施例1では、操作者のパラメーターを取得する手段を説明した。実施例1のように、表示装置の初期設定にのみこの手段を用いてもよいが、本発明の表示装置にこの手段を構成する例を説明する。
実施例1では、操作者のパラメーターを取得する手段を説明した。実施例1のように、表示装置の初期設定にのみこの手段を用いてもよいが、本発明の表示装置にこの手段を構成する例を説明する。
表示装置は、視線映像を表示する第1の領域と、速度映像を表示する第2の領域を有する。操作者のパラメーターを取得する手段としての制御装置は、第2の領域に予め記憶部に保持した刺激映像を表示する。望ましくは、様々なパラメーターを有する複数の刺激映像を保持していることが好ましい。
制御装置は、第1の領域に移動ロボット等の被操作体を表示する。この表示は、視線カメラからの視線映像をそのまま用いても、その他の取得装置を用いても構わない。
操作者は、所定の順番で表示される刺激映像のそれぞれに対し、所定の距離だけ、被操作体を移動させる試行を行う。視線カメラ等の取得装置は、試行結果を取得する。制御装置は、取得された結果に基づき、所定の関係を変調させる。この変調は、試行毎に行われても、全試行が完了してから行われてもよい。より早くパラメーターの特定を完了するには、前者のほうが好ましく、本例では前者を説明する。
制御装置は、所定の関係を特定するのに十分な試行結果が得られるまで、上記の工程を繰り返す。また、刺激映像を提示する所定の順番を、試行の結果に応じて入れ替える。この工程により、効率的なパラメーターの同定が可能になる。同定されたパラメーターおよび所定の関係は、試行を行った操作者を特定できる状態で、記憶部に保存される。
制御装置は、所定の関係の特定後、表示装置に所定の関係の特定(設定)が完了した旨を表示する。第2の領域には、新たに特定された所定の関係を用いた速度映像が表示される。
これにより、操作者の個人特性に合わせた速度情報を提示できる効果を奏する。また、移動ロボットの操作に習熟する等、操作者の経時的な特性の変化に合わせて、所定の関係を変調できる。
(視線映像の時間制御)
視線映像の通信遅延等に起因して、視線映像は、視線映像の視点(視線カメラ)の変位に対して時間遅れを有する。時間遅れは、状況により変動する。時間遅れが変動すると、速度映像の効果が小さくなる。
視線映像の通信遅延等に起因して、視線映像は、視線映像の視点(視線カメラ)の変位に対して時間遅れを有する。時間遅れは、状況により変動する。時間遅れが変動すると、速度映像の効果が小さくなる。
視線映像の時間遅れの変動の影響を軽減するために、視線映像上の対象の変位を、視線映像の視点の変位に対して所定の時間遅れとする制御装置を構成すると、本発明のさらなる効果を得ることができる。
制御装置の記憶部には、予め所定の時間遅れが設定されている。所定の時間遅れは、状況に応じて設定される。たとえば、人間が多い環境で移動ロボットを操作する用途では、安全性、即応性を重視して最大通信遅延時間よりも大きく、なるべく小さい時間遅れを設定することが好ましい。
制御装置は、一定時間において、所定の時間遅れと視線映像の表示遅延との差分を検出する。制御装置は、その次の一定時間において、その差分を用いて、視線映像の表示を遅らせる。視線映像の表示遅延は、視線カメラおよび制御装置の生成する命令の時刻を、制御装置により検出することで取得することができる。
これにより、速度映像の効果が安定するさらなる効果を得ることができる。なお、所定の時間遅れもつ視線映像を生成できれば、本例とは異なる構成・方法でも本発明は実施可能である。
また、所定の時間遅れを経時的に変調することでも、さらなる効果が得られる。たとえば、人間には、移動ロボットが物理的に作用すべき対象がある場合に、移動ロボットと対象との衝突を避けようとする心理がはたらく場合がある。この場合に、移動ロボットは、本来到達すべき位置よりも手前で停止させられる傾向がある。
これに対して、移動ロボットの停止の指令を出すタイミングに限って、時間遅れを大きくすることで、より対象に対して適切な位置で停止できる場合もある。このように、経時的に時間遅れを変調して、さらなる効果を得ることができる。
(効果)
以上、実施例1から4で説明したように、本発明を用いれば、操作対象と視線映像の視点の相対的な変位の情報から、操作対象の位置や速度を推定するのに直感的な情報を得ることができる。特に、対象の実空間における速度の情報を直感的に得ることができるから、操作対象に関する指定制度が好悪樹する効果を奏する。
以上、実施例1から4で説明したように、本発明を用いれば、操作対象と視線映像の視点の相対的な変位の情報から、操作対象の位置や速度を推定するのに直感的な情報を得ることができる。特に、対象の実空間における速度の情報を直感的に得ることができるから、操作対象に関する指定制度が好悪樹する効果を奏する。
また、タスクや状況や個人差、対象の操作結果等に応じて、提示する速度情報の提示の態様を柔軟に調整・決定できる。これにより、操作者の予測と操作対象の運動との乖離が小さくなる効果が得られる。さらに、操作者の予測と操作対象16の運動とを意図的に乖離させ、操作者にとってよい運動結果を生じさせることもできる。また、操作対象の動作に応じて、経時的に本発明の効果を向上させていくこともできる。
また、本発明を用いると速度情報を単純なパターンやシンボルで簡易に提示できる。また、視線映像の観察を妨げず、少ない視線移動にて、明瞭な、速度情報を利用することができる。また、視線映像からの注意の分散を抑えつつ、高い感度で操作者に速度映像を知覚させることができる。また、速度映像の表示箇所に応じて、複数の速度情報を提示することもできる。
また、本発明を用いると視線映像から得られる速度情報と、重複のない速度情報を得ることができる。また、進行方向に関して明瞭な速度得ることができる。また、操作対象の動作に対して変動の少ない速度情報を得ることができる。また、専用のカメラを構成しなくても、簡易に速度情報を提示することができる。また、仮想環境における移動体においても同様の効果を得ることができる。
(第5の実施例)
以下、本発明の第5の実施例に係る移動体制御システムについて、添付の図を参照しながら詳細に説明する。実施例1乃至4と同一の構成には同一の符号を付し、説明は省略する。
以下、本発明の第5の実施例に係る移動体制御システムについて、添付の図を参照しながら詳細に説明する。実施例1乃至4と同一の構成には同一の符号を付し、説明は省略する。
図19に本実施例に係る移動体制御システムの説明図を示す。本実施例に係る移動体制御システムは、6個のディスプレイ(表示面)を含むディスプレイ群(表示装置)600と、円筒状の移動ロボット601と、これらの制御装置12と、を有する。移動ロボット601は、6個のカメラを含むカメラ群603を有する。
(ディスプレイの構成)
図20は、本実施例に係るディスプレイ群600の構成の説明図である。図20では、ディスプレイ群600を鉛直上方向(Z軸正の方向)から見た図である。
図20は、本実施例に係るディスプレイ群600の構成の説明図である。図20では、ディスプレイ群600を鉛直上方向(Z軸正の方向)から見た図である。
ディスプレイ6001(および6002(不図示))は、操作者Oに対して座標系RのXZ平面からの情報を提示するように構成されている。
線対称形状を有する各ディスプレイの線対称軸を用いて配置を説明する。ディスプレイの水平方向(X軸方向)の線対称軸6001Aを基準とすると、線対称軸6001Aは操作者Oに対向するXZ平面に平行に構成される。さらに、本実施例では、ディスプレイ6001およびディスプレイ6002は各々の線対称軸周りに回転できる。
線対称軸6001Aの両端の領域には、ディスプレイ6003およびディスプレイ6004が構成される。各ディスプレイの水平方向の線対称軸6003Aおよび線対称軸6004Aは、線対称軸6001Aと直交する線6001Nに対して以下の角度で交差することが望ましい。すなわち、交差角度θ1が、90度以上135度以下であることが望ましい。更に好ましくは、交差角度θ1が、90度以上120度以下であることが望ましい。角度θ1がこれらの範囲に調整可能でも構わない。
ディスプレイ6003およびディスプレイ6004の表示面の法線(不図示、表示面からの映像光の主光線の進行する向き)は、操作者Oの左右方向(X軸方向)から操作者Oに向かうように構成される。これにより操作者Oは、ディスプレイ6005およびディスプレイ6006から左右方向からの映像を視認できる。
さらに線対称軸6001Aの両端の領域には、ディスプレイ6005およびディスプレイ6006が構成されている。各ディスプレイの水平方向の線対称軸6005Aおよび線対称軸6006Aは、線対称軸6001Aと直交する線6001Nに対して以下の角度で交差することが望ましい。すなわち、交差角度θ2が、90度以上135度以下であることが望ましい。更に好ましくは、交差角度θ2が、90度以上120度以下であることが望ましい。角度θ2がこれらの範囲に調整可能でも構わない。
さらに、ディスプレイ6005およびディスプレイ6006は各ディスプレイの水平方向の線対称軸周りに各々若干回転して構成される。
ディスプレイ6005およびディスプレイ6006の表示面の法線は、操作者Oの鉛直下方向(Z軸負の方向)から操作者Oに向かうように構成される。これにより操作者Oは、ディスプレイ6005およびディスプレイ6006から鉛直下方向からの映像を視認できる。
ディスプレイ6003およびディスプレイ6004の表示面の法線が、鉛直上方向から操作者Oに向かうように構成されていても本発明の効果を得られる。このように構成すれば、操作者Oは、ディスプレイ6003およびディスプレイ6004から鉛直上方向(座標系RのZ軸正の向き)からの映像を視認できる。
(閉空間)
以上の各ディスプレイの法線は、各ディスプレイに囲まれる閉空間Cを通る。この領域に操作者Oが位置すれば、操作者Oは、各ディスプレイの映像を観察できる。
以上の各ディスプレイの法線は、各ディスプレイに囲まれる閉空間Cを通る。この領域に操作者Oが位置すれば、操作者Oは、各ディスプレイの映像を観察できる。
なお、閉空間Cは操作者Oが出入り可能なように少なくとも1方向が開いており、完全な密閉空間ではない。図20では、座標系RのY軸負の方向にはディスプレイが構成されず、開いている。また、操作者Oの鉛直方向上下には前述のようにディスプレイが構成されるものの、コントローラ(不図示)の操作等のために一部開いている。
なお、閉空間Cは操作者Oが出入り可能であれば、密閉空間としても構わない。また、本実施例ではY軸方向の一方とX軸方向の両方を各ディスプレイで覆い閉空間Cを構成した。このように、少なくとも直交座標系である座標系Rの2本の軸方向それぞれ1箇所ずつを覆うことが好ましい。例えば、Y軸方向の一方と、Z軸方向の1方向を覆う構成としても本発明は実施できる。
操作者Oは、閉空間Cにおいて、中心視野にてディスプレイ6001およびディスプレイ6002(図19参照のこと)を観察しているとき、周辺視野にてその他のディスプレイを観察できる。
(ディスプレイの表示内容)
ディスプレイ群600は、移動ロボット601が取得するオブジェクト(目標物)Tに関する第1の映像を、ディスプレイ6001および6002に表示する。これらの映像は、図19に示す第1のカメラ群6031から取得される。
ディスプレイ群600は、移動ロボット601が取得するオブジェクト(目標物)Tに関する第1の映像を、ディスプレイ6001および6002に表示する。これらの映像は、図19に示す第1のカメラ群6031から取得される。
ディスプレイ6002は、操作者Oが移動ロボット601を遠隔操作するのに主に用いる情報を表示している。すなわちディスプレイ6002は、最もオブジェクトTに関する情報量の多い映像を表示している。
ディスプレイ6001は、オブジェクトTに対する補助的な情報を表示可能である。例えば、オブジェクトTまでの距離等を補助的に表示できる。
その他のディスプレイには、第2の映像を表示する。第2の映像は、図19に示す第2のカメラ群6032から取得される。
本実施例の第2の映像は、オブジェクトTに関する情報を含まないように構成されている。言い換えれば、第2のカメラ群6032は、第1のカメラ群6031の主光線と直交する(交差する)方向の映像を取得している。なお、第1の映像との区別が以下のようにつけば、オブジェクトTの像をその一部に含んでも構わない。
第2の映像は、移動ロボット601を本実施例にかかるディスプレイ群600に対して図19で示す操作者Oの位置(閉空間C内)に置いたときに、移動ロボット601からみた各ディスプレイの方向と実質的に等価な方向の映像である。本実施例では、閉空間Cに移動ロボット601を置いたとき、各ディスプレイの法線(ディスプレイからの光線が進む方向)とは逆向きに、各カメラの光軸が向くように、カメラ群603が構成されている。
(要素)
したがって、本実施例に係る第2の映像は、オブジェクトTを含まない映像となる。また、第1の映像とは明確に区別可能な、風景の像を要素として含む映像となる。
したがって、本実施例に係る第2の映像は、オブジェクトTを含まない映像となる。また、第1の映像とは明確に区別可能な、風景の像を要素として含む映像となる。
本実施例では、床面(不図示)から得られるパターンの映像が、映像を操作者Oに向けて鉛直下方向から表示するディスプレイ6003およびディスプレイ6004に表示される。前述したように、床面はオプティック・フローを生じ得るパターンの情報を含む。
さらに、閉空間Cにおいてディスプレイ6001を注視している際に操作者Oが知覚する映像は、ディスプレイ6003およびディスプレイ6004の配置により、幾何学的に歪む。この歪みにより、第2の映像がいっそうパターンの流動として知覚されやすくなる。
あるいは、移動ロボット601の側面や天面のパターンの映像が、それぞれ対応する方向からのディスプレイに表示される。床面と同様に、側面や天面もオプティック・フローを生じ得るパターンの情報を含む。
すなわち、本実施例に係る第2の映像は、第1の映像上のオブジェクトTとは空間的、あるいは時間的に異なる変化をする要素を含む映像である。
(スケールの独立)
さらに、本実施例に係る第2の映像のスケール(表示倍率)は、第1の映像のスケールよりも所定の倍率で拡大されている。すなわち、第2の映像の要素は、第1の映像の表示スケールとは独立のスケールで表示される。
さらに、本実施例に係る第2の映像のスケール(表示倍率)は、第1の映像のスケールよりも所定の倍率で拡大されている。すなわち、第2の映像の要素は、第1の映像の表示スケールとは独立のスケールで表示される。
すなわち第2の映像の要素は、第1の映像を生成する視点(第1のカメラ群6031の視点)の変位に対して、所定の変位速度であるように、表示倍率を決定する。
本実施例では、視点の変位速度よりも、要素の変位速度が速くなるように、表示倍率を拡大している。すなわち、本実施例では第1の映像を生成する視点(第1のカメラ群6031の視点)の変位のスケール(移動ロボット601の移動速度)に対して、第2の映像の変位のスケール(オプティック・フローの流動速度)は、相対的に異なる。
別の観点では、本実施例では、第1の映像の倍率と、第2の映像の倍率とは互いに異なる。
スケールを第1の映像と独立させ、移動ロボット601の移動の速度スケールに対応させるために、本実施例では第2の映像の表示倍率を拡大した。しかしながら、その他の方法によっても本発明の効果を得ることができる。例えば、第2の映像を取得する第2のカメラ群6032の撮像倍率(レンズ等の光学素子の光学倍率)を、第1のカメラ群603と異ならせてもよい。あるいは、第2の映像の表示あるいは撮像画角を変更(トリミング)させてもよい。
また、第2の映像の倍率を縮小させても構わない。倍率は、ディスプレイ6002の表示倍率等に基づいて決める。あるいは、前述した所定の関係の決定手段を用いることが好ましい。
すなわち、第2の映像に含まれる種々の要素の表示スケール(第2の映像の倍率)は、第1の映像の表示スケール(第1の映像の表示倍率)とは、互いに異なることになる。
あるいは、各実施例で説明したように要素としてのパターンを画像処理により明示することで本発明の更なる効果を得ることができる。
(効果)
第2の映像により操作者Oは、映像上での対象の移動から、周辺視野において、移動ロボット601の移動に関する情報を、パターンの流動として知覚できる。
第2の映像により操作者Oは、映像上での対象の移動から、周辺視野において、移動ロボット601の移動に関する情報を、パターンの流動として知覚できる。
さらに、移動ロボット601の移動の速度よりも変位速度の速い第2の映像を周辺視野にて観察することで、遠隔においても移動ロボット601の移動感をより得られる。これにより、操作者Oの移動ロボット601に関する位置(奥行き位置)の知覚を変調できる。変位速度が遅い第2の映像の観察によっても、位置の知覚を変調できる。
さらに、操作者Oは、タスクに主に用いディスプレイ6001(あるいはディスプレイ6002)の視野の減少なくタスクを遂行できる。
さらに、操作者Oは、自らの首を各ディスプレイに向けて回転させることで、首の運動に対する時間遅れなく、移動ロボット601の周囲の情報を自然に取得できる。すなわち、第2の映像を、周囲の状況の確認のための映像としても用いられる。
(第6の実施例)
以下、本発明の第6の実施例に係る移動体制御システムについて、添付の図を参照しながら詳細に説明する。実施例1乃至5と同一の構成には同一の符号を付し、説明は省略する。
以下、本発明の第6の実施例に係る移動体制御システムについて、添付の図を参照しながら詳細に説明する。実施例1乃至5と同一の構成には同一の符号を付し、説明は省略する。
図21に示す本実施例に係る移動体制御システムは、ディスプレイ700、移動ロボット701を含む。
移動ロボット701は、進行方向Fに関し、タスクに関係するオブジェクトTを含むことのできる第1の映像を取得する第1のカメラ7011を有する。移動ロボット701はさらに、鉛直下向きの方向Uに関し、床面Gを含む第2の映像を取得する第2のカメラ7012を有する。
本実施例のディスプレイ700の表示面は、3つの領域に分割されている。表示面の中央領域を含む第1の領域7001は、第1の映像を表示する。表示面の中央領域を含まない第2の領域7002、および第3の領域7003は、第2の映像を表示する。
本実施例に係る第2の映像は複数生成され(複製され)、第2の領域7002および第3の領域7003において格子状に配列されている。すなわち、第2の映像そのものが、単位格子として各領域に敷き詰められ、パターンを構成している。例えば、第3の領域に示した単位格子7003Mは、それ単独で第2の映像を表示している。これに隣接する単位格子も、同じく第2の映像を表示している。言い換えれば、全ての単位格子が、それぞれ第2の映像を表示している。
本実施例において第2の映像は、倍率を縮小することにより単位格子のサイズに変更されている。したがって、第1のカメラ7011の移動の速度に対して遅い速度のオプティック・フローとなる。なお、映像をトリミングすることによって単位格子を構成する等しても本発明は実施できる。
したがって、本実施例では、第2の映像そのものが要素となり、第1の映像と明確に区別され、空間的あるいは時間的に異なる変化をする。例えば、第2の映像の一部に何らかの物体が映り込めば、この物体がディスプレイ700上では単位格子の数だけ増えて表示されるので、操作者Oにはパターンとして知覚される。
すなわち、第2の映像に含まれる種々の要素の表示スケール(第2の映像の倍率)は、第1の映像の表示スケール(第1の映像の表示倍率)と互いに異なることになる。
さらに、第2の映像は、図21に示すように消失点に向けて透視投影変換されている。言い換えれば、パターンに奥行きを付与する画像表現を行っている。透視投影変換は、画像処理に関する公知の方法を用いることができる。本実施例では、表示制御部(不図示)が本処理を実行する。これにより、パターンが立体的に知覚される。
(効果)
本実施例では、単位要素が第2の映像で構成されているため、第2の映像の変化がパターンとして、操作者Oに増幅されて知覚されることになる。すなわち、操作者Oに、移動体の位置や動作に関する情報をより明確に知覚させることができる。
本実施例では、単位要素が第2の映像で構成されているため、第2の映像の変化がパターンとして、操作者Oに増幅されて知覚されることになる。すなわち、操作者Oに、移動体の位置や動作に関する情報をより明確に知覚させることができる。
以上説明した実施例以外の形態でも、本発明の趣旨の範囲内で、種々の構成の変更が可能である。
11、21、601、701・・・移動ロボット
13、400、504・・・ヘッドマウントディスプレイ
33、500、501、502、503、700・・・ディスプレイ
600・・・ディスプレイ群
130、230、430、530・・・表示面
G・・・・床面
28、38・・・シンボル
OFG・・正規速度情報
13、400、504・・・ヘッドマウントディスプレイ
33、500、501、502、503、700・・・ディスプレイ
600・・・ディスプレイ群
130、230、430、530・・・表示面
G・・・・床面
28、38・・・シンボル
OFG・・正規速度情報
Claims (37)
- 対象に関する情報を含む第1の映像とともに、前記対象とは空間的あるいは時間的に異なる変化をする要素を含む第2の映像と、を表示可能であって、
前記要素の変化もしくは変化率のスケールは、前記第1もしくは第2の映像の表示スケールとは独立であるとともに、前記第1の映像を生成する視点の存在する空間における該視点の変位に関する情報のスケールと所定の関係を有する
ことを特徴とする表示装置。 - 前記第1の映像の表示スケールは、前記視点の変位に関する情報のスケールと実質的に等倍である
ことを特徴とする請求項1に記載の表示装置。 - 前記視点の変位に関する情報は、該視点の速度の情報である
ことを特徴とする請求項1または2に記載の表示装置。 - 前記要素の時間的あるいは空間的な変化は、位置の変化を表現する変位である
ことを特徴とする請求項1乃至3のいずれか一項に記載の表示装置。 - 前記要素の変位の方向は、前記第1の映像のオプティック・フローの方向と実質的に同一である
ことを特徴とする請求項4に記載の表示装置。 - 前記要素の時間的あるいは空間的な変化は、前記要素の表現の変化を含む
ことを特徴とする請求項1乃至5のいずれか一項に記載の表示装置。 - 前記所定の関係は、所定の比率を用いて特定される
ことを特徴とする請求項1乃至6のいずれか一項に記載の表示装置。 - 前記所定の比率は、前記視点の存在する空間のスケールでの該視点の速度に対して実質的に等倍である
ことを特徴とする請求項7に記載の表示装置。 - 前記所定の関係は、前記表示装置の観察者のパラメーターの決定手段により特定される
ことを特徴とする請求項1乃至8のいずれか一項に記載の表示装置。 - 前記決定手段は、
操作者による操作が可能な操作対象と、操作対象の操作の目標を示すターゲットと、表示部材と、
前記操作者が前記ターゲットおよび前記操作対象の少なくとも一部の動作過程を目視できないように、かつ、前記表示部材の表示する映像を目視可能にするマスクと、
前記表示部材の観察者が該表示部材からの映像に基づいて前記操作対象を前記ターゲットに向けて変位させる試行を計測する計測部と、を備え、
前記計測の結果を用いて前記所定の関係を特定する
ことを特徴とする請求項9に記載の表示装置。 - 前記所定の関係は前記視点の存在する空間のスケールでの該視点の速度に対して変化する
ことを特徴とする請求項1乃至10のいずれか一項に記載の表示装置。 - 前記要素は、前記視点の変位の情報を表現する形状、模様、色彩のうちの少なくともひとつを有し、
前記表現は、前記形状、前記模様、前記色彩、あるいは前記形状、前記模様、前記色彩のうちの少なくともひとつの位置、動き、速度、表現のうち少なくともひとつを変化させる
ことを特徴とする請求項1乃至11のいずれか一項に記載の表示装置。 - 前記要素は、シンボル、パターン、テクスチャー、グラデーション、ハッチングパターン、ランダムドットパターン、のうち少なくともひとつを含む
ことを特徴とする請求項12に記載の表示装置。 - 前記第2の映像は透過され、前記第1の映像に重畳される
ことを特徴とする請求項1乃至13のいずれか一項に記載の表示装置。 - 前記表示装置の表示面は、該表示面の中心を含む第1の領域と、前記中心を含まない第2の領域と、を有し、
前記第2の映像は、前記第2の領域のうち少なくとも一部の領域に表示される
ことを特徴とする請求項1乃至14のいずれか一項に記載の表示装置。 - 前記第2の領域の面積は、前記第1の領域の面積よりも大きい
ことを特徴とする請求項15に記載の表示装置。 - 前記第1の映像に対する前記第2の映像の表示の割合は、前記第1の領域よりも前記第2の領域において高い
ことを特徴とする請求項15または16に記載の表示装置。 - 前記要素は、前記所定の関係を有さない文字、記号、数字の情報を含まない
ことを特徴とする請求項1乃至17のいずれか一項に記載の表示装置。 - 前記対象の変位は、前記視点の変位に対して所定の時間遅れを含むよう構成されている
ことを特徴とする請求項1乃至18のいずれか一項に記載の表示装置。 - 前記第2の映像は、前記第1の映像よりも遅延が小さいように構成されている
ことを特徴とする請求項1乃至19のいずれか一項に記載の表示装置。 - 前記第2の映像は複数生成され、格子状に配列される
ことを特徴とする請求項1乃至20のいずれか一項に記載の表示装置。 - 前記第2の映像は透視投影変換されている
ことを特徴とする請求項1乃至21のいずれか一項に記載の表示装置。 - 前記表示装置は複数の表示面を有し、
前記複数の表示面は、該複数の表示面のうち前記第1の映像を表示する表示面の線対称軸に直交する直交線を基準としたとき、前記複数の表示面のうち前記第2の映像を表示する表示面の線対称軸が前記直交線に90度以上135度以下の角度で交差するように閉空間を形成するとともに、
前記複数の表示面の各法線は、前記閉空間を通過するように構成されている
ことを特徴とする請求項1乃至22のいずれか一項に記載の表示装置。 - 前記複数の表示面の線対称軸が前記直交線に90度以上120度以下の角度で交差するように閉空間を形成する
ことを特徴とする請求項23に記載の表示装置。 - 前記複数の表示面の少なくとも1面の法線は、鉛直方向を向いている
ことを特徴とする請求項23または24に記載の表示装置。 - 前記複数の表示面は、該複数の表示面のうち前記第1の映像を表示する表示面に配された3本の座標軸を有する直交座標系の少なくとも2本の前記座標軸方向のそれぞれ1箇所ずつを覆うように構成される
ことを特徴とする請求項23乃至25のいずれか一項に記載の表示装置。 - 対象に関する情報を含む第1の映像とともに、前記第1の映像上の対象とは空間的あるいは時間的に異なる変化をする要素を含む第2の映像と、を表示可能であって、
前記要素の変化もしくは変化率のスケールは、前記第1もしくは第2の映像の表示スケールとは独立であるとともに、前記第1の映像を生成する視点の存在する空間における該視点の変位に関する情報のスケールと所定の関係を有する
ことを特徴とする表示装置。 - 目標物に関する情報を含む第1の映像とともに、前記第1の映像上の目標物とは空間的あるいは時間的に異なる変化をする要素を含む第2の映像と、を表示可能であって、
前記要素の表示スケールと、前記第1の映像の表示スケールと、は互いに異なる
ことを特徴とする表示装置。 - 前記第1の映像の倍率と、第2の映像の倍率と、は互いに異なる
ことを特徴とする請求項28に記載の表示装置。 - 撮像装置を備えた移動体と、該移動体の操作装置と、該移動体の操作者に該移動体に関する映像を表示する請求項1乃至29のいずれか一項に記載の表示装置と、前記映像を制御する表示制御部と、を有し、
前記撮像装置は、前記移動体の存在する空間における第1の方向の前記第1の映像を撮像し、
前記第2の映像は、前記第1の方向と交差する第2の方向の情報を含む
ことを特徴とする移動体制御システム。 - 前記要素の時間的あるいは空間的な変化は、位置の変化を表現する変位であり、前記移動体の変位に関する情報のうち、該移動体の速度の情報のスケールに対して所定の関係となるように構成されている
ことを特徴とする請求項30に記載の移動体制御システム。 - 前記移動体に固定の座標系の第1の軸の正の方向を前記移動体の前進方向、第2の軸の正の方向を前記移動体の左折方向、第3の軸の正の方向を前記移動体の移動する面から該移動体に作用する力の方向と定めた場合に、
前記第2の映像は、前記第2の軸あるいは前記第3の軸の方向の映像である
ことを特徴とする請求項30または31に記載の移動体制御システム。 - 前記第2の映像は、該第2の映像の上側が前記第1の軸の正の方向と一致するように取得されるように構成されている
ことを特徴とする請求項32に記載の移動体制御システム。 - 前記移動体制御システムは、前記第2の方向の情報を取得可能な検出部を有し、
前記表示制御部は、前記検出部の取得した前記第2の方向の速度に関する情報を用いて、前記第2の映像を生成する
ことを特徴とする請求項30乃至33のいずれか一項に記載の移動体制御システム。 - 撮像装置を備えた移動体であって、
前記撮像装置は、該移動体の操作者が観察可能な該移動体の存在する空間の対象に関する第1の映像を撮像し、
前記第1の映像とともに前記移動体の操作者が観察可能な第2の映像は、前記第1の映像上で変位する前記対象とは空間的あるいは時間的に異なる変化をする要素を含み、
前記要素の変化もしくは変化率のスケールは、前記第1もしくは第2の映像の表示スケールとは独立であるとともに、前記移動体の存在する空間における該移動体の変位に関する情報のスケールとは所定の関係を有する
ことを特徴とする移動体。 - 操作者による操作が可能な操作対象と、前記操作対象の操作の目標を示すターゲットと、表示装置と、を用意する工程と、
前記操作者が前記操作対象の少なくとも一部の動作過程を目視できないように、かつ、前記表示装置の表示する映像を目視可能に構成されたマスクと、を用意する工程と、
前記操作者が前記表示装置からの映像に基づいて前記操作対象を前記ターゲットに向けて変位させ、到達させた位置と前記ターゲットとの誤差を計測する工程と、
前記誤差を用いて、前記表示装置に表示される映像に含まれる要素の変化あるいは変化率を特定する工程と、を含む
ことを特徴とする表示装置の製造方法。 - 操作者による操作が可能な操作対象と、前記操作対象の操作の目標を示すターゲットと、表示装置と、を用意する工程と、
前記操作者が前記操作対象の少なくとも一部の動作過程を目視できないように、かつ、前記表示装置の表示する映像を目視可能に構成されたマスクと、を用意する工程と、
前記操作者が前記表示装置からの映像に基づいて前記操作対象を前記ターゲットに向けて変位させ、到達させた位置と前記ターゲットとの誤差を計測する工程と、
前記誤差を用いて、前記表示装置に表示される映像に含まれる要素の変化あるいは変化率を特定する工程と、を含む
ことを特徴とすることを特徴とする映像の表示方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018165518 | 2018-08-17 | ||
JP2018165518 | 2018-08-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020031413A true JP2020031413A (ja) | 2020-02-27 |
Family
ID=69622946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019016774A Pending JP2020031413A (ja) | 2018-08-17 | 2019-02-01 | 表示装置、移動体、移動体制御システム、これらの製造方法、および映像の表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020031413A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023228331A1 (ja) * | 2022-05-25 | 2023-11-30 | 三菱電機株式会社 | 遠隔機械操作システム、視覚提示装置、視覚提示方法およびプログラム |
-
2019
- 2019-02-01 JP JP2019016774A patent/JP2020031413A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023228331A1 (ja) * | 2022-05-25 | 2023-11-30 | 三菱電機株式会社 | 遠隔機械操作システム、視覚提示装置、視覚提示方法およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220292790A1 (en) | Head-mounted display with pass-through imaging | |
CN107209386B (zh) | 增强现实视野对象跟随器 | |
CN110022470B (zh) | 使用合成图像训练对象检测算法的方法和系统和存储介质 | |
KR100294925B1 (ko) | 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법 | |
EP3379525A1 (en) | Image processing device and image generation method | |
US20160307374A1 (en) | Method and system for providing information associated with a view of a real environment superimposed with a virtual object | |
EP2914002A1 (en) | Virtual see-through instrument cluster with live video | |
WO2016113951A1 (ja) | 頭部装着型表示装置、及び映像表示システム | |
CN110187855A (zh) | 近眼显示设备的避免全息影像阻挡视线的智能调节方法 | |
US20100315414A1 (en) | Display of 3-dimensional objects | |
US20190371072A1 (en) | Static occluder | |
WO2017213070A1 (ja) | 情報処理装置および方法、並びに記録媒体 | |
JPWO2016098412A1 (ja) | 頭部装着型表示装置、及び映像表示システム | |
JP2018526716A (ja) | 媒介現実 | |
JP2012079291A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
CN107810634A (zh) | 用于立体增强现实的显示器 | |
CN114641251A (zh) | 外科手术虚拟现实用户接口 | |
WO2017122270A1 (ja) | 画像表示装置 | |
US20220147138A1 (en) | Image generation apparatus and information presentation method | |
US10359840B2 (en) | Method for operating a virtual reality system, and virtual reality system | |
US10957106B2 (en) | Image display system, image display device, control method therefor, and program | |
JP2020031413A (ja) | 表示装置、移動体、移動体制御システム、これらの製造方法、および映像の表示方法 | |
WO2017191702A1 (ja) | 画像処理装置 | |
Saraiji et al. | Real-time egocentric superimposition of operator's own body on telexistence avatar in virtual environment | |
KR101947372B1 (ko) | Hmd에 위치 보정 영상을 제공하는 방법 및 hmd에 위치 보정 영상을 표시하는 방법, 그리고 이를 이용한 위치 보정 영상을 표시하는 hmd |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190322 |