JP6933849B1 - 体感型インターフェースシステム、及び、動作体感システム - Google Patents

体感型インターフェースシステム、及び、動作体感システム Download PDF

Info

Publication number
JP6933849B1
JP6933849B1 JP2021520433A JP2021520433A JP6933849B1 JP 6933849 B1 JP6933849 B1 JP 6933849B1 JP 2021520433 A JP2021520433 A JP 2021520433A JP 2021520433 A JP2021520433 A JP 2021520433A JP 6933849 B1 JP6933849 B1 JP 6933849B1
Authority
JP
Japan
Prior art keywords
avatar
region
user
virtual space
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021520433A
Other languages
English (en)
Other versions
JPWO2022049707A1 (ja
Inventor
良哉 尾小山
良哉 尾小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of JP6933849B1 publication Critical patent/JP6933849B1/ja
Publication of JPWO2022049707A1 publication Critical patent/JPWO2022049707A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

VRシステムSは、第1アバター及び第2アバターが存在する仮想空間を生成する仮想空間生成部10、ユーザの動作に応じて第1アバターの動作を制御し、第1アバターの動作に応じて第2アバターの動作を制御するアバター制御部15、仮想空間をユーザに認識させるHMD4、制御対象が実行可能な動作を認識する可能動作認識部14及び第2アバターの動作に応じて、制御対象の動作を制御する対象制御部17を備える。アバター制御部15は、第2領域で制御対象が実行可能な動作に基づいて、第2アバターが実行可能な動作を制限する。

Description

本発明は、仮想空間を介して、現実空間でユーザが存在している領域と異なる領域に存在する制御対象の動作を制御するための体感型インターフェースシステム、及び、その制御対象が実行可能な動作を体感することができる動作体感システムに関する。
従来、ユーザに、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)を介して、サーバ等で生成した仮想空間の画像、及び、その仮想空間でユーザに対応するアバターの画像を認識させることによって、ユーザ自身がその仮想空間に存在していると認識させて仮想現実を体感させる、いわゆる没入型の仮想空間体感システムがある。
この種の仮想空間体感システムとしては、モーションキャプチャー装置等によって、現実空間におけるユーザの動作(例えば、身体の動作、座標の移動、姿勢の変化等)を認識し、その認識した動作に応じて、仮想空間のアバターの動作を制御するものがある(例えば、特許文献1参照)。
この特許文献1の仮想空間体感システムは、仮想空間に、ユーザに対応する第1のアバター、ゲームパッド型のオブジェクト、及び、所定のキャラクター型の第2のアバターを生成する。そして、このシステムは、ユーザの動作に応じて第1のアバターを動作させて、第1のアバターの動作に応じてゲームパッド型のオブジェクトを動作させて、ゲームパッド型のオブジェクトの動作に応じて第2のアバターを動作させる。
特開2019−033881号公報
ところで、2つの現実空間のインターフェースとして仮想空間を介在させ、仮想空間で、ユーザに対応する第1アバターの動作を介して第2アバターを動作させて、ユーザが存在している現実空間とは時間及び位置の少なくとも一方が異なる現実空間で、第2アバターに対応するロボット等の制御対象の動作を制御するインターフェースシステムが望まれる。
そのインターフェースシステムでは、実際にはユーザが進入すること等の難しい領域(例えば、廃炉作業中の原発等)に対応してつくられた仮想空間に、現実空間の所定の領域に存在しているユーザに対応する第1アバターと、ユーザが存在している領域とは異なる現実空間の領域に存在する制御対象(例えば、その原発の内部に存在するロボット等)に対応する第2アバターを生成する。
これによれば、ユーザは、仮想空間で自らに対応する第1アバターを介して制御対象に対応する第2アバターを動作させることによって、ユーザとは異なる領域に存在している制御対象の動作を、自らの手で直接触って動作させているかのように、制御することができるようになる。
ここで、そのようなインターフェースシステムを構築するに際し、特許文献1のシステムを利用することが考えられる。しかし、特許文献1のシステムにおいてユーザが制御するものは、仮想空間に存在しているアバターである。
そのため、特許文献1のシステムを利用して、そのようなインターフェースシステムを構築した場合、制御対象が現実空間に存在しているにもかかわらず、ユーザは、その制御対象に対応するアバターを、その現実空間における制約(例えば、制御対象の周辺環境、制御対象の機能等)を考慮せずに、動かそうとしてしまう場合が生じることがある。
本発明は以上の点に鑑みてなされたものであり、ユーザが、仮想空間を介して、現実空間で自らが存在している領域とは異なる領域に存在する制御対象の動作を、その異なる領域に即して制御することができるインターフェースシステム、及び、その制御対象が実行可能な動作を体感することができる動作体感システムを提供することを目的とする。
本発明の体感型インターフェースシステムは、
仮想空間を介して、現実空間の第1領域に存在しているユーザが、前記第1領域と時間及び位置の少なくとも一方が異なる現実空間の第2領域に存在する制御対象の動作を、制御するための体感型インターフェースシステムであって、
前記ユーザに対応する第1アバター、及び、前記制御対象に対応する第2アバターが存在する仮想空間を生成する仮想空間生成部と、
前記ユーザの前記第1領域における動作を認識するユーザ動作認識部と、
前記ユーザの動作に応じて前記第1アバターの動作を制御し、前記第1アバターの動作に応じて前記第2アバターの動作を制御するアバター制御部と、
前記第1アバターの状態及び前記第2アバターの状態に基づいて、前記ユーザに認識させる前記仮想空間の画像を決定する画像決定部と、
決定された前記仮想空間の画像を、前記ユーザに認識させる画像表示器と、
前記第2領域で前記制御対象が実行可能な動作を認識する可能動作認識部と、
前記第2アバターの動作に応じて、前記制御対象の動作を制御する対象制御部と
前記第1領域の形状及び前記第2領域の形状を認識する空間認識部とを備え、
前記仮想空間生成部は、前記仮想空間の形状が前記第1領域の形状に対応するように、前記仮想空間を生成し、
前記アバター制御部は、前記第2領域で前記制御対象が実行可能な動作、及び、前記第1領域の形状と前記第2領域の形状との相違に基づいて、前記第2アバターが実行可能な動作を制限しつつ制御することを特徴とする。
このように、本発明の体感型インターフェースシステムは、ユーザの動作に応じて、ユーザに対応する第1アバターの動作を制御し、その第1アバターの動作に応じて第2アバターの動作を制御している。これにより、ユーザは、仮想空間で、自らに対応する第1アバターを介して第2アバターを動作させることによって、現実空間で、第2アバターに対応する制御対象を動作させることができるようになっている。
ただし、仮想空間における第2アバターの動作は、ユーザが存在している第1領域とは時間及び位置の少なくとも一方が異なる第2領域に存在する制御対象が実行可能な動作に基づいて、制限しつつ制御されている。すなわち、その動作は、その制御対象が存在する現実空間における制約(例えば、制御対象の周辺環境、制御対象の機能等)に基づいて、制限しつつ制御されている。
これにより、ユーザが第1アバターを介して第2アバターを動作させようとしても、その動作が、制御対象が実行不可能な動作に対応する動作(すなわち、現実空間における制約を無視したような動作)であった場合、ユーザは、その動作を、仮想空間であっても自然と実行させることができなくなる。例えば、第2アバターが、所定の動作を実行できなくなったり、所定のスピード以上で移動できなくなったりする。
したがって、本発明の体感型インターフェースシステムによれば、制御対象が実行不可能な動作に対応する第2アバターの動作は仮想空間であっても自然と実行できなくなるので、ユーザは、制御対象が存在する現実空間の第2領域における制約を考慮しなくても、第2領域における制御対象の動作を、第2領域に即して制御することができる。
また、本発明の体感型インターフェースシステムを使用する状況としては、第1領域の形状と第2領域の形状とを一致させることができない場合、又は、一致させることが難しい場合がある。例えば、第1領域は、自宅又はオフィスの一室のような狭い空間であり、第2領域は、工事現場のような広い空間であるような場合がある。
そのような場合、第2領域の形状に対応するように仮想空間を生成してしまうと、ユーザは、自らの動作可能な範囲を誤って認識してしまうことがある。ひいては、ユーザは、自らに対応する第1アバターを動作させようとした際に、自らが存在している第1領域で周辺環境(例えば、自室に設置されている家具等)に接触する等してしまうおそれがある。
そこで、このように、仮想空間の形状が第1領域の形状に対応するように仮想空間を生成すると、その仮想空間はもともとのユーザの動作可能な範囲に対応したものになるので、ユーザは、自らが動作可能な範囲の認識を誤ることがなく第1アバターを動作させることがでるようになる。これにより、ユーザは、第1領域の形状と第2領域の形状とが相違する場合であっても、第2領域における制御対象の動作を、第1領域にいながら第2領域に即して制御することができる。
しかし、仮想空間を第1領域の形状に基づいて生成するだけでは、ユーザが、制御対象が実行不可能な動作に対応する動作を、制御対象に対応する第2アバターにさせようとしやすくなってしまうおそれがある。例えば、第1領域が第2領域よりも広い場合、第2アバターの移動量に対する制御対象の移動量が大きくなるので、ユーザが、形状の相違がない場合と同様に第2アバターを移動させると、制御対象の移動速度の上限を超えてしまうおそれがある。
そこで、このように、第2領域で制御対象が実行可能な動作だけでなく、第1領域の形状と第2領域の形状との相違にも基づいて、第2アバターの動作を制限するようにすることが好ましい。
これにより、仮想空間を第1領域の形状に基づいて生成した場合でも、それによって制御対象が実行不可能になった動作に対応する第2アバターの動作を、自然に制限することができる。ひいては、そのような場合でも、ユーザは、第1領域の形状と第2領域の形状との相違を考慮しなくても、第2領域における制御対象の動作を、第2領域に即して制御することができる。
また、本発明の体感型インターフェースシステムにおいては、
前記仮想空間における前記第2アバターの動作可能期間である第1期間の長さ、及び、前記第2領域における前記制御対象の動作可能期間である第2期間の長さを認識する期間認識部と、
前記第2アバターの動作を記憶する動作記憶部とを備え、
前記アバター制御部は、前記第2領域で前記制御対象が実行可能な動作、及び、前記第1期間の長さと前記第2期間の長さとの相違に基づいて、前記第2アバターが実行可能な動作を制限しつつ制御し、
前記対象制御部は、前記第1期間に前記動作記憶部に記憶されていた前記第2アバターの動作に応じて、前記第2期間に前記制御対象を制御することが好ましい。
本発明の体感型インターフェースシステムを使用する状況としては、第2アバターの動作と制御対象の動作とを、リアルタイムで対応させなくてもよい状況もある。そのような状況においては、このように動作記憶部を設けておくと、ある時間帯における第2アバターの動作を記憶しておき(すなわち、制御対象の動作を設定しておき)、その動作に応じて、後の時間帯で制御対象に実際に動作をさせることができる。
ところで、仮想空間における第2アバターの動作可能期間である第1期間の長さと、第2領域における制御対象の動作可能期間である第2期間の長さとは、必ずしも一致させる必要はない。例えば、第1期間を第2期間よりも長く設定することによって、短時間で制御対象に実行させたい動作(例えば、ロボットによる手術等)を、事前に時間をかけて検証しつつ設定しておくというようなことができる。
しかし、第1期間の長さと第2期間の長さとが異なると、ユーザが、制御対象が実行不可能な動作に対応する動作を、その制御対象に対応する第2アバターにさせようとしやすくなってしまうおそれがある。例えば、第1期間が第2期間よりも長い場合、第2アバターの動作速度に対する制御対象の動作速度が速くなるので、ユーザが、期間の相違がない場合と同様に第2アバターを動作させると、制御対象の動作速度の上限を超えてしまうおそれがある。
そこで、このように、第2領域で制御対象が実行可能な動作だけでなく、第1期間の長さと第2期間の長さとの相違にも基づいて、第2アバターの動作を制限するようにすることが好ましい。
これにより、第1期間の長さと第2期間の長さとが異なる場合でも、それによって制御対象が実行不可能になった動作に対応する第2アバターの動作を、自然に制限することができる。ひいては、そのような場合でも、ユーザは、第1期間の長さと第2期間の長さとの相違を考慮しなくても、第2期間における制御対象の動作を、第2領域に即して制御することができる。
また、本発明の動作体感システムは、
仮想空間を介して、現実空間の第1領域に存在しているユーザが、前記第1領域と時間及び位置の少なくとも一方が異なる現実空間の第2領域に存在する制御対象が実行可能な動作を、体感するための動作体感システムであって、
前記ユーザに対応する第1アバター、及び、前記制御対象に対応する第2アバターが存在する仮想空間を生成する仮想空間生成部と、
前記ユーザの前記第1領域における動作を認識するユーザ動作認識部と、
前記ユーザの動作に応じて前記第1アバターの動作を制御し、前記第1アバターの動作に応じて前記第2アバターの動作を制御するアバター制御部と、
第1モードと第2モードとを切り換えるモード切換部と、
前記第1アバターの状態及び前記第2アバターの状態に基づいて、前記ユーザに認識させる前記仮想空間の画像を決定する画像決定部と、
決定された前記仮想空間の画像を、前記ユーザに認識させる画像表示器と、
前記制御対象が機能として実行可能な動作を認識する対象機能認識部と、
前記第2領域で前記制御対象が動作する際の制約を認識する制約認識部とを備え、
前記アバター制御部は、前記第1モードでは、前記制御対象の機能のみに基づいて、前記第2アバターが実行可能な動作を制御し、前記第2モードでは、前記制御対象の機能及び前記第2領域における制約に基づいて、前記第2アバターが実行可能な動作を制限しつつ制御することを特徴とする。
このように、本発明の動作体感システムは、切換可能なモードのいずれにおいても、ユーザの動作に応じて、ユーザに対応する第1アバターの動作を制御し、その第1アバターの動作に応じて第2アバターの動作を制御している。
このとき、第1モードでは、仮想空間で第2アバターが実行可能な動作は、制御対象の機能のみに基づいて、制御される。具体的には、第1モードでは、ユーザが存在している第1領域とは時間及び位置の少なくとも一方が異なり、制御対象が存在する第2領域の周辺環境等は、考慮されない。これにより、第1モードでは、ユーザは、制御対象が機能として実行可能な動作を、体感することができる。
なお、第1モードでは、制御対象を第2領域で実際に動作させると、制御対象が第2領域の周辺環境に接触してしまうような可能性が生じる。そのため、第2領域における制約がほぼ無いような場合を除き、原則として、第1モードでは、制御対象は実際に動作させないことが推奨される。
一方、第2モードでは、仮想空間で第2アバターが実行可能な動作は、制御対象の機能に基づくだけではなく、第2領域における制約にも基づいて、制限しつつ制御される。
すなわち、第2モードでは、第2アバターが実行可能な動作は、現実空間である第2領域で実際に制御対象が実行可能な動作に対応したものとなる。例えば、第2アバターが、所定の動作を実行できなくなったり、所定のスピード以上で移動できなくなったりする。これにより、第2モードでは、ユーザは、現実空間である第2領域で実際に制御対象が実行可能な動作を、体感することができる。
なお、第2モードでは、制御対象を第2領域で実際に動作させても、制御対象が第2領域の周辺環境に接触してしまうおそれがない。しかし、制御対象が実際に実行可能な動作を体感するという観点からは、必ずしも、制御対象を実際に動作させなくてもよい。そのため、第2モードでは、制御対象を実際に動作させてもよいし、動作させなくてもよい。
したがって、本発明の動作体感システムによれば、ユーザは、機能のみに基づいて制御対象が実行可能な動作と、機能及び第2領域における制約に基づいて制御対象が実行可能な動作とを、比較しつつ体感することができる。ひいては、このシステムによれば、ユーザは、所定の環境下において、制御対象の機能を十全に発揮させる動作を、感覚的に検証することができる。
実施形態に係るVRシステムの概略構成を示す模式図。 図1のVRシステムの処理部の構成を示すブロック図。 図1のVRシステムがユーザに認識させる仮想空間の模式図。 図1のVRシステムにおいて生成される仮想空間広さと、現実空間における第1領域広さ及び第2領域の広さとの関係を示す説明図。 図1のVRシステムでユーザの動作が実行された時間帯とアバター、オブジェクト及びドローンの動作を実行する時間帯との関係の一例を示すタイミングチャート。 図1のVRシステムが使用が開始された際に実行する処理を示すフローチャート。 図1のVRシステムがオブジェクトの実行可能な動作を認識する際に実行する処理のうち、認識済みの情報に基づいて実行される処理を示すフローチャート。 図1のVRシステムがオブジェクトの実行可能な動作を認識する際に実行する処理のうち、新たに認識された情報に基づいて実行される処理を示すフローチャート。 図1のVRシステムがオブジェクトを動作させた際、及び、ドローンを動作させる際に実行する処理を示すフローチャート。
以下、図面を参照して、実施形態に係るVRシステムS(体感型インターフェースシステム、動作体感システム)について説明する。
VRシステムSは、仮想空間にユーザU自身が存在していると認識させて、ユーザUに仮想現実(いわゆるVR(virtual reality))を体感させるシステムである。
また、VRシステムSは、その仮想空間を介して、ユーザUが存在している現実空間の第1領域RS1と時間及び位置の少なくとも一方が異なる現実空間の第2領域RS2に存在する制御対象の動作を制御する、又は、その制御対象が実行可能な動作を、ユーザUに体感させるためのシステムである。
なお、以下においては、VRシステムSを用いて、工事現場でドローンに所定の作業(例えば、荷物の搬送等)を実行させる場合について説明する。そこで、ユーザUが存在しているユーザUの自室を第1領域RS1とし、制御対象である第1ドローンD1及び第2ドローンD2(以下、総称する場合は、「ドローンD」という。)が存在し、第1領域RS1とは離れた場所に存在している工事現場を第2領域RS2としている。
しかし、本発明の第1領域及び第2領域並びに制御対象は、このような構成に限定されるものではない。第1領域は、ユーザが存在している現実空間の領域であればよく、第2領域は、制御対象が存在し又は存在する可能性があり、且つ、第1領域と時間及び位置の少なくとも一方が異なる現実空間の領域であればよい。また、制御対象は、ユーザが仮想空間を介して、その動作を制御又はその動作を検証するものであればよい。
そのため、例えば、本発明のシステムを小動物、昆虫等といった小さな生物の視点から自然を体感するサービスに適用する場合には、第1領域を、サービスを提供する部屋とし、第2領域を、その部屋よりも小さく小動物、昆虫等が実際に飼育されている飼育箱とし、制御対象を、飼育箱の内部で移動自在なカメラ付きのロボットとしてもよい。
また、例えば、本発明のシステムをロボットによる手術に適用する場合には、第1領域を、所定の時間帯における手術室とし、第2領域を、所定の時間帯よりも後の時間帯におけるその手術室とするとともに、制御対象を、実際に手術を行うロボットとしてもよい。
[システムの概略構成]
まず、図1及び図2を参照して、VRシステムSの概略構成について説明する。
図1に示すように、VRシステムSは、ユーザUが存在している現実空間の第1領域RS1に存在している機器、ドローンDが存在する第2領域RS2に存在している機器、及び、VRシステムSを用いたサービスの提供者等の設置しているサーバ1によって、構成されている。
なお、本発明のシステムは、このような構成に限定されるものではない。例えば、第1領域又は第2領域にサーバに代わる端末を設置してもよいし、複数のサーバ、端末等を用いて、本実施形態のサーバ1の機能(後述する処理部)を実現するようにしてもよい。
第1領域RS1に存在している機器としては、ユーザUに取り付けられる複数の標識2と、ユーザU(厳密には、ユーザUに取り付けられた標識2)を撮影する第1カメラ3と、仮想空間VS(図3参照)の画像及び音声をユーザUに認識させるヘッドマウントディスプレイ(以下、「HMD4」という。)と、ユーザUが使用するコントローラ5(図1では不図示。図2参照。)が該当する。
標識2は、ユーザUが装着するHMD4、手袋及び靴等を介して、ユーザUの頭部、両手及び両足のそれぞれに取り付けられている。ただし、標識2は、後述するようにユーザUの第1領域RS1における動作(例えば、身体の各部位の動作、座標の移動、姿勢の変化等)を認識するために用いられるものである。そのため、その取り付け位置は、VRシステムSを構成する他の機器等に応じて、適宜変更してもよい。
第1カメラ3は、ユーザUそのもの、及び、第1領域RS1でユーザUが動作可能な範囲を多方向から撮影可能なように、第1領域RS1に複数設置されている。なお、第1カメラ3は、第1カメラ3の性能、第1領域RS1の形状等に応じて、1つだけ設置してもよいし、その設置場所も、適宜変更してもよい。
HMD4は、ユーザUの頭部に装着される。図2に示すように、HMD4は、ユーザUに、サーバ1によって決定された仮想空間VSの画像をユーザUの認識させるためのモニタ40(画像表示器)と、サーバ1によって決定された仮想空間VSの音声をユーザUに認識させるためのスピーカ41(音声発生器)とを有している。
コントローラ5は、後述するモードの切り換え指示、及び、第1ドローンD1に対応する第1オブジェクトO1、及び、第2ドローンD2に対応する第2オブジェクトO2への動作指示を、サーバ1に送信するために用いられる。
このVRシステムSを用いてユーザUに仮想現実を体感させる場合、ユーザUは、HMD4によって、仮想空間VSの画像と音声のみを認識させられて、ユーザU自身が後述するアバターA(図3参照)として仮想空間に存在していると認識させられる。すなわち、VRシステムSは、いわゆる没入型のシステムとして構成されている。
なお、VRシステムSでは、ユーザUの第1領域RS1における動作を認識するシステムとして、標識2と第1カメラ3と用いて構成された、いわゆるモーションキャプチャー装置を採用している。
しかし、本発明のシステムは、このような構成に限定されるものではない。例えば、モーションキャプチャー装置を使用する場合には、上記の構成のものの他、標識及びカメラの数が上記構成とは異なる(例えば、それぞれ1つずつ設けられている)ものを用いてもよい。
また、例えば、モーションキャプチャー装置以外の装置を用いて、ユーザの現実空間の第1領域における動作を認識するようにしてもよい。具体的には、ユーザの装着するHMD、手袋及び靴等にGPS等のセンサを搭載し、そのセンサからの出力に基づいて、プレイヤーの動作を認識するようにしてもよい。また、そのようなセンサと、上記のようなモーションキャプチャー装置を併用してもよい。
また、例えば、現実空間ではコントローラを省略し、仮想空間でのみコントローラに対応するオブジェクト(例えば、本実施形態において後述する第5オブジェクトO5)を生成するようにしてもよい。また、そのようなコントローラ及びオブジェクトの両方を省略し、又は、その少なくとも一方と併用して、それらを用いて行われていた指示を、ユーザの声又はジェスチャーに基づいて認識するようにしてもよい。
第2領域RS2に存在している機器としては、第2領域RS2に設置されている第2カメラ6(図1では不図示。図2参照。)が該当する。なお、本実施形態においては省略しているが、第2領域RS2には、サーバ1から受信した指示に基づいて、ドローンDを制御するための中継機器が設置されていてもよい。
第2カメラ6は、ドローンDそのもの、及び、第2領域でそれらが動作可能な範囲を、多方向から撮影可能なように、複数設置されている。なお、第2カメラ6は、第2カメラ6の性能、第2領域RS2の形状等に応じて、1つだけ設置してもよいし、その設置場所も、適宜設定してもよい。
サーバ1は、CPU、RAM、ROM、インターフェース回路等を含む1つ又は複数の電子回路ユニットにより構成されている。
サーバ1は、第1領域RS1に存在している第1カメラ3、HMD4、及び、コントローラ5、並びに、第2領域RS1に存在している第2カメラ6と、近距離無線通信、有線による通信、インターネット網、公衆回線等を通じて、相互に情報通信可能に構成されている。また、サーバ1は、ドローンDとも、同様に、相互に情報通信可能に構成されている。
[各処理部の構成]
次に、図1〜図5を用いて、サーバ1の備えている処理部の構成を詳細に説明する。
図2に示すように、サーバ1は、実装されたハードウェア構成又はプログラムにより実現される機能として、仮想空間生成部10(空間認識部、制約認識部)と、ユーザ動作認識部11と、モード切換部12と、期間認識部13と、可能動作認識部14(対象機能認識部)と、アバター制御部15と、出力情報決定部16(画像決定部)と、対象制御部17(動作記憶部)とを備えている。
仮想空間生成部10は、仮想空間VS(厳密には、仮想空間VSの背景)、並びに、その仮想空間VSに存在するユーザUに対応するアバターA(第1アバター)、及び、複数のオブジェクトの画像を生成する。また、仮想空間生成部10は、それらの画像に関連する音声も生成する。
図1及び図3に示すように、仮想空間生成部10が生成するオブジェクトには、第2領域RS2に存在する第1ドローンD1に対応する第1オブジェクトO1(第2アバター)、第2ドローンD2に対応する第2オブジェクトO2(第2アバター)、作業機械Wに対応する第3オブジェクトO3、及び、建築資材Mに対応する第4オブジェクトO4、並びに、第1領域RS1に存在しているコントローラ5に対応する第5オブジェトO5が含まれる。
また、仮想空間生成部10(空間認識部)は、第1カメラ3の撮影した画像に基づいて、第1領域RS1の形状を認識するとともに、第2カメラ6の撮影した画像に基づいて、第2領域RS2の形状を認識する。そのうえで、仮想空間生成部10は、仮想空間VSの形状が第1領域RS1の形状に対応するように、仮想空間VSを生成する。
具体的には、図4に示すように、例えば、第1領域RS1が平面視正方形の狭い空間であると認識され、第2領域RS2が平面視長方形の縦長の広い空間であると認識されたとする。その場合、仮想空間生成部10は、仮想空間VSの形状を、第1領域RS1の形状と一致するように生成する。一方で、仮想空間VSの画像は、第2領域RS2の撮影画像に基づいた画像を、第1領域RS1の形状に合わせて縮小したものとして生成される。
このとき、第1領域RS1(すなわち、仮想空間VS)の平面視におけるアスペクト比は、第2領域RS2のアスペクト比とは異なっている。そのため、仮想空間VSの画像の図面の縦方向と横方向における縮小の比率は、異なるものとなる。
なお、本発明のシステムは、このような構成に限定されるものではなく、第1領域の形状と第2領域の形状とが必ず一致する場合(例えば、時間のみが異なる場合等)には、仮想空間生成部は、第1領域の形状に基づいて第2領域の画像を変形する機能を含んでいなくてもよい。
また、仮想空間生成部10(制約認識部)は、第1カメラ3の撮影した画像に基づいて、第1領域RS1でユーザU(ひいては、ユーザUに対応するアバターA)が動作する際の制約を認識する。そのうえで、仮想空間生成部10は、その制約を考慮して仮想空間VSを生成する。
具体的には、例えば、図1、図3及び図4に示すように、仮想空間生成部10は、第1領域RS1に存在している家具Fを認識するとともに、家具Fが第1領域RS1で存在している位置に対応する仮想空間VSの位置に、アバターAが進入できない第1制約エリアLA1を生成する。なお、このとき、家具Fは、仮想空間VSにゴーストとして、半透明の状態で生成される。
また、仮想空間生成部10は、第2カメラ6の撮影した画像、及び、予め入力されていた作業機械Wの機能等に基づいて、第2領域RS2でドローンDが動作する際の制約を認識する。そのうえで、仮想空間生成部10は、その制約を考慮して仮想空間VSを生成する。
具体的には、例えば、図1、図3及び図4に示すように、仮想空間生成部10は、第2領域RS2に存在している建築資材Mを認識する。そのうえで、建築資材Mが第2領域RS2で存在している位置に対応する仮想空間VSの位置に、第2制約エリアLA2を生成する。第2制約エリアLA2は、ドローンDに対応する第1オブジェクトO1及び第2オブジェクトO2(以下、総称する場合は「対象オブジェクトO1,O2」という。)が進入不可能なエリアとなる。
同様に、仮想空間生成部10は、第2領域RS2に存在している作業機械Wを認識する。そのうえで、作業機械Wが第2領域RS2で存在し得る領域(すなわち、作業機械Wが動作を行う領域)に対応する仮想空間VSの領域に、第3制約エリアLA3を生成する。第3制約エリアLA3は、対象オブジェクトO1,O2の進入が禁止されるエリア(例えば、進入させることは可能だが警告が表示されるエリア)となる。
このように生成された第1制約エリアLA1、第2制約エリアLA2及び第3制約エリアLA3は、例えば、図3に示すように、仮想空間VSで半透明の立体物のようにして示される。
なお、仮想空間生成部10は、第1領域RS1の形状及び第2領域RS2の形状、並びに、第1領域RS1及び第2領域RS2における制約を、必ずしも第1カメラ3及び第2カメラ6の画像に基づいて認識する必要はなく、ユーザU自身等によって別途入力されたモデル、数値等に基づいて認識してもよい。
図2に示すように、ユーザ動作認識部11は、第1カメラ3が撮影した画像データに基づいて、ユーザUの動作を認識する。具体的には、ユーザ動作認識部11は、ユーザUの画像データからユーザUに取り付けられている標識2を抽出し、その抽出結果に基づいて、ユーザUの身体の各部位の動作、座標の移動及び姿勢の変化を認識する。
モード切換部12は、コントローラ5への入力等に基づいて、ユーザUのモード変更の指示を認識し、その指示に基づいて、VRシステムSが実行するモードを変更する。
VRシステムSでは、リアルタイムでドローンDを制御するモード(第2モード)と、対象オブジェクトO1,O2を動作させた時間帯よりも後の異なる時間帯でドローンDを制御するモード(第2モード)と、ドローンDを実際には制御せず、その動作を検証するモード(第1モード)の3つのモードのいずれかに変更可能となっている。
なお、本発明のシステムは、このような構成に限定されるものではなく、それらの3つのモードのうちの少なくとも1つを備えていればよい。そのため、1つのモードだけを実行するように構成する場合には、モード切換部は省略してもよい。
期間認識部13は、コントローラ5への入力等に基づいて、仮想空間VSにおける対象オブジェクトO1,O2の動作可能期間である第1期間の長さ及びその時間帯を認識する。すなわち、対象オブジェクトO1,O2を動作させるアバターA(ひいては、ユーザU)の動作可能期間を認識する。
また、期間認識部13は、コントローラ5への入力等に基づいて、第2領域RS2におけるドローンDの動作可能期間である第2期間の長さ及びその時間帯を認識する。
なお、本発明のシステムは、このような構成に限定されるものではなく、例えば、リアルタイムで制御対象を制御するモードのみを備えたものである場合には、期間認識部は、省略してもよい。
可能動作認識部14(対象機能認識部)は、第2領域RS2で、ドローンDが実行可能な動作を認識する。
具体的には、まず、可能動作認識部14(対象機能認識部)は、ユーザU等によって予め入力された情報等に基づいて、ドローンDが機能として実行可能な動作を認識する。
なお、機能として実行可能な動作は、VRシステムSを使用し始めた段階でのみ認識してもよいし、VRシステムSを使用している間に、ドローンDからフィードバックされた情報に基づいて随時認識するようにしてもよい。
また、可能動作認識部14は、期間認識部13が認識した第2期間の時間帯、仮想空間生成部10が認識した第2領域RS2の画像、第2領域RS2で実行される工事の計画、第2領域RS2の環境(天気等)等に基づいても、ドローンDが実行可能な動作を認識する。
例えば、可能動作認識部14は、別途入力された第2期間における作業機械Wの作業の予定を認識し、その期間内において、ドローンDが機能としては実行可能ではあるが、作業機械Wとの接触を避けるうえで実行不可能となる動作を認識する。その後、可能動作認識部14は、そのように認識された実行不可能となる動作を参照して、第2期間においてドローンDが実行可能な動作を認識する。
アバター制御部15は、ユーザUの動作に応じて、アバターAの動作を制御し、そのアバターAの動作に応じて、対象オブジェクトO1,O2の動作を制御する。具体的には、図3に示すように、ユーザUは、仮想空間VSで、自らに対応するアバターAの動作を介して、又は、コントローラ5に対応するオブジェクトO5を操作することによって、対象オブジェクトO1,O2の動作を制御する。
このとき、アバター制御部15は、対象オブジェクトO1,O2の動作を、それらに対応するドローンDが機能として実行可能な動作に基づいて制限する。
例えば、ユーザUが、第1ドローンD1の実際に実現可能な移動速度を超えるような速度に対応する速度で、それに対応する第1オブジェクトO1を移動させようした場合には、第1オブジェクトO1の動作が制限される。具体的には、ユーザUが、アバターAの手で押すようにして、第1オブジェクトO1を移動させている場合、その移動速度が所定の速度以上となった場合には、アバターAの手が第1オブジェクトO1を通り抜けてしまうといった処理が行われる。
また、アバター制御部15は、対象オブジェクトO1,O2の動作を、それらに対応するドローンDが第2領域RS2で実行可能な動作に基づいて制限する。
例えば、建築資材Mが第2領域RS2で存在している位置には、ドローンDは進入することができない。そこで、その位置に対応する第2制約エリアLA2には、対象オブジェクトO1,O2を移動させることができなくなる。
また、例えば、作業機械Wが第2領域RS2で存在し得る領域に、ドローンDを移動させると、作業機械Wと接触してしまう可能性がある。そこで、その領域に対応する第3制約エリアLA3には、対象オブジェクトO1,O2を移動させると、それらの色が変わるとともに、警告文章が仮想空間VSのアバターAの近傍に表示される。
また、アバター制御部15は、対象オブジェクトO1,O2の動作を、第1領域RS1の形状と第2領域RS2の形状との相違に基づいても、制限する。
例えば、第1領域RS1の形状と第2領域RS2の形状とが異なる場合、仮想空間VSは、第1領域RS1の形状に基づいて生成される。しかし、そのような仮想空間VSでは、ユーザUが、ドローンDが実行不可能な動作に対応する動作を、それらに対応する対象オブジェクトO1,O2にさせようとしやすくなってしまうおそれがある。
具体的には、第1領域RS1よりも第2領域RS2が広い場合、仮想空間VSが第1領域RS1の形状に基づいて生成されると、対象オブジェクトO1,O2の移動量に対するドローンDの移動量が大きくなる。そのため、ユーザUが対象オブジェクトO1,O2を移動させると、ドローンDの移動速度の上限を超えてしまうおそれがある。
そこで、第1領域RS1よりも第2領域RS2が広い場合(すなわち、図4に示すように仮想空間VSが第2領域RS2を縮小したものである場合)には、アバター制御部15は、対象オブジェクトO1,O2の方向ごとの移動可能速度を、その縮小の度合いに応じて、方向ごとに制限する。
これにより、対象オブジェクトO1,O2は、方向ごとに定められた速度以下でしか移動することができなくなる。具体的には、対象オブジェクトO1,O2の図4の紙面上の縦方向における移動可能速度は、横方向における移動速度よりも遅くなる。
また、アバター制御部15は、対象オブジェクトO1,O2の動作を、第1期間の長さと第2期間の長さとの相違に基づいても、制限する。
例えば、第1期間の長さと第2期間の長さとが異なる場合がある。しかし、そのような場合、ユーザUが、ドローンDが実行不可能な動作に対応する動作を、それらに対応する対象オブジェクトO1,O2にさせようとしやすくなってしまうおそれがある。
具体的には、第1期間が第2期間よりも長い場合、対象オブジェクトO1,O2の動作速度に対するドローンDの動作速度が速くなる。そのため、ユーザUが、期間の相違がない場合と同様に対象オブジェクトO1,O2を動作させると、ドローンDの動作速度の上限を超えてしまうおそれがある。
そこで、第1期間が第2期間よりも長い場合には、アバター制御部15は、対象オブジェクトO1,O2の移動可能速度を、その期間の差に応じて、全方向において一律に制限する。
これにより、対象オブジェクトO1,O2は、いずれの方向であっても定められた速度以下でしか移動することができなくなる。具体的には、対象オブジェクトO1,O2の移動可能速度は、通常の速度よりも遅くなる。
なお、本発明のシステムは、このような構成に限定されるものではない。例えば、第1領域の形状と第2領域の形状とが一致している場合には、アバター制御部は、第1領域の形状と第2領域の形状との相違に基づいて第2アバターの動作を制限しなくてもよい。また、例えば、システムがリアルタイムで制御対象を制御するモードのみを備えるように構成されている場合には、アバター制御部は、第1期間と第2期間との相違にも基づいて第2アバターの動作を制限しなくてもよい。
なお、リアルタイムでドローンDを制御するモード、又は、異なる時間帯でドローンDを制御するモードの場合には、前述のように、ドローンDが第2領域RS2で周辺環境も加味して実行可能な動作、第1領域RS1の形状と第2領域RS2の形状との相違、及び、第1期間の長さと第2期間の長さとの相違に基づいて、対象オブジェクトO1,O2の仮想空間VSにおける動作が制限される。
一方、動作を検証するモードの場合には、それらのうち周辺環境、期間の相違に基づいては動作が制限されず、形状の相違とドローンDの機能にのみ基づいて、対象オブジェクトO1,O2の仮想空間VSにおける動作が制限される。
出力情報決定部16(画像決定部)は、HMD4を介してユーザUに認識させる仮想空間VSの画像及び音声を、決定する。
対象制御部17(動作記憶部)は、仮想空間VSにおける対象オブジェクトO1,O2の動作に応じて、それらに対応するドローンDの第2領域RS2における動作を制御する。
また、対象制御部17は、第1期間に実行された対象オブジェクトO1,O2の動作を記憶することが可能となっている。これにより、リアルタイムだけでなく、第1期間よりも後の期間(少なくとも開始時期のずれた期間)である第2期間に、ドローンDを制御することが可能となっている。
さらに、対象制御部17は、第1オブジェクトO1及び第2オブジェクトO2の各々の動作について、個別に記憶することが可能となっている。これにより、それらに対応する第1ドローンD1及び第2ドローンD2の第2領域RS2における動作を、異なる時間帯で、一人のユーザUが制御することが可能となっている。
例えば、図5に示すように、まず、第1期間(t1〜t2の期間)において、ユーザが、アバターAを介して第1オブジェクトO1を動作させたとする。その際の第1オブジェクトO1の動作は、対象制御部17に記憶される。その後、第1期間よりも後の第2期間(t4〜t7の期間)において、第1ドローンD1は、対象制御部17に記憶されていた第1オブジェクトO1の動作に応じて、動作される。
このとき、この場合における第1期間と第2期間との長さは、必ずしも一致している必要はない。これにより、例えば、第1期間を第2期間よりも長く設定することによって、短時間で制御対象に実行させたい動作(例えば、ロボットによる手術等)を、事前に時間をかけて検証しつつ設定しておくというようなことができる。逆に、第2期間を第1期間よりも長く設定することによって、第2領域の状況を加味してゆっくりと行わなければいけない動作を、短時間で設定しておくというようなこともできる。
また、例えば、まず、第1期間(t3〜t6の期間)において、ユーザが、アバターAを介して第2オブジェクトO2を動作させたとする。その際の第2オブジェクトO2の動作は、対象制御部17に記憶される。その後、第1期間よりも後の第2期間(t5〜t8の期間)において、第2ドローンD2は、対象制御部17に記憶されていた第2オブジェクトO2の動作に応じて、動作される。
このように、第1オブジェクトO1についての第1期間(t1〜t2の期間)と、第2オブジェクトO2についての第1期間(t3〜t6の期間)とを異ならせることにより、一人のユーザUが複数の制御対象を制御することができる。また、その第1期間(例えば、t3〜t6の期間)は、第2第2期間(例えば、t5〜t8の期間)と一部が重複していてもよい。これにより、ユーザUは、ある程度リアルタイムで状況を加味しつつ、その後の動作を設定することができるようになっている。
なお、本発明のシステムは、このような構成に限定されるものではない。例えば、システムがリアルタイムで制御対象を制御するモードのみを備えるように構成されている場合には、動作記憶部は省略してもよい。
[各処理部で実行される処理]
次に、図2〜図8を参照して、VRシステムSの実行する処理について説明する。
なお、以下においては、対象オブジェクトO1,O2を動作させた時間帯よりも後の異なる時間帯でドローンDを制御するモードにおける処理について、詳細に説明する。リアルタイムでドローンDを制御するモードにおける処理、及び、ドローンDを実際には制御せず、その動作を検証するモードにおける処理については、異なる時間帯でドローンDを制御するモードにおける処理と相違する部分のみを説明する。
[使用が開始された際に実行される処理]
まず、図2、図3、図4及び図6を参照して、VRシステムSの各処理部が、VRシステムSの使用が開始された際に、実行する処理について説明する。
この処理においては、まず、仮想空間生成部10が、第1カメラ3及び第2カメラ6の撮影した画像、予め入力されたモデル、数値等に基づいて、第1領域RS1の形状及び第2領域RSの形状を認識する(図6/STEP100)。
次に、仮想空間生成部10が、認識された第1領域RS1の形状と第2領域RS2の形状とが異なるか否かを判断する(図6/STEP101)。
第1領域RS1の形状と第2領域RS2の形状とが異なっていた場合(STEP101でYESの場合)、仮想空間生成部10は、例えば、図4に示すように、第1領域RS1の形状に基づいて、第2領域RS2の画像を、第1領域RS1の形状に一致するように補正する(図6/STEP102)。
次に、仮想空間生成部10が、補正された第2領域RS2の画像に基づいて、仮想空間VS(厳密には、仮想空間VSの背景となる画像)を生成する(図6/STEP103)。
一方、第1領域RS1の形状と第2領域RS2の形状とが一致していた場合(STEP101でNOの場合)、仮想空間生成部10が、第2領域RS2の画像を補正せずに、その補正されていない画像に基づいて、仮想空間VS(厳密には、仮想空間VSの背景となる画像)を生成する(図6/STEP104)。
次に、仮想空間生成部10が、第1カメラ3及び第2カメラ6の撮影した画像、予め入力されたモデル、数値等に基づいて、ユーザUの第1領域RS1における初期状態(座標、姿勢等)、及び、ドローンDの第2領域RS2における初期状態(座標、姿勢等)を認識する(図6/STEP105)。
なお、本実施形態においては、ユーザUの初期状態は、第1期間における初期状態であり、現在の状態である。また、本実施形態においては、ドローンDの初期状態とは、第2期間における初期状態であり、第2期間当初の状態である。
次に、仮想空間生成部10が、仮想空間VSに、アバターAを、ユーザUの初期状態に対応するようにして生成するとともに、対象オブジェクトO1,O2を、ドローンDの初期状態に対応するようにして生成する(図6/STEP106)。
次に、仮想空間生成部10が、第1カメラ3及び第2カメラ6の撮影した画像、予め入力されたモデル、数値等に基づいて、第1領域RS1の及び第2領域RS2の周辺環境を認識する(図6/STEP107)。
具体的には、仮想空間生成部10が、第1領域RS1に存在している家具Fを、第1領域RS1の周辺環境として認識するとともに、第2領域RS2に存在している建築資材M及び作業機械Wを、第2領域RS2の周辺環境として認識する。
次に、仮想空間生成部10が、認識された周辺環境に基づいて、仮想空間VSに、それらに対応するオブジェクト及び制約エリアを生成する。
(図6/STEP108)。
具体的には、仮想空間生成部10が、家具Fが第1領域RS1で存在している位置に対応する仮想空間VSの位置に、家具Fのゴースト及び第1制約エリアLA1を生成する。また、仮想空間生成部10が、建築資材M及び作業機械Wが第2領域RS2で存在している位置に対応する仮想空間VSの位置に、建築資材M及び作業機械Wに対応する第3オブジェクトO3及び作業機械に対応する第4オブジェクトO4、並びに、第2制約エリアLA2及び第3制約エリアLA3を生成する。
次に、出力情報決定部16が、アバターAの状態に基づいて、ユーザに認識させる画像及び音声を決定する(図6/STEP109)。
次に、出力情報決定部16が、ユーザUの装着しているHMD4のそのモニタ40に決定された画像を表示させるとともに、そのスピーカ41に決定された音声を発生させて(図6/STEP110)、今回の処理を終了する。
以上の処理により、VRシステムSの使用が開始された直後においては、ユーザUは、例えば、図3に示すような仮想空間VSを、認識した状態になる。
[使用が開始された後にオブジェクトの実行可能な動作を認識する際に実行する処理]
次に、図2〜図4、図7を参照して、VRシステムSの各処理部が、VRシステムSの使用が開始された後、対象オブジェクトO1,O2の実行可能な動作を認識する際に、実行する処理について説明する。
この処理においては、まず、可能動作認識部14が、ユーザU等によって予め入力された情報等に基づいて、対象オブジェクトO1,O2に対応するドローンDが、第2領域RS2で機能として実行可能な動作を認識する(図7A/STEP200)。
次に、期間認識部13が、ユーザU等が予め入力した情報等に基づいて、第1期間及び第2期間を認識する(図7A/STEP201)。
次に、可能動作認識部14が、第2期間における第2領域RS2の周辺環境を認識する(図7A/STEP202)。
具体的には、可能動作認識部14が、第2期間において、第2領域RS2で変化する可能性のある周辺環境を認識する。本実施形態では、第2期間において、建築資材Mの量(すなわち、その配置スペース)、及び、作業機械Wの動作が変化する可能性がある。そのため、可能動作認識部14が、ユーザU等によって予め入力された工事の計画等に基づいて、第2期間における各時点における建築資材M及び作業機械Wの状況を、第2領域RS2の周辺環境として認識する。
次に、可能動作認識部14が、認識されたドローンDの機能、及び、第2期間における第2領域RS1の周辺環境に基づいて、ドローンDに対応する対象オブジェクトO1,O2が、仮想空間VSで実行可能な動作を認識する(図7A/STEP203)。
次に、アバター制御部15が、仮想空間生成部10が認識した情報に基づいて、第1領域RS1の形状と第2領域RS2の形状とが異なるか否かを判断する(図7A/STEP204)。
第1領域RS1の形状と第2領域RS2の形状とが異なっていた場合(STEP204でYESの場合)、アバター制御部15は、仮想空間VSを生成する際に第2領域RS2の画像に対して行われた補正の内容を認識し、その内容に基づいて、仮想空間VSの位置により制限される対象オブジェクトO1,O2の動作を認識する(図7A/STEP205)。
具体的には、図4に示すように、例えば、第1領域RS1が平面視正方形の狭い空間であり、第2領域RS2が平面視長方形の縦長の広い空間であって、仮想空間生成部10が、仮想空間VSの画像を、第2領域RS2の画像を、第1領域RS1の形状に合わせて縮小するように補正したとする。
その場合、アバター制御部15が、対象オブジェクトO1,O2の方向ごとの移動可能速度を、その縮小の度合いに応じて、方向ごとに制限する。これにより、対象オブジェクトO1,O2の図4の紙面上の縦方向における移動可能速度は、横方向における移動速度よりも遅くなる。
第1領域RS1の形状と第2領域RS2の形状との相違に基づく制限を認識した後、又は、第1領域RS1の形状と第2領域RS2の形状とが一致していた場合(STEP204でNOの場合)、アバター制御部15は、第1期間の長さと第2期間の長さとが異なるか否かを判断する(図7A/STEP206)。
第1期間の長さと第2期間の長さとが異なっていた場合(STEP206でYESの場合)、アバター制御部15は、その相違量に基づいて、対象オブジェクトO1,O2の各動作の実行限度となる速度を認識する(図7A/STEP207)。
具体的には、ドローンDが第2期間において機能として実行可能な速度を、第1期間の長さと第2期間と長さとの比率に基づいて、一律に加速又は減速する。
ここまでの処理が、ユーザUが、アバターAを介して対象オブジェクトO1,O2の動作をさせ始める前までに(すなわち、第1期間の開始前までに)実行される処理である。以下に説明する処理は、ユーザUが、アバターAを介して対象オブジェクトO1,O2の動作させ始めた後に(すなわち、第1期間の開始後に)実行される処理である。
第1期間の長さと第2期間の長さとの相違に基づく制限を認識した後、又は、第1期間の長さと第2期間の長さとが一致していた場合(STEP206でNOの場合)、仮想空間生成部10が、現時点(すなわち、第1期間の所定の時点)に対応する第2期間の時点において、第2領域RS2におけるドローンDの周辺環境が、変化しているか否かを判断する(図7B/STEP208)。
周辺環境が変化していた場合(STEP208でYESの場合)、仮想空間生成部10が、第2領域RS1の周辺環境の変化に基づいて、第2制約エリアLA2又は第3制約エリアLA3を修正する(図7B/STEP209)。
具体的には、例えば、建築資材Mの量が図3に示した状態よりも減少していた場合には、仮想空間生成部10が、建築資材Mに対応する第2制約エリアLA2を、その減少に応じて縮小させる。また、例えば、作業機械Wが動作した結果として図3の状態とは姿勢等が変化していた場合には、仮想空間生成部10が、作業機械Wに対応する第3制約エリアLA3を、その変化に応じて変形させる。
次に、アバター制御部15が、第2制約エリアLA2又は第3制約エリアLA3の修正に基づいて、その修正の結果新たに制限される対象オブジェクトO1,O2の動作を認識する(図7B/STEP210)。
新たに制限される対象オブジェクトO1,O2の動作を認識した後、又は、周辺環境が変化していなかった場合(STEP208でNOの場合)、可能動作認識部14は、ドローンDの状態が変化したか否かを判断する(図7B/STEP211)。
ドローンDの状態が変化していた場合(STEP211でYESの場合)、アバター制御部15は、ドローンDの状態の変化に基づいて、改めて対象オブジェクトO1,O2が実行可能な動作を認識する(図7B/STEP212)。
具体的には、例えば、ドローンDの状態が、単なる飛行状態から、建築資材Mを搬送している状態に変化していたとする。その場合には、ドローンDは、その状態の変化に伴って移動可能速度、移動可能領域が変化する。そこで、アバター制御部15は、そのような変化が生じた場合には、その状態の変化に伴って、ドローンDに対応する対象オブジェクトO1,O2の実行可能な動作も変更する。
改めて対象オブジェクトO1,O2の実行可能な動作を認識した後、又は、ドローンDの状態が変化していなかった場合(STEP211でNOの場合)、VRシステムSが、ユーザUからの終了の指示があったか否かを判断する(図7B/STEP213)。
終了の指示がなかった場合(STEP213でNOの場合)、STEP208に戻り、STEP208〜STEP213の処理を再度実行する。
一方、終了の指示があった場合(STEP213でYESの場合)、VRシステムSは、今回の処理を終了する。
[オブジェクトを動作させた際、及び、ドローンを動作させる際に実行する処理]
次に、図2及び図8を参照して、VRシステムSの各処理部が、ユーザUがアバターAを介して対象オブジェクトO1,O2を動作させた際に実行する処理、及び、ドローンDを動作させる際に実行する処理について説明する。
この処理においては、まず、ユーザ動作認識部11が、ユーザUが動作したか否かを判断する(図8/STEP300)。
ユーザが動作していなかった場合(STEP300でNOの場合)、所定の制御周期でSTEP300の判断を再度実行する。
一方、ユーザが動作していた場合(STEP300でYESの場合)、アバター制御部15は、ユーザUの動作に基づいて、アバターAを動作させる(図8/STEP301)。
次に、アバター制御部15が、アバターAの動作が対象オブジェクトO1,O2を動作させるような動作であるか否かを判断する(図8/STEP302)。
具体的には、アバターAの動作が、手等の身体を用いてドローンDに対応する対象オブジェクトO1,O2を移動させるような動作であるか、コントローラ5に対応する第5オブジェクトO5を用いて、対象オブジェクトO1,O2に対して所定の操作をするような動作であるか等を、アバター制御部15が判断する。
アバターAの動作が対象オブジェクトO1,O2を動作させるような動作であった場合(STEP302でYESの場合)、アバター制御部15が、アバターAの動作に基づいて、対象オブジェクトO1,O2を動作させる(図8/STEP303)。
次に、対象制御部17が、対象オブジェクトO1,O2の動作を記憶する(図8/STEP304)。
対象オブジェクトO1,O2の動作を記憶した後、又は、アバターAの動作が対象オブジェクトO1,O2を動作させるような動作でなかった場合(STEP302でNOの場合)、出力情報決定部16が、ユーザUに認識させる画像及び音声を、アバターA及び対象オブジェクトO1,O2の状態に基づいて決定する(図8/STEP305)。
次に、出力情報決定部16が、ユーザUの装着しているHMD4のそのモニタ40に決定された画像を表示させるとともに、そのスピーカ41に決定された音声を発生させる(図8/STEP306)。
次に、VRシステムSが、ユーザUからの終了の指示があったか否かを判断する(図8/STEP307)。
終了の指示がなかった場合(STEP307でNOの場合)、STEP300に戻り、STEP300〜STEP307の処理を再度実行する。
一方、終了の指示があった場合(STEP307でYESの場合)、対象制御部17は、第2期間が開始されたか否かを判断する(図8/STEP308)
第2期間が開始されていなかった場合(STEP308でNOの場合)、所定の制御周期でSTEP308の判断を再度実行する。
一方、第2期間が開始された場合(STEP308でYESの場合)、対象制御部17が、記憶された対象オブジェクトO1,O2の動作に基づいて、ドローンDの動作を制御して(図8/STEP309)、今回の処理を終了する。
[異なる時間帯で制御するモードとリアルタイムで制御するモードとの相違]
以上においては、対象オブジェクトO1,O2を動作させた時間帯よりも後の異なる時間帯でローンDを制御するモードにおける処理について、詳細に説明した。
この異なる時間帯でドローンDを制御するモードに対し、リアルタイムでドローンDを制御するモードは、対象オブジェクトO1,O2の動作を記憶する処理(図8/STEP304)、及び、第2期間の開始を判断する処理(図8/STEP308)が省略されるとともに、終了を判断する処理(図8/STEP307)の前に、ドローンDを制御する処理(図8/STEP309)が実行される点で異なる。
そして、異なる時間帯でドローンDを制御するモード及びリアルタイムでドローンDを制御するモードのいずれにおいても、VRシステムSは、体感型インターフェースシステムとして、ユーザUの動作に応じて、ユーザUに対応するアバターAの動作を制御し、そのアバターAの動作に応じて対象オブジェクトO1,O2の動作を制御している。
これにより、ユーザUは、仮想空間VSで、自らに対応するアバターAを介して対象オブジェクトO1,O2を動作させることによって、第2領域RS2で、対象オブジェクトO1,O2に対応するドローンDを動作させることができるようになっている。
ただし、仮想空間VSにおける対象オブジェクトO1,O2の動作は、ユーザUが存在している第1領域RS1とは時間及び位置の少なくとも一方が異なる第2領域RS2に存在するドローンDが実行可能な動作に基づいて、制限しつつ制御されている。すなわち、その動作は、そのドローンDが存在する現実空間における制約(例えば、ドローンDの周辺環境、ドローンDの機能等)に基づいて、制限しつつ制御されている。
これにより、ユーザUがアバターAを介して対象オブジェクトO1,O2を動作させようとしても、その動作が、ドローンDが実行不可能な動作に対応する動作(すなわち、現実空間における制約を無視したような動作)であった場合、ユーザUは、その動作を、仮想空間VSであっても自然と実行させることができなくなる。
したがって、VRシステムSによれば、ドローンDが実行不可能な動作に対応する対象オブジェクトO1,O2の動作は仮想空間VSであっても自然と実行できなくなるので、ユーザUは、ドローンDが存在する現実空間の第2領域RS2における制約を考慮しなくても、第2領域RS2におけるドローンDの動作を、第2領域RS2に即して制御することができる。
また、VRシステムSでは、第1領域RS1の形状と第2領域RS2の形状等が相違する場合には、仮想空間VSの形状が、第1領域RS1の形状に対応するように生成される。これにより、そのような場合であってもその仮想空間VSはもともとのユーザUの動作可能な範囲に対応したものになるので、ユーザUは、自らが動作可能な範囲の認識を誤ることがなく(例えば、第1領域RS1に存在している家具Fへ接触すること等が抑制されて)、アバターAを動作させることがでるようになる。
さらに、そのような場合、VRシステムSでは、第2領域RS2でドローンDが実行可能な動作だけでなく、第1領域RS1の形状と第2領域RS2の形状との相違にも基づいて、対象オブジェクトO1,O2の動作を制限している。
これにより、そのような場合でも、それによってドローンDが実行不可能になった動作に対応する対象オブジェクトO1,O2の動作を、自然に制限することができる。ひいては、そのような場合でも、ユーザUは、第1領域RS1の形状と第2領域RS2の形状との相違を考慮しなくても、第2領域RS2におけるドローンDの動作を、第2領域RS2に即して制御することができる。
また、VRシステムSでは、動作記憶部17を備えることによって、仮想空間VSにおけるアバターAの動作可能期間である第1期間の長さと、第2領域RS2における対象オブジェクトO1,O2の動作可能期間である第2期間の長さとが異なる場合であっても、ドローンDの動作を制御することができるようになっている。
さらに、そのような場合、VRシステムSでは、第2領域RS2でドローンDが実行可能な動作だけでなく、第1期間の長さと第2期間の長さとの相違にも基づいて、対象オブジェクトO1,O2の動作を制限している。
これにより、そのような場合でも、それによってドローンDが実行不可能になった動作に対応する対象オブジェクトO1,O2の動作を、自然に制限することができる。ひいては、そのような場合でも、ユーザUは、第1期間の長さと第2期間の長さとの相違を考慮しなくても、第2期間におけるドローンDの動作を、第2領域RS2に即して制御することができる。
[異なる時間帯で制御するモードと動作を検証するモードとの相違]
また、詳細に説明した異なる時間帯でドローンDを制御するモードに対し、ドローンDを実際には制御せず、その動作を検証するモードは、第1領域RS1及び第2領域RS2の周辺環境、第1期間及び第2期間を考慮する処理(図6/STEP107,108、図7A/STEP201,202,204〜207、図7B/STEP208〜2013)、及び、実際にドローンDを制御する処理(図8/STP304,308,309)が省略される点で異なる。
そして、動作を検証するモードでは、VRシステムSは、動作体感システムとして、対象オブジェクトO1,O2が実行可能な動作を、第1領域RS1の形状と第2領域RS2の形状との相違、及び、ドローンDの機能のみに基づいて、制御する。すなわち、ドローンDが存在する第2領域RS2の周辺環境、第1期間の長さと第2期間の長さとの相違等は考慮されない。
これにより、動作を検証するモードでは、ユーザUは、ドローンDが機能として実行可能な動作を、体感することができる。
一方、動作を検証するモード以外のモードでは、仮想空間VSで対象オブジェクトO1,O2が実行可能な動作は、ド第2領域RS2の周辺環境、第1期間の長さと第2期間の長さとの相違等に起因する制約にも基づいて、制限しつつ制御される。すなわち、動作を検証するモード以外のモードでは、対象オブジェクトO1,O2が実行可能な動作は、第2領域RS2で実際に対象オブジェクトO1,O2が実行可能な動作に対応したものとなる。
これにより、動作を検証するモード以外のモードでは、ユーザUは、第2領域RS2で実際にドローンDが実行可能な動作を、体感することができる。なお、ドローンDが実際に実行可能な動作を体感するという観点からは、必ずしも、ドローンDを実際に動作させなくてもよい。そのため、動作を体感することのみを目的としている場合には、ドローンDを実際に動作させてもよいし、動作させなくてもよい。
したがって、VRシステムSによれば、ユーザUは、動作を検証するモードと、実際にドローンDの動作を制御するモードとを切り替えることによって、対象オブジェクトO1,O2(ひいては、ドローンD)の動作を、比較しつつ体感することができる。ひいては、VRシステムSによれば、ユーザUは、所定の環境下において、ドローンDの機能を十全に発揮させる動作を、感覚的に検証することができる。
なお、ユーザUによっては、ドローンDが機能として実行可能な動作について、十分な知識を有している場合もある。そのような場合には、リアルタイムでドローンDを制御するモードと、対象オブジェクトO1,O2を動作させた時間帯よりも後の異なる時間帯でドローンDを制御するモードの少なくとも一方のみを備える場合であっても、VRシステムSを、動作体感システムとして利用することができる。
さらに、例えば、複数種類のドローンが存在しており、それらのうちから第2領域RS2で動作させやすいドローンを選択するために各ドローンが実行可能な動作を検証する場合等には、候補となる各ドローンの機能のみに基づいて、仮想空間VSに対応するオブジェクトを生成し、それによって、各オブジェクト(ひいては、候補となる各ドローン)が実行可能な動作を検証するために、VRシステムSを利用してもよい。
そのような場合には、必ずしも第2領域RS2で候補となる各ドローンを実際には動作させる必要はない。これは、そのような場合には、ドローンを第2領域で実際に動作させると、ドローンが第2領域の周辺環境に接触してしまうような可能性が生じるためである。そのため、第2領域における制約がほぼ無いような場合を除き、原則として、このような場合には、ドローンは実際に動作させないことが推奨される。
1…サーバ、2…標識、3…第1カメラ、4…HMD、5…コントローラ、6…第2カメラ、10…仮想空間生成部(空間認識部、制約認識部)、11…ユーザ動作認識部、12…モード切換部、13…期間認識部、14…可能動作認識部(対象機能認識部)、15…アバター制御部、16…出力情報決定部(画像決定部)、17…対象制御部(動作記憶部)、40…モニタ(画像表示器)、41…スピーカ(音声発生器)、A…アバター(第1アバター)、D1…第1ドローン、D2…第2ドローン、F…家具、LA1…第1制約エリア、LA2…第2制約エリア、LA3…第3制約エリア、M…建築資材、O1…第1オブジェクト(第2アバター)、O2…第2オブジェクト(第2アバター)、O3…第3オブジェクト、O4…第4オブジェクト、O5…第5オブジェクト、RS1…第1領域、RS2…第2領域、S…VRシステム、U…ユーザ、VS…仮想空間、W…作業機械。

Claims (3)

  1. 仮想空間を介して、現実空間の第1領域に存在しているユーザが、前記第1領域と時間及び位置の少なくとも一方が異なる現実空間の第2領域に存在する制御対象の動作を、制御するための体感型インターフェースシステムであって、
    前記ユーザに対応する第1アバター、及び、前記制御対象に対応する第2アバターが存在する仮想空間を生成する仮想空間生成部と、
    前記ユーザの前記第1領域における動作を認識するユーザ動作認識部と、
    前記ユーザの動作に応じて前記第1アバターの動作を制御し、前記第1アバターの動作に応じて前記第2アバターの動作を制御するアバター制御部と、
    前記第1アバターの状態及び前記第2アバターの状態に基づいて、前記ユーザに認識させる前記仮想空間の画像を決定する画像決定部と、
    決定された前記仮想空間の画像を、前記ユーザに認識させる画像表示器と、
    前記第2領域で前記制御対象が実行可能な動作を認識する可能動作認識部と、
    前記第2アバターの動作に応じて、前記制御対象の動作を制御する対象制御部と
    前記第1領域の形状及び前記第2領域の形状を認識する空間認識部とを備え、
    前記仮想空間生成部は、前記仮想空間の形状が前記第1領域の形状に対応するように、前記仮想空間を生成し、
    前記アバター制御部は、前記第2領域で前記制御対象が実行可能な動作、及び、前記第1領域の形状と前記第2領域の形状との相違に基づいて、前記第2アバターが実行可能な動作を制限しつつ制御することを特徴とする体感型インターフェースシステム。
  2. 請求項1に記載の体感型インターフェースシステムにおいて、
    前記仮想空間における前記第2アバターの動作可能期間である第1期間の長さ、及び、前記第2領域における前記制御対象の動作可能期間である第2期間の長さを認識する期間認識部と、
    前記第2アバターの動作を記憶する動作記憶部とを備え、
    前記アバター制御部は、前記第2領域で前記制御対象が実行可能な動作、及び、前記第1期間の長さと前記第2期間の長さとの相違に基づいて、前記第2アバターが実行可能な動作を制限しつつ制御し、
    前記対象制御部は、前記第1期間に前記動作記憶部に記憶されていた前記第2アバターの動作に応じて、前記第2期間に前記制御対象を制御することを特徴とする体感型インターフェースシステム。
  3. 仮想空間を介して、現実空間の第1領域に存在しているユーザが、前記第1領域と時間及び位置の少なくとも一方が異なる現実空間の第2領域に存在する制御対象が実行可能な動作を、体感するための動作体感システムであって、
    前記ユーザに対応する第1アバター、及び、前記制御対象に対応する第2アバターが存在する仮想空間を生成する仮想空間生成部と、
    前記ユーザの前記第1領域における動作を認識するユーザ動作認識部と、
    前記ユーザの動作に応じて前記第1アバターの動作を制御し、前記第1アバターの動作に応じて前記第2アバターの動作を制御するアバター制御部と、
    第1モードと第2モードとを切り換えるモード切換部と、
    前記第1アバターの状態及び前記第2アバターの状態に基づいて、前記ユーザに認識させる前記仮想空間の画像を決定する画像決定部と、
    決定された前記仮想空間の画像を、前記ユーザに認識させる画像表示器と、
    前記制御対象が機能として実行可能な動作を認識する対象機能認識部と、
    前記第2領域で前記制御対象が動作する際の制約を認識する制約認識部とを備え、
    前記アバター制御部は、前記第1モードでは、前記制御対象の機能のみに基づいて、前記第2アバターが実行可能な動作を制御し、前記第2モードでは、前記制御対象の機能及び前記第2領域における制約に基づいて、前記第2アバターが実行可能な動作を制限しつつ制御することを特徴とする動作体感システム。
JP2021520433A 2020-09-03 2020-09-03 体感型インターフェースシステム、及び、動作体感システム Active JP6933849B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/033478 WO2022049707A1 (ja) 2020-09-03 2020-09-03 体感型インターフェースシステム、及び、動作体感システム

Publications (2)

Publication Number Publication Date
JP6933849B1 true JP6933849B1 (ja) 2021-09-08
JPWO2022049707A1 JPWO2022049707A1 (ja) 2022-03-10

Family

ID=77550012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021520433A Active JP6933849B1 (ja) 2020-09-03 2020-09-03 体感型インターフェースシステム、及び、動作体感システム

Country Status (2)

Country Link
JP (1) JP6933849B1 (ja)
WO (1) WO2022049707A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7158781B1 (ja) 2021-11-29 2022-10-24 クラスター株式会社 端末装置、サーバ、仮想現実空間提供システム、プログラムおよび仮想現実空間提供方法
WO2024004306A1 (ja) * 2022-06-29 2024-01-04 キヤノン株式会社 制御装置、システム、制御方法、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257081A (ja) * 2009-04-22 2010-11-11 Canon Inc 画像処理方法及び画像処理装置
JP2017199237A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム、ゲームシステム、仮想空間表示プログラムおよびゲームプログラム
WO2018097223A1 (ja) * 2016-11-24 2018-05-31 国立大学法人京都大学 ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、および記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257081A (ja) * 2009-04-22 2010-11-11 Canon Inc 画像処理方法及び画像処理装置
JP2017199237A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム、ゲームシステム、仮想空間表示プログラムおよびゲームプログラム
WO2018097223A1 (ja) * 2016-11-24 2018-05-31 国立大学法人京都大学 ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、および記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7158781B1 (ja) 2021-11-29 2022-10-24 クラスター株式会社 端末装置、サーバ、仮想現実空間提供システム、プログラムおよび仮想現実空間提供方法
JP2023079553A (ja) * 2021-11-29 2023-06-08 クラスター株式会社 端末装置、サーバ、仮想現実空間提供システム、プログラムおよび仮想現実空間提供方法
WO2024004306A1 (ja) * 2022-06-29 2024-01-04 キヤノン株式会社 制御装置、システム、制御方法、プログラム

Also Published As

Publication number Publication date
JPWO2022049707A1 (ja) 2022-03-10
WO2022049707A1 (ja) 2022-03-10

Similar Documents

Publication Publication Date Title
JP6933849B1 (ja) 体感型インターフェースシステム、及び、動作体感システム
US10223064B2 (en) Method for providing virtual space, program and apparatus therefor
JP6298130B2 (ja) シミュレーションシステム及びプログラム
US11779845B2 (en) Information display method and apparatus in virtual scene, device, and computer-readable storage medium
JP6734236B2 (ja) ゲームを提供するためのプログラム、システム、及び方法
US20200137815A1 (en) Communication connection method, terminal device and wireless communication system
JP6936465B1 (ja) 仮想空間体感システム
EP2135649A1 (en) Game device, control method of game device and information storage medium
US11468650B2 (en) System and method for authoring augmented reality storytelling experiences incorporating interactive physical components
CN114281190A (zh) 一种信息控制方法、装置、系统、设备和存储介质
WO2021070411A1 (ja) リハビリテーション支援装置、その方法およびプログラム
CN112007360A (zh) 监控功能道具的处理方法、装置及电子设备
US20220417490A1 (en) Information processing system, information processing method, and information processing program
WO2021240601A1 (ja) 仮想空間体感システム
JP2005319191A (ja) ゲームシステム、プログラム、情報記憶媒体および画像生成方法
CN114053693B (zh) 虚拟场景中的对象控制方法、装置及终端设备
JP2021068057A (ja) プログラム、コンピュータ装置、及び制御方法
JP6554139B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
CN113018862A (zh) 虚拟对象的控制方法、装置、电子设备及存储介质
KR101937855B1 (ko) 증강현실 기반 로봇 제어 평가 시스템
JP6441426B1 (ja) キャラクタ動画表示システム
WO2023017584A1 (ja) 仮想空間体感システム、及び、複合空間体感システム
JP6933850B1 (ja) 仮想空間体感システム
JP7055527B1 (ja) 仮想空間体感システム
TWI778621B (zh) 智慧型穿戴系統及其實境訓練學習方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210506

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210506

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210812

R150 Certificate of patent or registration of utility model

Ref document number: 6933849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150