JP2017086258A - 情報提示装置、情報提示方法及びプログラム - Google Patents
情報提示装置、情報提示方法及びプログラム Download PDFInfo
- Publication number
- JP2017086258A JP2017086258A JP2015217431A JP2015217431A JP2017086258A JP 2017086258 A JP2017086258 A JP 2017086258A JP 2015217431 A JP2015217431 A JP 2015217431A JP 2015217431 A JP2015217431 A JP 2015217431A JP 2017086258 A JP2017086258 A JP 2017086258A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- field
- position information
- simulation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
【課題】実物体のもつ存在感を損なわずに情報を提示することを可能にする。【解決手段】情報提示装置10Aは、送信側情報処理装置12と受信側の情報処理装置14とを含む。情報処理装置12は、第1フィールドにおける物体の位置を示す物体位置情報を取得する物体位置情報取得部20と、物体位置情報を情報処理装置14に送信するための物体位置情報送信部22を有する。情報処理装置14は、情報処理装置12から送信された物体位置情報を受信するための物体位置情報受信部24と、第2フィールドにおけるロボットの位置を示すロボット位置情報を取得するロボット位置取得部25と、ロボット位置情報と物体位置情報とに基づいて、ロボットの動作を制御するロボット位置制御部26とを有する。【選択図】図1
Description
本発明は、情報提示装置、情報提示方法及びプログラムに関する。
映像技術を用いてスポーツを楽しむことは広く行われている。例えば、スポーツをしている選手やボールの動きをカメラにより撮影すると共にマイクにより音声を入力して、映像と音声のデータを遠隔地の情報処理装置に送信する。情報処理装置は、映像と音声を出力させる。これにより、観客は、遠隔地にいてもスポーツ観戦を楽しむことができる。
また,スポーツ練習において,プロジェクタなどを用いてバーチャルな情報を提示して練習の臨場感を高めることも可能となっている。高臨場感な映像を提示するためには、例えば特許文献1に示されているように映像を3次元で表示する装置を利用する方法がある。
特許文献1に開示された映像を3次元で表示する技術では、より臨場感の高い映像を提示することが可能となっている。しかしながら、映像を立体的に表現したものに過ぎず、実物体のもつ存在感を表現するには十分ではないという課題がある。
また、バーチャルな映像のみを用いてスポーツ練習を行う場合は、物体との接触における触覚情報を提示することができないため、実物体の存在感がなく臨場感が損なわれるという課題がある。
本発明は上記課題を解決するためになされたものであり、本発明の目的は、実物体のもつ存在感を損なわずに情報を提示することが可能な情報提示装置、情報提示方法及びプログラムを提供することにある。
本発明は、上記の課題を解決するために、以下のような手段を講じている。
本発明の第1の態様は、第1フィールドにおける物体の位置を示す物体位置情報を取得する物体位置取得手段と、前記物体位置情報を送信するための物体位置情報送信手段と、前記物体位置情報を受信するための物体位置情報受信手段と、第2フィールドにおけるロボットの位置を示すロボット位置情報を取得するロボット位置取得手段と、前記ロボット位置情報と前記物体位置情報とに基づいて、前記ロボットの動作を制御するロボット位置制御手段とを具備する情報提示装置である。
本発明の第1の態様は、第1フィールドにおける物体の位置を示す物体位置情報を取得する物体位置取得手段と、前記物体位置情報を送信するための物体位置情報送信手段と、前記物体位置情報を受信するための物体位置情報受信手段と、第2フィールドにおけるロボットの位置を示すロボット位置情報を取得するロボット位置取得手段と、前記ロボット位置情報と前記物体位置情報とに基づいて、前記ロボットの動作を制御するロボット位置制御手段とを具備する情報提示装置である。
本発明の第2の態様は、フィールドにおけるロボットの位置を示すロボット位置情報を取得するロボット位置取得手段と、前記ロボットの動きに作用する操作に関する操作情報を取得する操作情報取得手段と、物理シミュレーションを行うために必要な環境情報を取得するためのシミュレーション情報取得手段と、前記ロボット位置情報、前記操作情報及び前記環境情報をもとに、物理シミュレーションを行うシミュレーション実行手段と、前記物理シミュレーションの結果に基づいて前記ロボットの動作を制御するロボット位置制御手段とを具備する情報提示装置である。
本発明の第3の態様は、フィールドにおけるロボットの位置を示すロボット位置情報を取得するロボット位置取得手段と、前記ロボットの動きに作用する操作に関する操作情報を取得する操作情報取得手段と、物理シミュレーションを行うために必要な環境情報を取得するためのシミュレーション情報取得手段と、前記ロボット位置情報、前記操作情報及び前記環境情報をもとに、物理シミュレーションを行うシミュレーション実行手段と、前記物理シミュレーションの結果に基づいて、前記ロボットの動作を制御するロボット位置制御手段と、前記物理シミュレーションの結果に基づいて、前記フィールドに映像を投影する映像位置を取得する映像位置取得手段と、前記映像位置に応じて前記フィールドに投影する映像を制御する第1映像制御手段と、前記物理シミュレーションの結果を送信する送信手段と、外部装置から前記フィールドにおける位置を示す位置情報を受信する物体位置情報受信手段と、前記位置情報に応じて前記フィールドに投影する映像を制御する第2映像制御手段とを具備する情報提示装置である。
本発明によれば、実物体のもつ存在感を損なわずに情報を提示することが可能となる。
以下、図面を参照して本発明の実施の形態について説明する。
(第1実施形態)
図1は、第1実施形態における情報提示装置10Aの構成を示すブロック図である。第1実施形態における情報提示装置10Aは、例えばスポーツ中継やレース(車、飛行機、ボート等)の中継に好適な装置であり、第1フィールドにおいて実施されているスポーツやレースなどの様子を、第1フィールドから離れた場所に設けられた第2フィールドにおいて、ロボットを用いて選手やスポーツやレースにおいて使用される各種の物体(球技スポーツのボール、カーリングのストーン、自動車、飛行機、ボートなど)の動きを再現する。
(第1実施形態)
図1は、第1実施形態における情報提示装置10Aの構成を示すブロック図である。第1実施形態における情報提示装置10Aは、例えばスポーツ中継やレース(車、飛行機、ボート等)の中継に好適な装置であり、第1フィールドにおいて実施されているスポーツやレースなどの様子を、第1フィールドから離れた場所に設けられた第2フィールドにおいて、ロボットを用いて選手やスポーツやレースにおいて使用される各種の物体(球技スポーツのボール、カーリングのストーン、自動車、飛行機、ボートなど)の動きを再現する。
図1に示すように、情報提示装置10Aは、2つの情報処理装置12,14が含まれる。情報処理装置12は、第1フィールド側(送信側)に設けられるもので、実際にスポーツが実施されている様子を表す情報を取得して、例えば第1フィールドから離れた場所(第2フィールド側)に設けられた情報処理装置14に送信する。情報処理装置14は、情報処理装置12から受信される情報をもとに第2フィールド上のロボットの動きを制御して、第1フィールドにおいて実行されているスポーツの様子を再現する。
情報処理装置12,14は、それぞれ例えばコンピュータを実現する各種モジュールを有する。すなわち、情報処理装置12,14は、メモリやハードディスク装置等の記憶装置、メモリに記憶された各種プログラムを実行するプロセッサ(CPU(Central Processing Unit)等)の他、キーボードやマウス等の各種入力装置、ディスプレイ、スピーカ等の出力装置、外部の電子機器や各種ネットワーク等との通信を制御する通信装置などを有する。また、情報処理装置12,14は、映像を撮影するカメラ、音声を入力するマイクなどの外部機器が接続される。図1では、情報処理装置12には、カメラ16が接続され、情報処理装置14には、カメラ18が接続された構成を示している。
情報処理装置12,14は、記憶媒体に記憶された基本プログラム(OS(Operating System)等)や各種プログラムをプロセッサにより実行することにより、各種機能を実現する。情報処理装置12,14は、インターネットなどのネットワークを介して接続され、ネットワークを通じて相互にデータを送受信する。第1実施形態では、情報処理装置12は、第1フィールドにおいて実施されるスポーツの様子を示す情報を情報処理装置14に送信する送信側の装置、情報処理装置14は、情報処理装置12から受信された情報をもとに、第2フィールドにおいてロボットの動きを制御して、第1フィールドで実施されるスポーツを再現する受信側の装置として使用される。
送信側の情報処理装置12は、情報提示処理プログラムをプロセッサにより実行することにより、例えば物体位置情報取得部20、物体位置情報記憶部21、物体位置情報送信部22の機能を実現する。受信側の情報処理装置14は、情報提示処理プログラムをプロセッサにより実行することにより、例えば物体位置情報受信部24、ロボット位置取得部25、ロボット位置制御部26の機能を実現する。
物体位置情報取得部20は、第1フィールドにおける物体の位置を示す物体位置情報を取得する。物体位置情報は、例えば第1フィールドに存在するスポーツの実施に関係する各種の物体を個々に識別するための識別情報(以下、物体IDと称する)と、第1フィールドにおける物体の座標位置とを含む。物体位置情報取得部20は、例えば第1フィールドを俯瞰する位置に設けられたカメラ16により撮影された映像をもとに、既存の画像処理によって第1フィールドに存在する全ての物体を抽出して、それぞれに固有の物体IDを設定すると共に、第1フィールドにおける物体の位置を示す座標位置を検出する。物体位置情報取得部20は、物体IDを設定した物体が第1フィールドにおいて移動するのに伴って物体の位置を追跡し、継続して位置を検出して物体位置情報を取得する。
なお、物体位置情報取得部20は、第1フィールドにおいて、物体が二次元(平面)で移動する場合には座標位置(X,Y)を検出し、物体が三次元で移動する場合には座標位置(X,Y,Z)を検出する。
なお、カメラ16は、1つである必要はなく、複数のカメラ16を組み合わせて第1フィールドに存在する複数の物体をの像を撮影しても良い。また、カメラ16は、俯瞰する位置に設けるだけでなく、物体の位置を検出することが容易な映像を撮影可能な位置(例えば、物体に対して横方向、斜め方向など)に設置可能であり、また物体の移動に合わせて移動可能としても良い。
また、物体位置情報取得部20は、カメラ16により撮影された映像をもとに、第1フィールドに存在する物体を検出するだけでなく、各種センサなどにより第1フィールド上の物体を検出させて、各種センサによる検出に基づいて物体位置情報を取得するようにしても良い。
物体位置情報記憶部21は、物体位置情報取得部20によって取得された物体位置情報を記憶装置に記憶させる。物体位置情報記憶部21は、物体位置情報取得部20により複数の物体について物体位置情報が取得された場合には、各物体のそれぞれについて物体IDと座標位置を記憶する。
物体位置情報送信部22は、物体位置情報記憶部21により記憶された各物体の物体位置情報を、通信装置、ネットワークを通じて、情報処理装置14の物体位置情報受信部24に送信する。
物体位置情報受信部24は、物体位置情報送信部22から送信される物体位置情報を受信する。
物体位置情報受信部24は、物体位置情報送信部22から送信される物体位置情報を受信する。
ロボット位置取得部25は、第1フィールドから離れた場所にある第2フィールドにおけるロボット28の位置を示すロボット位置情報を取得する。ロボット位置情報は、例えば第2フィールドに存在するロボット28−1〜28−Nを個々に識別するための識別情報(以下、ロボットIDと称する)と、第2フィールドにおけるロボットの座標位置とを含む。ロボット位置取得部25は、例えば第2フィールドを俯瞰する位置に設けられたカメラ18により撮影された映像をもとに、既存の画像処理によって第2フィールドに存在する全てのロボット28−1〜28−Nを抽出して、それぞれに固有のロボットIDを設定すると共に、第2フィールドにおけるロボットの位置を示す座標位置を検出する。ロボット位置取得部25は、ロボットIDを設定した物体が第2フィールドにおいて移動するのに伴ってロボットの位置を追跡し、継続して位置を検出してロボット位置情報を取得する。
なお、ロボット位置取得部25は、第1フィールドにおいて、物体が二次元(平面)で移動する場合には座標位置(X,Y)を検出し、物体が三次元で移動する場合には座標位置(X,Y,Z)を検出する。
なお、カメラ18は、1つである必要はなく、複数のカメラ18を組み合わせて第2フィールドに存在する複数のロボット28−1〜28−Nの映像を撮影しても良い。また、カメラ18は、俯瞰する位置に設けるだけでなく、ロボット28−1〜28−Nの位置を検出することが容易な映像を撮影可能な位置(例えば、ロボット28−1〜28−Nに対して横方向、斜め方向など)に設置可能であり、またロボット28−1〜28−Nの移動に合わせて移動可能としても良い。
なお、カメラ18は、1つである必要はなく、複数のカメラ18を組み合わせて第2フィールドに存在する複数のロボット28−1〜28−Nの映像を撮影しても良い。また、カメラ18は、俯瞰する位置に設けるだけでなく、ロボット28−1〜28−Nの位置を検出することが容易な映像を撮影可能な位置(例えば、ロボット28−1〜28−Nに対して横方向、斜め方向など)に設置可能であり、またロボット28−1〜28−Nの移動に合わせて移動可能としても良い。
また、ロボット位置取得部25は、カメラ18により撮影された映像をもとに、第2フィールドに存在する物体を検出するだけでなく、各種センサなどにより第2フィールド上のロボット28−1〜28−Nを検出させて、各種センサによる検出に基づいてロボット位置情報を取得するようにしても良い。
なお、ロボット28−1〜28−Nは、第1フィールドに存在する複数の物体のそれぞれに対応して設けられる。ロボット位置取得部25は、第1フィールドに存在する物体を示す物体IDと、当該物体に対応するロボット28を示すロボットIDとを、物体とロボットの組み合わせのそれぞれについて対応づけて管理する。
ロボット位置制御部26は、ロボット位置取得部25により取得されたロボット位置情報と、物体位置情報受信部24により受信された物体位置情報とに基づいて、ロボットの動作を制御する。例えば、ロボット位置制御部26は、あるロボットIDが付されたロボット28について、このロボット28の位置が、ロボットIDと対応づけられた物体IDの物体位置情報に含まれる座標位置の変化に合わせて座標位置が一致するように移動させる。
ロボット28は、ロボット位置制御部26からの指示に応じて移動するための機構部、ロボット位置制御部26からの動作を制御するための信号を無線通信などにより受信するための情報通信部、情報通信部により受信された信号が示す制御内容に応じて機構部を駆動させる駆動制御部などが実装される。ロボット28は、第1フィールドにおいて実施されるスポーツやレースに用いられる物体の動作を再現可能な構造及び機能が設けられる。例えば、カーリングを再現する場合には、ロボット28は、カーリングで用いられるストーンのように水平面上を移動可能なオムニホイールと、オムニホイールを駆動するアクチュエータ等を実装する。
なお、スポーツやレースを再現するための第2フィールドは、実際のスポーツやレースが実施される第1フィールドと異なるサイズとすることも可能である。例えば第2フィールドを第1フィールドよりも縮小したサイズにすることで、大規模なフィールドで実施されるカーレースや飛行機レースなどを、実際よりも狭いフィールドにおいて再現することができる。この場合、ロボット28は、第2フィールドのサイズ(縮小率)に応じて、第1フィールドに存在する物体を縮小したサイズにより構成される。このため、カーレースや飛行機レースを、模型の自動車や飛行機により実現されるロボット28により再現させることもできる。
また、第2フィールドが第1フィールドのサイズと異なる場合、ロボット位置制御部26は、第1フィールドと第2フィールドとのサイズ比、及び情報処理装置12から受信される物体位置情報が示す物体の位置座標に基づいて、第1フィールドにおける物体の移動量を、第2フィールドのサイズに応じた移動量に変換してロボット28の移動を制御する。
次に、第1実施形態における情報提示装置10Aの動作について説明する。
図2は、第1実施形態の情報提示装置10Aの動作を示すフローチャートである。
第1実施形態では、カーリングの試合をパブリックビューイングにおいて中継する際に、ロボット28を用いて試合の状況を再現する場合を例にして説明する。すなわち、カーリングの試合が行われている競技場を送信側、遠隔地でカーリングをパブリックビューイングにより観戦する場所を受信側とする。ロボット28は、カーリングで使用されるストーンを表現するために使用する。この場合、ロボット28を実際のストーンの動きと同様に動かすことで、実物体の持つ存在感を損なわずにカーリングが実施されている様子を表現することができる。さらに、ロボット28の外観形状をカーリングのストーンを模して構成することで、より実物体の持つ存在感を損なわずに済む。
図2は、第1実施形態の情報提示装置10Aの動作を示すフローチャートである。
第1実施形態では、カーリングの試合をパブリックビューイングにおいて中継する際に、ロボット28を用いて試合の状況を再現する場合を例にして説明する。すなわち、カーリングの試合が行われている競技場を送信側、遠隔地でカーリングをパブリックビューイングにより観戦する場所を受信側とする。ロボット28は、カーリングで使用されるストーンを表現するために使用する。この場合、ロボット28を実際のストーンの動きと同様に動かすことで、実物体の持つ存在感を損なわずにカーリングが実施されている様子を表現することができる。さらに、ロボット28の外観形状をカーリングのストーンを模して構成することで、より実物体の持つ存在感を損なわずに済む。
カーリングの試合が開始されると、送信側の情報処理装置12は、物体位置情報取得部20により物体位置情報を取得する。すなわち、物体位置情報取得部20は、カメラ16により撮影される映像に対する画像処理により、カーリングが実施されるフィールドにおける各ストーン(物体)を検出し、各ストーン(物体)の座標位置を検出する。物体位置情報取得部20は、各ストーンの物体ID(i)と、ストーンの位置座標(Xi,Yi)とを対応づけた物体位置情報を生成する(ステップA1)。物体位置情報記憶部21は、物体位置情報取得部20により生成された物体位置情報を記憶装置に順次記憶させる。
物体位置情報送信部22は、物体位置情報記憶部21により記憶された物体位置情報を、情報処理装置14の物体位置情報受信部24に送信する(ステップA2)。物体位置情報送信部22は、例えばストーンの位置の変化があった場合に、物体位置情報受信部24に物体位置情報を送信するようにしても良い。
情報処理装置12は、カーリングの試合が終了されるまでの間(ステップA3、No)、前述した処理(ステップA1,A2)を繰り返して実行する。
一方、受信側の情報処理装置14は、物体位置情報受信部24により物体位置情報送信部22から送信された物体位置情報を受信する(ステップB1)。
また、ロボット位置取得部25は、カメラ18により撮影される映像に対する画像処理により、カーリングの試合を再現するために設けられた第2フィールドにおけるロボット28を検出し、各ロボット28の座標位置を検出する。ロボット位置取得部25は、各ロボット28のロボットID(j)と、ロボット28の位置座標(Xj,Yj)とを対応づけたロボット位置情報を生成する(ステップB2)。
ロボット位置制御部26は、ロボット位置取得部25により取得されたロボット位置情報と、物体位置情報受信部24により受信された物体位置情報とに基づいて、ロボットの動作を制御する。すなわち、ロボット位置制御部26は、あるロボットIDが付されたロボット28のロボット位置情報を取得し、このロボット位置情報が示すロボット28の位置と、ロボットIDと対応づけられた物体IDの物体位置情報に含まれる座標位置との差異を計算する。ロボット位置制御部26は、ロボット28の位置と、物体位置情報の座標位置が示す第1フィールドにおけるストーンの位置に差がある場合、差異が0となる(座標位置が一致する)ようにロボット28を移動させる。
図3(A)(B)は、第1実施形態におけるロボット28の制御を説明するための図である。図3(A)は、カーリングの試合が実施されている第1フィールドの様子を示す図である。図3(A)では、静止しているストーンT1,T2,T3と、投擲された移動中のストーンT4を示している。送信側の情報処理装置12は、ストーンT1〜T4のそれぞれについて、物体位置情報を情報処理装置14に送信する。
図3(B)は、カーリングの試合が再現される第2フィールドの様子を示す図である。図3(B)では、静止しているストーンT1,T2,T3のそれぞれに対応するロボットR1,R2,R3と、移動中のストーンT4に対応するロボットR4を示している。
受信側の情報処理装置14は、ストーンT1,T2,T3の物体位置情報が位置の変化を示さないため、ロボットR1,R2,R3を停止した状態のままにする。一方、ストーンT4の物体位置情報では位置の変化を示すため、情報処理装置14は、図3(B)に示すストーンT4の現在位置に移動するようにロボットR4を駆動制御する。これにより、第1フィールドにおけるストーンT4の移動を第2フィールドにおいて再現することができる。
なお、ストーンT4がストーンT1に衝突し、さらにストーンT1と衝突されたストーンT4が、他のストーンT2,T3に衝突して移動した場合には、情報処理装置14は、ストーンT1〜T4の移動に伴って、第2フィールドにおいて、ストーンT1〜T4に対応するロボットR1〜R4のそれぞれを駆動制御する。これにより、第1フィールドにおいて実施されるカーリングの試合の様子を、第2フィールド上においてロボットによって再現することができる。
このようにして、第1実施形態の情報提示装置10Aでは、第1フィールドで実施されるスポーツやレースの様子を、第1フィールドから離れた場所に設けられた第2フィールドにおいてロボットにより再現してスポーツ中継を実現できる。第2フィールドでは、注目させたい物体(例えばカーリングにおけるストーンやサッカーにおけるボールなど)をロボットで表現することで、臨場感や実物体の存在感を損なわずにスポーツやレースを表現することができる。
(第2実施形態)
図4は、第2実施形態における情報提示装置10Bの構成を示すブロック図である。第2実施形態における情報提示装置10Bは、例えば任意の環境下でのスポーツ練習のシミュレーションを、ロボットを利用して実現するのに好適な装置である。
図4は、第2実施形態における情報提示装置10Bの構成を示すブロック図である。第2実施形態における情報提示装置10Bは、例えば任意の環境下でのスポーツ練習のシミュレーションを、ロボットを利用して実現するのに好適な装置である。
図4に示すように、情報提示装置10Bは、情報処理装置32により実現される。情報処理装置32は、スポーツの練習において、任意の条件下でのスポーツで使用される物体(球技スポーツのボール、カーリングのストーンなど)の挙動を物理シミュレーションにより算出し、シミュレーション結果を用いてロボットの動きを制御することで、臨場感をともなった任意の環境下でのスポーツ練習をシミュレーションする。
情報処理装置32は、例えばコンピュータを実現する各種モジュールを有する。すなわち、情報処理装置32は、メモリやハードディスク装置等の記憶装置、メモリに記憶された各種プログラムを実行するプロセッサ(CPU等)の他、キーボードやマウス等の各種入力装置、ディスプレイ、スピーカ等の出力装置、外部の電子機器や各種ネットワーク等との通信を制御する通信装置などを有する。また、情報処理装置32は、映像を撮影するカメラ、音声を入力するマイク、各種センサなどの外部機器が接続される。図4では、情報処理装置32には、カメラ46及び加速度センサ47が接続された構成を示している。
情報処理装置32は、記憶媒体に記憶された基本プログラム(OS等)や各種プログラムをプロセッサにより実行することにより、各種機能を実現する。情報処理装置32は、情報提示処理プログラムをプロセッサにより実行することにより、例えばシミュレーション実行部40、ロボット位置取得部41、操作情報取得部42、シミュレーション情報取得部43、シミュレーション情報データベース(DB)44、ロボット位置制御部45の機能を実現する。
シミュレーション実行部40は、例えばスポーツ練習をシミュレーションをする場合に、スポーツ練習を実施する環境(フィールド)におけるスポーツに使用される物体の動きをソフトウェアにより物理シミュレーションする。第2実施形態では、スポーツに使用される物体をロボット48により代替させて、スポーツでの物体と同様にフィールド上においてロボット48を移動させる。シミュレーション実行部40は、ロボット位置取得部41により取得されるロボット位置情報が示すロボット48の位置、操作情報取得部42により取得される操作情報が示すロボット48の動きに影響を与える操作内容、シミュレーション情報DB44に登録された、スポーツを実施する環境(フィールド)に関する環境情報(各種パラメータ)等をもとに、物体の動きを物理シミュレーションする。
ロボット位置取得部41は、スポーツ練習をするフィールドにおけるロボット48の位置を示すロボット位置情報を取得する。ロボット位置情報は、例えばフィールドに存在するロボット48−1〜48−Nを個々に識別するための識別情報(ロボットID)と、フィールドにおけるロボットの座標位置とを含む。ロボット位置取得部41は、例えばフィールドを俯瞰する位置に設けられたカメラ46により撮影された映像をもとに、既存の画像処理によってフィールドに存在する全てのロボット48−1〜48−Nを抽出して、それぞれに固有のロボットIDを設定すると共に、フィールドにおけるロボットの位置を示す座標位置を検出する。ロボット位置取得部41は、ロボットIDを設定した物体がフィールドにおいて移動するのに伴ってロボットの位置を追跡し、継続して位置を検出してロボット位置情報を取得する。
なお、ロボット位置取得部41は、第1実施形態と同様にして、ロボット48の位置を示す位置座標として二次元(平面)での座標位置(X,Y)、あるいは三次元空間での座標位置(X,Y,Z)を検出することが可能である。また、カメラ46は、第1実施形態のカメラ16,18と同様に、個数、設置場所などについて制限されない。
さらに、ロボット位置取得部41は、カメラ46により撮影された映像をもとに、フィールドに存在するロボット48を検出するだけでなく、各種センサなどによりフィールド上のロボット48を検出させて、各種センサによる検出に基づいてロボット位置情報を取得するようにしても良い。
操作情報取得部42は、ロボット48の動きに作用する操作に関する操作情報を取得する。操作情報取得部42は、ロボット48に対する直接的な操作や、ロボット48が移動する環境(走行面の状態や傾斜、障害物、風力など)を変更する、例えばスポーツ練習をする選手による操作を検出し、これらの操作内容を示す操作情報を生成してシミュレーション実行部40に提供する。操作情報取得部42は、例えばスポーツ練習をする人物やスポーツで使用される道具、あるいはロボット48に装着された加速度センサ47により検出される動きをもとに操作情報を生成する。これにより、操作情報取得部42は、操作情報をシミュレーション実行部40よる物体の物理シミュレーションに反映させる。なお、加速度センサ47は、1つに限らず複数あっても良い。また、加速度センサ47だけでなく、物理シミュレーションに必要な情報を収集可能な複数種類のセンサを組み合わせて実装しても良い。
シミュレーション情報取得部43は、シミュレーション実行部40が物理シミュレーションを行うために必要な環境情報をシミュレーション情報DB44から取得する。
シミュレーション情報DB44は、シミュレーション実行部40によって実行される物理シミュレーションに使用される環境情報(パラメータ)が登録されている。シミュレーション情報DB44には、シミュレーション実行部40による物理シミュレーションの対象とするスポーツに応じた環境情報(パラメータ)が用意されている。例えば、カーリングが物理シミュレーションの対象とされる場合、ストーンの重さ、氷の静摩擦係数、動摩擦係数、ストーンの反発係数、重力加速度、空気抵抗、スイープ時の摩擦係数の変化などのパラメータが登録される。
ロボット位置制御部45は、シミュレーション実行部40による物理シミュレーションの結果に基づいて、ロボット48の動作を制御する。すなわち、シミュレーション実行部40によりシミュレーションされた、スポーツで使用される物体と同様にロボット48が移動するように駆動制御する。
ロボット48は、第1実施形態におけるロボット28と同様にして構成されるものとして詳細な説明を省略する。ロボット48は、シミュレーションの対象とするスポーツで使用される物体の動きをシミュレーション(再現)可能な構造及び機能が設けられる。
次に、第2実施形態における情報提示装置10Bの動作について説明する。
図5は、第2実施形態の情報提示装置10Bの動作を示すフローチャートである。
第2実施形態では、カーリングの練習を、フローリングの床上(フィールド)でロボット48を用いて実施する場合を例にして説明する。すなわち、フローリングの床上での練習でありながら、氷上での練習をシミュレートできるようにする。ロボット48は、カーリングで使用されるストーンを表現するために使用するもので、第1実施形態におけるロボット28と同様に構成されるものとする。ロボット48を実際の氷上におけるストーンと同様に動かすことで、実物体の持つ存在感を損なわずにフローリングの床上でカーリングの練習をすることができる。さらに、ロボット48の外観形状をカーリングのストーンを模して構成することで、より実物体の持つ存在感を損なわずに済む。
図5は、第2実施形態の情報提示装置10Bの動作を示すフローチャートである。
第2実施形態では、カーリングの練習を、フローリングの床上(フィールド)でロボット48を用いて実施する場合を例にして説明する。すなわち、フローリングの床上での練習でありながら、氷上での練習をシミュレートできるようにする。ロボット48は、カーリングで使用されるストーンを表現するために使用するもので、第1実施形態におけるロボット28と同様に構成されるものとする。ロボット48を実際の氷上におけるストーンと同様に動かすことで、実物体の持つ存在感を損なわずにフローリングの床上でカーリングの練習をすることができる。さらに、ロボット48の外観形状をカーリングのストーンを模して構成することで、より実物体の持つ存在感を損なわずに済む。
なお、加速度センサ47は、カーリングで使用されるブラシ、あるいはブラシを操作する選手の手首に装着されるものとする。これにより、ロボット48(カーリングでのストーン)の動きに作用する、ブラシを用いたスイープ操作に関する操作情報を取得することができる。
カーリングの練習が開始されると、情報処理装置32は、ロボット位置取得部41によりロボット位置情報を取得する。すなわち、ロボット位置取得部41は、カメラ46により撮影される映像に対する画像処理により、カーリングが実施されるフィールドにおける各ロボット48を検出し、各ロボット48の座標位置を検出する。ロボット位置取得部41は、各ロボット48のID(i)と、ロボット48の位置座標(Xi,Yi)とを対応づけたロボット位置情報を生成する(ステップC1)。すなわち、フィールドに複数のロボット48が存在する場合には、各ロボット48についてロボット位置情報を生成する。
また、操作情報取得部42は、ロボット位置取得部41によるロボット位置情報の取得と並行して、加速度センサ47による検出結果をもとに操作情報を生成する。例えば、操作情報取得部42は、ロボット48を投げる速度、加速度センサ47により検出されるブラシの操作回数(フィールドをブラシで擦るスイープの回数)を含む操作情報を生成する(ステップC2)。
なお、操作情報取得部42は、カメラ46により撮影される映像からブラシが操作されている位置を検出し、ブラシの操作位置を操作情報に含めても良い。例えば、ロボット48の進行方向において操作されていることが検出された場合に、ストーン(ロボット48)の動きに作用する操作がされたものとして物理シミュレーションを実行できるようにする。
シミュレーション情報取得部43は、想定しているシミュレーション環境に基づき、このシミュレーション環境における物理シミュレーションに必要な環境情報(パラメータ)をシミュレーション情報DB44から取得して、シミュレーション実行部40に提供する(ステップC3)。ここでは、シミュレーション情報取得部43は、カーリングにおけるストーンの挙動を物理シミュレーションにより算出するために必要な環境情報を取得して、シミュレーション実行部40に提供する。例えば、シミュレーション情報取得部43は、シミュレーション情報DB44からストーンの重さ、氷の静摩擦係数、動摩擦係数、ストーンの反発係数、重力加速度、空気抵抗、スイープ時の摩擦係数の変化などのパラメータを、シミュレーション実行部40に提供する。
シミュレーション実行部40は、ロボット位置取得部41により取得されるロボット位置情報が示すロボット48の位置、操作情報取得部42により取得される操作情報が示すロボット48の動きに影響を与える操作内容、シミュレーション情報取得部43から提供される環境情報(各種パラメータ)をもとに、カーリングのストーンの動きについて物理シミュレーションを実施する(ステップC4)。シミュレーション実行部40は、フィールドに複数のロボット48が存在する場合には、各ロボット48に対応するストーンについての物理シミュレーションを実行する。シミュレーション実行部40は、物理シミュレーションされた結果が示すストーンの位置座標(Xj,Yj)と、カーリングのストーン(物体)のID(j)とを対応づけた位置情報を生成する。
次に、ロボット位置制御部45は、シミュレーション実行部40による物理シミュレーションの結果に基づいて、ロボット48の動作を制御する。すなわち、ロボット位置制御部45は、シミュレーション実行部40によりシミュレーションされたID(j)の位置座標(Xj,Yj)に、ID(j)が示すストーンに対応するID(i)のロボット48を移動させる。すなわち、ロボット位置制御部45は、位置座標(Xj,Yj)と位置座標(Xi,Yi)との差異が0(Xi−Xj=Yi−Yj=0)となるようにロボット48をフィールド上で移動させる。
このようにして、第2実施形態では、スポーツ練習において、ロボット48を用いることで、臨場感を保ちつつ、任意の環境下でのシミュレーション練習を実施可能となる。ロボット48を用いることで選手は触覚情報を得ることができるため、バーチャルな映像のみを用いたシミュレーション練習に比べて、より実環境に近い練習効果が得られる。
(第3実施形態)
図6は、第3実施形態における情報提示システム49の構成を示すブロック図である。第3実施形態における情報提示システム49は、第1実施形態と第2実施形態において説明した技術を利用して、離れた場所に設置される2つの情報提示装置10C,10Dを用いて、例えばロボットと映像と物理シミュレーションを組み合わせてスポーツ対戦を実現するのに好適なシステムである。
図6は、第3実施形態における情報提示システム49の構成を示すブロック図である。第3実施形態における情報提示システム49は、第1実施形態と第2実施形態において説明した技術を利用して、離れた場所に設置される2つの情報提示装置10C,10Dを用いて、例えばロボットと映像と物理シミュレーションを組み合わせてスポーツ対戦を実現するのに好適なシステムである。
第3実施形態では、例えば次の第1〜第3形態により実施可能である。
第1形態では、情報提示装置10C,10Dは、それぞれのスポーツを再現するフィールドにおいて、自チームの選手が操作する物体(例えばカーリングの投擲されるストーン)のみをロボットにより再現し、その他の物体(例えば、カーリングの投擲されるストーン以外の自チームと相手チームのストーン)については物体を表す映像を投影することで表現する。第1形態では、情報提示装置10C,10Dは、例えば実際に操作される物体(ロボット)の位置情報を相互に送受信し、その他の物体については物理シミュレーションにより位置を算出する。
第1形態では、情報提示装置10C,10Dは、それぞれのスポーツを再現するフィールドにおいて、自チームの選手が操作する物体(例えばカーリングの投擲されるストーン)のみをロボットにより再現し、その他の物体(例えば、カーリングの投擲されるストーン以外の自チームと相手チームのストーン)については物体を表す映像を投影することで表現する。第1形態では、情報提示装置10C,10Dは、例えば実際に操作される物体(ロボット)の位置情報を相互に送受信し、その他の物体については物理シミュレーションにより位置を算出する。
第2形態では、情報提示装置10C,10Dは、第1形態と同様にして、スポーツを再現するフィールドにおいて、自チームの選手が操作する物体のみをロボットにより再現し、その他の物体については物体を表す映像を投影することで表現するが、実際に操作される物体(ロボット)だけでなく、投影される物体を表す映像の位置(映像位置)とを含む位置情報とを相互に送受信する。情報提示装置10C,10Dは、対戦相手のフィールドにおける物体については物理シミュレーションを実行せずに、位置情報が示す位置に物体を表す映像を投影する。
第3形態では、情報提示装置10C,10Dは、自チームの選手が操作する物体だけでなく、その他の自チーム側の物体あるいは対戦相手が操作する物体についてもロボットにより再現すると共に、第1形態と同様に物理シミュレーションにより算出された位置に基づいて、ロボットにより再現される物体を含む各物体を表す映像を投影する。
図6に示すように、情報提示システム49は、2つの情報提示装置10C,10Dが含まれる。情報提示装置10C,10Dは、第1実施形態と第2実施形態に示す情報提示装置10A,10Bの機能を組み合わせて構成される。なお、情報提示装置10C,10Dは、同様の構成を有するものとして、情報提示装置10Cについて詳細を示し、情報提示装置10Dの説明を省略する。情報提示装置10Cは、情報処理装置34により実現される。図6では、情報提示装置10Cには、第2実施形態におけるカメラ46及び加速度センサ47と同様にそれぞれ使用されるカメラ70、加速度センサ71が接続される。また、情報提示装置10Cでは、自装置側のフィールドにおいて選手が操作する物体をシミュレーションするために使用されるロボット73と、情報提示装置10D側のフィールドにおいて選手が操作する物体をシミュレーションするために使用されるロボット74が設けられる。また、情報提示装置10Cには、スポーツが再現されるフィールドに対して、スポーツで使用される物体(カーリング麻ストーンなど)を表す映像を投影することができるプロジェクタ72が接続される。
情報処理装置34は、第1実施形態における情報処理装置12,14、第2実施形態における情報処理装置32と同様にして、コンピュータを実現する各種モジュールを有するものとして詳細な説明については省略する。情報処理装置34は、情報提示処理プログラムをプロセッサにより実行することにより、シミュレーション実行部50、送信側ロボット位置取得部51、操作情報取得部52、シミュレーション情報取得部53、シミュレーション情報DB54、送信側映像位置取得部55、物体位置情報送信部60、送信側映像制御部61、受信側映像位置取得部62、受信側映像制御部63、物体位置情報受信部64、送信側ロボット位置制御部65、受信側ロボット位置取得部66、受信側ロボット位置制御部67の機能を実現する。
シミュレーション実行部50、送信側ロボット位置取得部51、操作情報取得部52、シミュレーション情報取得部53、シミュレーション情報DB54、送信側ロボット位置制御部65は、それぞれ第2実施形態におけるシミュレーション実行部40、ロボット位置取得部41、操作情報取得部42、シミュレーション情報取得部43、シミュレーション情報DB44、ロボット位置制御部45と基本的に同様の機能を有するものとして詳細な説明を省略する。
物体位置情報送信部60、物体位置情報受信部64、受信側ロボット位置取得部66、受信側ロボット位置制御部67は、それぞれ第1実施形態における物体位置情報送信部22、物体位置情報受信部24、ボット位置取得部25、ロボット位置制御部26と基本的に同様の機能を有するものとして詳細な説明を省略する。各部の第1実施形態及び第2実施形態と異なる機能について以下に説明する。
送信側映像位置取得部55は、シミュレーション実行部50による物理シミュレーションの結果に基づいて、自チーム側の物体を表す映像をフィールドに投影する位置(映像位置)を取得する。
送信側映像制御部61は、送信側映像位置取得部55により取得された映像位置をもとに、プロジェクタ72により自チーム側の物体を表す映像をフィールドに投影させるための制御をする。
受信側映像位置取得部62は、シミュレーション実行部50による物理シミュレーションの結果(第1形態の場合)、あるいは物体位置情報受信部64により受信された位置情報(第2形態の場合)に基づいて、相手チーム側の物体を表す映像をフィールドに投影する位置(映像位置)を取得する。
受信側映像制御部63は、送信側映像位置取得部55により取得された映像位置をもとに、プロジェクタ72により相手チーム側の物体を表す映像をフィールドに投影させるための制御をする。
次に、第3実施形態における情報提示装置10Cの動作について説明する。
図7は、第3実施形態の情報提示装置10Cの動作を示すフローチャートである。
第3実施形態では、第2実施形態と同様にして、フローリングの床上(フィールド)でカーリングの試合を実施する場合を例にして説明する。ロボット73,74は、カーリングで使用されるストーンを表現するために使用する。
図7は、第3実施形態の情報提示装置10Cの動作を示すフローチャートである。
第3実施形態では、第2実施形態と同様にして、フローリングの床上(フィールド)でカーリングの試合を実施する場合を例にして説明する。ロボット73,74は、カーリングで使用されるストーンを表現するために使用する。
まず、第1形態について説明する。第1形態では、自チームの選手が操作する物体のみをロボット73により再現する(ロボット74は使用しない)。情報提示装置10Dとの間においてスポーツ対戦が開始されると、情報提示装置10C,10Dのそれぞれのフィールドにおいて、順番にストーンを表すロボットが投擲される。
情報提示装置10C側のフィールドにおいてロボット73が投擲されると(自ターンの場合)、情報処理装置34は、図7に示すステップD2以降の処理を実行する。第1形態の場合には、フィールド上の物体が投擲されたロボット73のみであるため、ロボット73の位置情報が取得される(ステップD2)。なお、ステップD3〜D5の処理は、第2実施形態における図5に示すステップC2〜C4と同様に実行されるものとして詳細な説明を省略する。なお、第1形態では、シミュレーション実行部50は、自チームと相手チームの全てのストーン(物体)を対象として物理シミュレーションを実行する。
送信側ロボット位置制御部65は、シミュレーション実行部50による物理シミュレーションの結果に基づいて、第2実施形態と同様にして、ロボット73を移動させる。すなわち、送信側ロボット位置制御部65は、ロボット73の位置を示す位置座標(Xj,Yj)と物理シミュレーションにより算出された位置座標(Xi,Yi)との差異が0(Xi−Xj=Yi−Yj=0)となるようにロボット73をフィールド上で移動させる。
また、送信側映像制御部61と受信側映像制御部63は、それぞれ物理シミュレーションの結果に基づいて、自チームと相手チームの各物体(ストーン)について物理シミュレーションにより算出された位置座標に、ストーンを表す映像をプロジェクタ72によって投影させる(ステップD6)。
また、物体位置情報送信部60は、物理シミュレーションにより算出された、ロボット73の位置を示す位置情報を情報提示装置10Dに送信する(ステップD7)。
一方、情報提示装置10D側のフィールドにおいてロボットが投擲されると(相手ターンの場合)、物体位置情報受信部64は、情報提示装置10D側のフィールドにおいて投擲されたロボットの位置を示す位置情報を受信する(ステップD1)。この場合、情報処理装置34は、情報提示装置10Dから受信された位置情報を含む各物体の位置情報を取得し、前述と同様にして、ステップD2〜D6(ステップD7は実行しない)の処理により物理シミュレーションの結果をもとに算出された位置に各物体の映像を投影する。なお、ステップD6では、先に自フィールドにおいて投擲したロボット73の位置にストーンを表す映像を投影し、ロボット73がフィールドから除去されているものとする。
図8(A)(B)は、第3実施形態の第1形態におけるロボット73の制御を説明するための図である。図8(A)は、情報提示装置10C側のカーリングが実施されているフィールドの様子を示す図である。図8(A)では、投擲済みの自チームのストーンT1と相手チームのストーンR1,R2が映像により投影され、自チームの選手により投擲された移動中のストーンT2を表現するロボット73を示している。
図8(B)は、相手ターン時のフィールドの様子を示す図である。図8(B)では、投擲済みの自チームのストーンT1,T2と相手チームのストーンR1,R2が映像により投影されている。また、相手ターンのため情報提示装置10D側のフィールドではストーンR3に相当するロボットが投擲されているが、情報提示装置10C側のフィールドでは、ストーンR3を表す映像が、情報提示装置10Dから受信される位置情報が示す位置に投影される。
なお、ストーン(ロボット73)の投擲により、他のストーンに衝突したことが物理シミュレーションにより算出された場合には、衝突によって移動するストーンの位置に応じて、それぞれのストーンに対応する映像の投影位置が変更される。これにより、情報提示装置10C,10Dのそれぞれのフィールドにおいて、カーリングの試合の様子が、ロボット73と映像の投影によって再現することができる。
このようにして、第3実施形態の第1形態では、自チームが投擲するストーンをロボット73で表現し、相手チームが投擲するストーンを含む、その他のフィールド上に存在するストーンをプロジェクタの映像で表現する。すなわち、フィールド上に存在する全てのストーンの動きをロボットで再現すると、情報提示装置10Cの処理能力やロボット73の移動性能などの物理的な制約から、正確な位置にロボットを動かすことが困難となり、対戦のリアルタイム性が損なわれるおそれがある。このため、第3実施形態の第1形態では、自チームの投擲されるストーンなど特に臨場感を向上させたい対象のみをロボット73で表現し、その他のストーンを映像で表現する。プロジェクタ72により投影される映像でストーンを表現する場合は、リアルタイム性を損失させることなくストーンを表す映像の投影位置を移動させることができる。従って、遠隔地同士でカーリングのようなターン制のスポーツ対戦を行う場合に、リアルタイム性を保ちながら臨場感を向上させることが可能となる。
次に、第2形態について説明する。第1形態では、実際に投擲されるロボット73の位置情報を相互に送受信し、その他のストーンについては物理シミュレーションにより算出した位置に映像を投影しているが、第2形態では、実際に投擲されるロボット73の位置情報を含む、物理シミュレーションにより算出した映像を投影する各ストーン(自チームと相手チームのストーンを含む)の位置を示す位置情報を相互に送受信する。
なお、各ストーンの位置情報については、前述と同様にして算出されるものとして詳細な説明を省略する。情報提示装置10Cは、自チームのターンでは、ステップD7において、各ストーンの位置情報を情報提示装置10Dに送信する。一方、相手ターンでは、ステップD1において、情報提示装置10D側のフィールドにおいて投擲されたロボットの位置情報に応じて、物理シミュレーションにより算出された各ストーンの位置情報を受信する。情報提示装置10Cは、物理シミュレーションを実行せずに、情報提示装置10Dから受信した位置情報に応じて、プロジェクタ72により各ステーションに対応する映像をフィールドに投影する。これにより、第2実施形態では、前述した第1形態と同様の効果を得ることができると共に、物理シミュレーション分の処理負担を軽減して、リアルタイム性を維持することが可能となる。
次に、第3形態について説明する。第1形態と第2形態では、自チームにおいて投擲されるストーンのみをロボット74により表しているが、さらには、その他の自チーム側のストーンについてもロボットにより再現する。この場合、送信側ロボット位置制御部65は、自チームの複数のストーンを表す複数のロボット73を駆動制御する。さらには相手チームのストーンについても、ロボット74によって再現しても良い。この場合、受信側ロボット位置制御部67は、相手チームの複数のストーンを表す複数のロボット74を駆動制御する。第3形態では、フィールドの各ロボット73,74に対して、前述のようにして物理シミュレーションによって算出された各ストーンの位置をもとにストーンを表す映像を投影する。すなわち、1個の物体(ストーン)について、ロボット73,74と映像の両方で重ねあわせて表現することで、ロボット73,74のみで表現する場合のリアルタイム性の損失を補う。
図9は、第3実施形態の第3形態におけるロボット73,74と映像の投影の制御を説明するための図である。図9では、自チームのストーンT1,T2を表現するロボット73と、相手チームのストーンR1,R2を表現するロボット74がフィールドに存在しており、投擲されたストーンT2の衝突によって、ストーンT2,R1,R2が移動中にある様子を示している。
第3形態では、ストーンT2,R1,R2に対して、それぞれに対応するストーンを表現する映像TP2,RP1,RP2が、物理シミュレーションにより算出された位置情報に応じて投影されている。すなわち、ロボット73,74の移動性能などの物理的な制約のために、物理シミュレーションにより算出された位置にロボット73,74をリアルタイムで移動させることができない場合であっても、映像TP2,RP1,RP2をリアルタイムで位置が移動するように投影することで、ロボット73,74のみで表現する場合のリアルタイム性の損失を補うことができる。
なお、前述した第1〜第3実施例において、物体を表現するためにロボットを用いているが、ロボットの他に、磁場や音場などを利用してフィールド上に力覚を提示する仕組みを用意することで、物体の位置を制御しても良い。
また、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
10A、10B、10C,10D…情報提示装置、16,18,46,70…カメラ、20…物体位置情報取得部、21…物体位置情報記憶部、22,60…物体位置情報送信部、24,61…物体位置情報受信部、25…ロボット位置取得部、26…ロボット位置制御部、28,48,73,74…ロボット、34…情報処理装置、40,50…シミュレーション実行部、41…ロボット位置取得部、42,52…操作情報取得部、43,53…シミュレーション情報取得部、44,54…シミュレーション情報DB、47,71…加速度センサ、49…情報提示システム、51…送信側ロボット位置取得部、55…送信側映像位置取得部、61…送信側映像制御部、62…受信側映像位置取得部、63…受信側映像制御部、65…送信側ロボット位置制御部、67…受信側ロボット位置制御部、72…プロジェクタ。
Claims (7)
- 第1フィールドにおける物体の位置を示す物体位置情報を取得する物体位置取得手段と、
前記物体位置情報を送信するための物体位置情報送信手段と、
前記物体位置情報を受信するための物体位置情報受信手段と、
第2フィールドにおけるロボットの位置を示すロボット位置情報を取得するロボット位置取得手段と、
前記ロボット位置情報と前記物体位置情報とに基づいて、前記ロボットの動作を制御するロボット位置制御手段と
を具備することを特徴とする情報提示装置。 - フィールドにおけるロボットの位置を示すロボット位置情報を取得するロボット位置取得手段と、
前記ロボットの動きに作用する操作に関する操作情報を取得する操作情報取得手段と、
物理シミュレーションを行うために必要な環境情報を取得するためのシミュレーション情報取得手段と、
前記ロボット位置情報、前記操作情報及び前記環境情報をもとに、物理シミュレーションを行うシミュレーション実行手段と、
前記物理シミュレーションの結果に基づいて前記ロボットの動作を制御するロボット位置制御手段と
を具備することを特徴とする情報提示装置。 - フィールドにおけるロボットの位置を示すロボット位置情報を取得するロボット位置取得手段と、
前記ロボットの動きに作用する操作に関する操作情報を取得する操作情報取得手段と、
物理シミュレーションを行うために必要な環境情報を取得するためのシミュレーション情報取得手段と、
前記ロボット位置情報、前記操作情報及び前記環境情報をもとに、物理シミュレーションを行うシミュレーション実行手段と、
前記物理シミュレーションの結果に基づいて、前記ロボットの動作を制御するロボット位置制御手段と、
前記物理シミュレーションの結果に基づいて、前記フィールドに映像を投影する映像位置を取得する映像位置取得手段と、
前記映像位置に応じて前記フィールドに投影する映像を制御する第1映像制御手段と、
前記物理シミュレーションの結果を送信する送信手段と、
外部装置から前記フィールドにおける位置を示す位置情報を受信する物体位置情報受信手段と、
前記位置情報に応じて前記フィールドに投影する映像を制御する第2映像制御手段と
を具備することを特徴とする情報提示装置。 - 第1フィールドにおける物体の位置を示す物体位置情報を取得し、
前記第1フィールドから離れた場所に位置する第2フィールドにおけるロボットの位置を示すロボット位置情報を取得し、
前記ロボット位置情報と前記物体位置情報とに基づいて、前記ロボットの動作を制御することを特徴とする情報提示方法。 - フィールドにおけるロボットの位置を示すロボット位置情報を取得し、
前記ロボットの動きに作用する操作に関する操作情報を取得し、
物理シミュレーションを行うために必要な環境情報を取得し、
前記ロボット位置情報、前記操作情報及び前記環境情報をもとに、物理シミュレーションを行い、
前記物理シミュレーションの結果に基づいて前記ロボットの動作を制御することを特徴とする情報提示方法。 - フィールドにおけるロボットの位置を示すロボット位置情報を取得し、
前記ロボットの動きに作用する操作に関する操作情報を取得し、
物理シミュレーションを行うために必要な環境情報を取得し、
前記ロボット位置情報、前記操作情報及び前記環境情報をもとに、物理シミュレーションを行い、
前記物理シミュレーションの結果に基づいて、前記ロボットの動作を制御し、
前記物理シミュレーションの結果に基づいて、前記フィールドに映像を投影する映像位置を取得し、
前記映像位置に応じて前記フィールドに投影する映像を制御し、
前記物理シミュレーションの結果を送信し、
外部装置から前記フィールドにおける位置を示す位置情報を受信し、
前記位置情報に応じて前記フィールドに投影する映像を制御することを特徴とする情報提示方法。 - 請求項1乃至3の何れかに記載の情報提示装置が具備する各手段が行う処理を、当該情報提示装置が備えるコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015217431A JP2017086258A (ja) | 2015-11-05 | 2015-11-05 | 情報提示装置、情報提示方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015217431A JP2017086258A (ja) | 2015-11-05 | 2015-11-05 | 情報提示装置、情報提示方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017086258A true JP2017086258A (ja) | 2017-05-25 |
Family
ID=58766812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015217431A Pending JP2017086258A (ja) | 2015-11-05 | 2015-11-05 | 情報提示装置、情報提示方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017086258A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022168258A1 (ja) * | 2021-02-05 | 2022-08-11 | ||
US11645778B2 (en) | 2017-12-21 | 2023-05-09 | Samsung Electronics Co., Ltd. | Apparatus and method for identifying and picking object using artificial intelligence algorithm |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003123089A (ja) * | 2001-10-11 | 2003-04-25 | Konami Co Ltd | 画像表示プログラム、画像表示方法及びビデオゲーム装置 |
US20040164696A1 (en) * | 2003-02-26 | 2004-08-26 | Yourlo Zhenya Alexander | Marking robot |
US20080237983A1 (en) * | 2007-03-29 | 2008-10-02 | Industrial Technology Research Institute | Portable robotic board game playing system |
JP2015089484A (ja) * | 2013-11-07 | 2015-05-11 | 国立大学法人電気通信大学 | ゲームシステム、ゲームサーバ及びゲーム遂行方法 |
WO2015159561A1 (ja) * | 2014-04-16 | 2015-10-22 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理システム、および情報処理方法 |
-
2015
- 2015-11-05 JP JP2015217431A patent/JP2017086258A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003123089A (ja) * | 2001-10-11 | 2003-04-25 | Konami Co Ltd | 画像表示プログラム、画像表示方法及びビデオゲーム装置 |
US20040164696A1 (en) * | 2003-02-26 | 2004-08-26 | Yourlo Zhenya Alexander | Marking robot |
US20080237983A1 (en) * | 2007-03-29 | 2008-10-02 | Industrial Technology Research Institute | Portable robotic board game playing system |
JP2015089484A (ja) * | 2013-11-07 | 2015-05-11 | 国立大学法人電気通信大学 | ゲームシステム、ゲームサーバ及びゲーム遂行方法 |
WO2015159561A1 (ja) * | 2014-04-16 | 2015-10-22 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理システム、および情報処理方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11645778B2 (en) | 2017-12-21 | 2023-05-09 | Samsung Electronics Co., Ltd. | Apparatus and method for identifying and picking object using artificial intelligence algorithm |
JPWO2022168258A1 (ja) * | 2021-02-05 | 2022-08-11 | ||
WO2022168258A1 (ja) * | 2021-02-05 | 2022-08-11 | 三菱電機株式会社 | 生産管理装置、生産システム、生産管理方法、及び、生産管理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11514653B1 (en) | Streaming mixed-reality environments between multiple devices | |
US11014000B2 (en) | Simulation system, processing method, and information storage medium | |
US11373354B2 (en) | Techniques for rendering three-dimensional animated graphics from video | |
US10282882B2 (en) | Augmented reality simulation continuum | |
KR102077108B1 (ko) | 콘텐츠 체험 서비스 제공 장치 및 그 방법 | |
CN105188867B (zh) | 远程游戏环境中角色交互的客户端侧处理 | |
US20030227453A1 (en) | Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data | |
US20060192852A1 (en) | System, method, software arrangement and computer-accessible medium for providing audio and/or visual information | |
US20110305398A1 (en) | Image generation system, shape recognition method, and information storage medium | |
CN103218198A (zh) | 运动用户的声音定位 | |
JP2015502584A (ja) | 可搬装置、仮想現実システムおよび方法 | |
CN105080134A (zh) | 真实感的遥控体验游戏系统 | |
KR20090000013A (ko) | 네트워크 게임용 보행 로봇의 게임 시스템 | |
TW201803633A (zh) | 虛擬高爾夫類比裝置及利用其的資訊服務方法 | |
KR101586387B1 (ko) | 온라인 게이밍 중의 사회적 상호작용 | |
JP2017086258A (ja) | 情報提示装置、情報提示方法及びプログラム | |
JP6918189B2 (ja) | シミュレーションシステム及びプログラム | |
JP2005168569A (ja) | 通信システム | |
CN112245910B (zh) | 一种基于Quest头显的建模、极限运动方法和系统 | |
JP7185814B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
EP4270155A1 (en) | Virtual content | |
TWI697848B (zh) | 多人連線遊戲的體感遊戲系統及其方法 | |
Ziegler et al. | A shared gesture and positioning system for smart environments | |
CN107930110B (zh) | 一种基于游玩海盗船的虚拟现实设备及其控制方法 | |
RU2626867C1 (ru) | Система для организации развлекательных, образовательных и/или рекламных мероприятий |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190604 |