JP2016218830A - 触覚提示システム、触覚提示方法、およびプログラム - Google Patents

触覚提示システム、触覚提示方法、およびプログラム Download PDF

Info

Publication number
JP2016218830A
JP2016218830A JP2015104373A JP2015104373A JP2016218830A JP 2016218830 A JP2016218830 A JP 2016218830A JP 2015104373 A JP2015104373 A JP 2015104373A JP 2015104373 A JP2015104373 A JP 2015104373A JP 2016218830 A JP2016218830 A JP 2016218830A
Authority
JP
Japan
Prior art keywords
proximity
space
remote
video
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015104373A
Other languages
English (en)
Inventor
直美 山下
Naomi Yamashita
直美 山下
淳司 大和
Atsushi Yamato
淳司 大和
英之 中西
Hideyuki Nakanishi
英之 中西
一晶 田中
Kazuaki Tanaka
一晶 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Osaka University NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Osaka University NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015104373A priority Critical patent/JP2016218830A/ja
Publication of JP2016218830A publication Critical patent/JP2016218830A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】遠隔地にいるユーザが互いに同じ空間でインタラクションを行っているかのように感じられる。【解決手段】近接映像取得部11は、近接空間をリアルタイムに撮影した近接映像を取得する。遠隔映像記憶部12は、遠隔空間において動作する接触対象物を撮影した遠隔映像を記憶する。動作追跡部23は、遠隔空間における接触対象物の動作に関する動作情報を取得する。動作制御部14は、接触対象物を模して形成された疑似接触対象物を動作情報に基づいて近接空間において動作させる。選択映像表示部15は、第一人物の手が近接空間に存在しないときに遠隔映像を再生し、第一人物の手が近接空間に存在するときに近接映像を表示する。【選択図】図1

Description

この発明は、異なる2個の地点で行われる遠隔コミュニケーションに臨場感を与えるための触覚提示技術に関する。
遠隔地間で音声と映像を伝達することで、対面に近い環境でコミュニケーションを行うビデオ会議が一般的に知られている。例えば非特許文献1には、遠隔地間で作業テーブル上の状態を共有するビデオ会議技術が記載されている。
ビデオ会議では、二つの空間を隔てるガラス窓越しにインタラクションを行う状況に近く、相手側の空間に手を伸ばすことはできない。すなわち、相手側の状況に関して視覚と聴覚で認識することはできるが、触覚で認識することはできない。これを可能にするために、例えば非特許文献2に記載されたようなテレイグジスタンス(Telexistence)技術が研究されている。テレイグジスタンス技術では、別の空間にあるヒューマノイドロボットを遠隔操作し、そのヒューマノイドロボットからセンシングされる映像、音声、触覚などを自分の空間にフィードバックすることによって、あたかも自分が遠隔地にいるかのような臨場感を得ることができる。非特許文献2では、相手の手の動きや触覚をよりリアルに感じさせるためにロボットハンドに様々な工夫を施している。
山下直美、梶克彦、葛岡英明、平田圭二、青柳滋巳、"遠隔ユーザのジェスチャの可視性を向上させる手法の提案と評価"、情報処理学会論文誌、vol. 52、No. 1、pp. 97-108、Jan. 2011 Hideyuki Nakanishi, Kazuaki Tanaka, Yuya Wada, "Remote Handshaking: Touch Enhances Video-Mediated Social Telepresence", Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, pp. 2143-2152, 2014
しかしながら、従来のテレイグジスタンス技術では、フィードバックを発生させる装置を身に付けている違和感があることや、装置によって再現されたフィードバックのリアリティが不十分であることなどによって、臨場感が低下するおそれがある。非特許文献2に記載された方法では相手の手の動きや触覚をリアルに再現することができるが、接触の対象がロボットハンドであることをユーザは視認できるため、そのリアリティが低下するおそれがある。
この発明の目的は、このような点に鑑みて、遠隔地にいるユーザが互いに同じ空間でインタラクションを行っているかのように感じられる触覚提示技術を提供することである。
上記の課題を解決するために、この発明の触覚提示システムは、近接空間をリアルタイムに撮影した近接映像を取得する近接映像取得部と、遠隔空間において動作する接触対象物を撮影した遠隔映像を記憶する遠隔映像記憶部と、遠隔空間における接触対象物の動作に関する動作情報を取得する動作追跡部と、接触対象物を模して形成された疑似接触対象物を動作情報に基づいて近接空間において動作させる動作制御部と、第一人物の手が近接空間に存在しないときに遠隔映像を再生し、第一人物の手が近接空間に存在するときに近接映像を表示する選択映像表示部と、を含む。
従来のテレイグジスタンス技術では、映像、音声、触覚などのフィードバックを発生させる装置の装着感があることから、そのフィードバックがリアルであったとしても本当に自分が遠隔地の空間にいると錯覚するには至らなかった。この発明によれば、ユーザが装置を身に着ける必要は無く、ロボットとの接触を相手側の空間にある物体(または身体)との接触であるかのように錯覚させることが可能になる。また、この錯覚を別の空間にいる相手と双方向で共有することにより、お互いに同じ空間でインタラクションを行っているかのように感じさせることが可能となる。
図1は、触覚提示システムの機能構成を例示する図である。 図2は、触覚提示システムの利用イメージを例示する図である。 図3は、触覚提示システムの利用イメージを例示する図である。 図4は、触覚提示方法の処理フローを例示する図である。 図5Aは、選択映像表示部が遠隔映像を再生する場面を例示する図である。図5Bは、第一人物の手が近接空間に存在する際に選択映像表示部が近接映像を表示する場面を例示する図である。図5Cは、第一人物と第二人物が握手している際に選択映像表示部が近接映像を表示する場面を例示する図である。
実施形態の説明に先立って、発明の原理について説明する。
この発明の触覚提示技術では、まず、相手側の空間にある物体(または相手の身体)を、ユーザ側にあるディスプレイに表示する。このとき、ユーザは、ディスプレイに相手側の空間が表示されることを理解する。次に、相手側の空間にあるカメラに何も映っていない状態にした後、ユーザ側の空間にあるカメラの映像に切り替える。このカメラはディスプレイの裏に設置されている。このとき、ロボットはカメラの画角には入っていない。ユーザがディスプレイの裏に手を伸ばすと、カメラを通して自分の腕がディスプレイに表示される。このとき、ユーザは、ディスプレイには相手側の空間だけではなく自分側の空間も表示されることを理解する。
その後、ロボットが動いてこのカメラの画角に入ると、その映像を見たユーザはこのロボットが相手側の空間にある物体(または身体)であると思い込む。さらに、ディスプレイの裏に手を伸ばすと、そのロボットに触れられるため、あたかも相手側の空間にあるはずの物体(または身体)に触れたかのように錯覚する。
錯覚が起こりやすくするために、ロボットの外見や質感をリアルに再現することが効果的に働く。また、会話の流れに応じて相手側の空間の映像とユーザ側の空間の映像を切り替える順番や回数を変えることでも錯覚を増長させられる場合がある。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
実施形態の触覚提示システムは、図1に例示するように、近接地点にいる第一人物1と遠隔地点にいる第二人物2とがビデオ会議により遠隔コミュニケーションを行っている状況において、第一人物1と第二人物2とが握手をし、互いにその触覚をリアルに感じることで同じ空間でインタラクションを行っているかのように感じさせるものである。なお、この発明の触覚提示技術は二地点間で双方向に互いの触覚を提示することを想定したものであるが、単一方向での利用も可能である。下記実施形態では説明を単純化するために、近接地点にいる第一人物に遠隔地点にいる第二人物の触覚を提示する単一方向の構成を説明する。二地点間で双方向に触覚を提示するように構成するためには、近接地点と遠隔地点とを逆方向にした構成を二組用意すればよい。
触覚提示システムは、図1に例示するように、近接地点に配置された近接映像取得部11、遠隔映像記憶部12、特徴映像表示部13、動作制御部14、選択映像表示部15、ビデオカメラ111、ディスプレイ131、151、および疑似接触対象物141と、遠隔地点に配置された遠隔映像取得部21、特徴映像取得部22、動作追跡部23、ビデオカメラ221、およびモーションセンサ231とを含む。近接地点と遠隔地点とは物理的に分離された二つの空間である。両地点間の距離は限定されず、物理的に遠く離れた遠隔地同士であってもよいし、壁面等で区切られた隣接する空間であってもよい。近接地点に配置された各構成部と遠隔地点に配置された各構成部とはLAN(Local Area Network)、WAN(Wide Area Network)、専用線のようなパケット交換方式もしくは回線交換方式の通信網を介して互いに通信可能なように構成されている。
ビデオカメラ111、221は、被写体とする物体や人物の映像を撮影するビデオカメラである。例えば、撮影可能な解像度や映像の記録媒体、マイクロフォンの有無、デジタルアナログの別など、ビデオカメラ111、221の備えるべき機能には制限はなく、一般的に動画が撮影可能なビデオカメラであれば任意のものを利用することができる。
ディスプレイ131、151は、少なくとも一面において入力された映像信号を表示する機能を有するディスプレイ装置である。具体的には、例えば、液晶ディスプレイやプラズマディスプレイ、有機EL(Electroluminescence)ディスプレイのような薄型ディスプレイである。視覚的に臨場感を向上するためには、できるだけ高精細かつ高画質であり、少なくとも対話相手を等身大で表示できる程度の画面サイズであることが望ましい。
モーションセンサ231は、対象物の三次元座標を逐次的に収集するモーションキャプチャセンサである。モーションセンサ231は搭載しているカメラの映像中で被写体の三次元座標を収集することで、被写体の位置とその位置の変化を取得することができる。モーションセンサ231として利用できるモーションキャプチャセンサは、例えば、「日本マイクロソフト株式会社、“Xbox 360 - Kinect”、[online]、[平成27年3月12日検索]、インターネット<URL:http://www.xbox.com/ja-JP/kinect>(参考文献1)」などに記載されている。
疑似接触対象物141は、近接地点にいる第一人物1へ触覚を提示する対象となる接触対象物を模して形成されたオブジェクトである。接触対象物は、遠隔地点に存在する物体もしくは遠隔地点にいる第二人物2の身体的部位である。具体的には、疑似接触対象物141は、第二人物2の腕の手から肘までの部分を模して形成されたロボットハンドである。このロボットハンドは外部からの信号入力により動作を制御することが可能である。例えば、肘の部分が前後に回転運動可能となっており、手を前に差し出したり、逆に手を引っ込めたりする動作が可能となっている。
図2を参照しながら、触覚提示システムの利用イメージを説明する。近接地点にいる第一人物1は、人間の上半身の位置に設置されたディスプレイ131と、ディスプレイ131の下方に画面を鉛直上方へ向けて設置されたディスプレイ151とに対峙して立つ。図示していないが、ビデオカメラ111はディスプレイ151の画面の裏側に設置され、ディスプレイ151の下の空間を撮影している。ビデオカメラ111により撮影される空間を近接空間10とする。近接空間10にはロボットハンド141が設置されており、第一人物1は手3でロボットハンド141と握手することができる。このとき、第一人物1からはディスプレイ151の影に隠れて握手しているところを直接見ることはできない。
ディスプレイ131には、遠隔地点においてビデオカメラ221により撮影された第二人物2の顔から胸までの上半身が表示されている。ディスプレイ151には、ビデオカメラ111により撮影された近接空間10の映像(以下、近接映像と呼ぶ。)、もしくは遠隔地点においてビデオカメラ221により撮影された遠隔空間20の映像(以下、遠隔映像と呼ぶ。)が表示される。遠隔空間20は、近接空間10に対応する空間である。第一人物1と近接空間10との相対的な位置関係は、第二人物2と遠隔空間20との相対的な位置関係と一致するように設定されている。図2の例では、第一人物1がロボットハンド141と握手しており、ディスプレイ151にはビデオカメラ111により撮影されている近接映像がリアルタイムに表示されている。
図3は触覚提示システムを側面から見た断面図である。図3を参照しながら、ディスプレイ151の下にある近接空間10における各構成部の配置を説明する。第一人物1の正面には第二人物2の上半身が表示されているディスプレイ131が配置され、ディスプレイ131の下方には画面を鉛直上方へ向けたディスプレイ151が配置されている。ビデオカメラ111は、ディスプレイ151の画面の裏側において、ディスプレイ151の下の近接空間10を見下ろす位置に配置される。ロボットハンド141は肘に相当する部分で前後に回転運動可能なように形成されており、その可動範囲にはビデオカメラ111の画角に入る部分と画角から外れる部分とがある。ロボットハンド141は手を前に差し出すと近接空間10に入り、手を引っ込めると近接空間10から外れる位置に調整して配置されている。これにより、第一人物1とロボットハンド141とが共に手を前に差し出すことで近接空間10において握手することが可能である。このとき、第一人物1からはディスプレイ151の影になり、ロボットハンド141を直接見ることはできない。
以下、図4を参照して、実施形態の触覚提示方法の処理手続きを説明する。
ステップS11において、近接映像取得部11は、ビデオカメラ111を用いて近接映像を取得する。近接映像は、近接空間10をリアルタイムに撮影している映像である。取得した近接映像は選択映像表示部15へ送られる。
ステップS21において、遠隔映像取得部21は、ビデオカメラ221を用いて遠隔映像を取得する。遠隔映像は、遠隔空間20において動作する接触対象物を撮影した映像である。この実施形態では、接触対象物は第二人物2の身体上の部位であり、第二人物2の手から肘までの部分であるが、これに限定されない。例えば、第一人物1と第二人物2とのインタラクションの中で接触する可能性のある部位(例えば、足、肩、胴など)であればどこでもよい。また、第二人物2の身体上の部位でなく、第二人物が携帯している物体や、第二人物の近傍に存在する物体などであってもよい。また、遠隔映像は、接触対象物ではなく、接触対象物を模して形成した疑似接触対象物が動作する場面を撮影した映像であってもよい。
後述する選択映像表示部15の処理により映像を切り替える際に違和感がないようにするため、遠隔映像の最初のフレームと最後のフレームでは接触対象物が映っていないように撮影することが望ましい。つまり、遠隔映像は、何も映っていない状態から接触対象物がフレームインし、所定の動作をした後にフレームアウトして再度何も映っていない状態となって終了するように撮影されたものであるとよい。
ステップS12において、遠隔映像取得部21が取得した遠隔映像は通信網を経由して近接地点へ送信され、遠隔映像記憶部12へ記憶される。
ステップS22において、特徴映像取得部22は、ビデオカメラ221を用いて特徴映像を取得する。特徴映像は、第二人物2の個人を特徴付ける部位である。この実施形態では、第二人物2の個人を特徴付ける部位は顔から胸までの上半身であるが、これに限定されない。例えば、第一人物が特徴映像を見て、そこに映っている人物が第二人物2であることを認識できる部位であればどこでもよい。具体的には、衣服に着用した名札のような本人しか保持していない物品などが考えられる。取得した特徴映像は、通信網を経由して近接地点へ送信され、特徴映像表示部13へ入力される。
ステップS13において、特徴映像表示部13は、特徴映像取得部22から受信した特徴映像をリアルタイムにディスプレイ131へ表示する。
ステップS23において、動作追跡部23は、モーションセンサ231を用いて動作情報を取得する。動作情報は、遠隔空間20における接触対象物の動作に関する情報であり、疑似接触対象物141が動作を再現するために必要とする情報である。動作情報は、既存のモーショントラッキング技術により取得することができる。取得した動作情報は、通信網を経由して近接地点へ送信され、動作制御部14へ入力される。
ステップS14において、動作制御部14は、動作追跡部23から受信した動作情報に基づいて、疑似接触対象物141を近接空間10において動作させる。これにより、遠隔空間における接触対象物の動作を、近接空間において再現することができる。例えば、遠隔地点において第二人物2が手を前に差し出すと、これに連動して、近接地点において疑似接触対象物141であるロボットハンドが前に差し出される。
ステップS151において、選択映像表示部15は、第一人物の手が近接空間に存在しないときに、遠隔映像記憶部12に記憶されている遠隔映像を再生してディスプレイ151へ表示する。上述のとおり、遠隔映像は、接触対象物である第二人物2の手から肘までの部分の遠隔空間20における動作を撮影したものである。第一人物1から見ると、自分の正面に第二人物2の上半身が表示されており、その下方の手元の位置で第二人物2の手が動作している様子が見えることになる。これにより、ディスプレイ151には対話相手である第二人物2の遠隔空間20における状況が表示されていると第一人物1に感じさせることができる。
ステップS152において、選択映像表示部15は、第一人物1の手3が近接空間10に存在するときに、近接映像取得部11から受け取った近接映像をリアルタイムにディスプレイ151へ表示する。上述のとおり、近接映像は、ビデオカメラ111により近接空間10をリアルタイムに撮影している映像である。したがって、近接空間10に存在する第一人物1の手3がディスプレイ151へ表示されることになる。これにより、ディスプレイ151には自分側の近接空間10の状況も表示されることを第一人物1に理解させることができる。
その後、遠隔地点において第二人物2が手を遠隔空間20に差し出すと、動作追跡部23と動作制御部14との連携により、近接地点においてロボットハンド141が近接空間10に差し出される。これに対して、第一人物1が手3を近接空間10に差し入れてロボットハンド141と握手する。第一人物1は、対話相手である第二人物2の手を模したロボットハンド141と自分の手3とが握手している映像がディスプレイ151に表示されている状況を視覚的に認識し、実際に自分の手3がロボットハンド141に触れていることを触覚で認識する。その結果、第一人物1は実際に第二人物2と握手しているかのように錯覚する。
図5を参照して、ディスプレイ131およびディスプレイ151に表示される映像の流れを説明する。まず、図5Aでは、ディスプレイ131に第二人物の上半身が表示され、その下方に設置されたディスプレイ151に第二人物の手の動作が撮影された遠隔映像が表示される。次に、図5Bでは、ディスプレイ131に第二人物の上半身が引き続き表示され、ディスプレイ151へ第一人物の手のみがリアルタイムに撮影された近接映像が表示される。そして、図5Cでは、ディスプレイ131に第二人物2の上半身が引き続き表示され、ディスプレイ151へロボットハンドと第一人物の手とが握手している様子がリアルタイムに撮影された近接映像が表示される。
選択映像表示部15が遠隔映像と近接映像を切り替える際に違和感がないようにするため、近接空間10に疑似接触対象物141も第一人物1の手3も存在しないときに映像を切り替えるようにするとよい。上述のとおり、遠隔映像の最初のフレームと最後のフレームは何も映っていない状態であるため、第一人物1が映像の切り替わりに気付きにくくすることができる。
この発明は、対話相手側の空間にある物体もしくは対話相手の身体の一部を模して形成されたロボットと、そのロボットの映像と対話相手の実際の身体の映像とを切り替えて提示できるディスプレイとで構成されている。ロボットの外見を直接ユーザに提示するのではなく映像を通して提示し、その映像と相手側の空間の映像とを繰り返し切り替えて提示する。これらの映像の区別がつきにくい状態にすることによって、ロボットとの接触を相手側の空間にある物体または身体との接触だと錯覚させる。ユーザに与えるフィードバックを可能な限りリアルにしようと試みる従来技術のアプローチとは異なり、双方の空間が繋がっているかのように錯覚させる点がこの発明の革新的な特徴である。
この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
1 第一人物
2 第二人物
3 第一人物の手
10 近接空間
11 近接映像取得部
12 遠隔映像記憶部
13 特徴映像表示部
14 動作制御部
15 選択映像表示部
111 ビデオカメラ
131 ディスプレイ
141 疑似接触対象物(ロボットハンド)
151 ディスプレイ
20 遠隔空間
21 遠隔映像取得部
22 特徴映像取得部
23 動作追跡部
221 ビデオカメラ
231 モーションセンサ

Claims (6)

  1. 近接空間をリアルタイムに撮影した近接映像を取得する近接映像取得部と、
    遠隔空間において動作する接触対象物を撮影した遠隔映像を記憶する遠隔映像記憶部と、
    上記遠隔空間における上記接触対象物の動作に関する動作情報を取得する動作追跡部と、
    上記接触対象物を模して形成された疑似接触対象物を上記動作情報に基づいて上記近接空間において動作させる動作制御部と、
    第一人物の手が上記近接空間に存在しないときに上記遠隔映像を再生し、上記第一人物の手が上記近接空間に存在するときに上記近接映像を表示する選択映像表示部と、
    を含む触覚提示システム。
  2. 請求項1に記載の触覚提示システムであって、
    上記接触対象物は、少なくとも上記第二人物の手を含む身体上の部位である
    触覚提示システム。
  3. 請求項1または2に記載の触覚提示システムであって、
    上記第二人物を特徴づける部位を撮影する特徴映像を取得する特徴映像取得部と、
    上記特徴映像を表示する特徴映像表示部と、
    をさらに含む触覚提示システム。
  4. 請求項3に記載の触覚提示システムであって、
    上記第二人物を特徴づける部位は、少なくとも上記第二人物の顔を含むものである
    触覚提示システム。
  5. 遠隔映像記憶部に、遠隔空間において動作する接触対象物を撮影した遠隔映像が記憶されており、
    近接映像取得部が、近接空間をリアルタイムに撮影した近接映像を取得する近接映像取得ステップと、
    動作追跡部が、上記遠隔空間における上記接触対象物の動作に関する動作情報を取得する動作追跡ステップと、
    動作制御部が、上記接触対象物を模して形成された疑似接触対象物を上記動作情報に基づいて上記近接空間において動作させる動作制御ステップと、
    選択映像表示部が、第一人物の手が上記近接空間に存在しないときに上記遠隔映像を再生し、上記第一人物の手が上記近接空間に存在するときに上記近接映像を表示する選択映像表示ステップと、
    を含む触覚提示方法。
  6. 請求項5に記載の触覚提示方法の各ステップをコンピュータに実行させるためのプログラム。
JP2015104373A 2015-05-22 2015-05-22 触覚提示システム、触覚提示方法、およびプログラム Pending JP2016218830A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015104373A JP2016218830A (ja) 2015-05-22 2015-05-22 触覚提示システム、触覚提示方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015104373A JP2016218830A (ja) 2015-05-22 2015-05-22 触覚提示システム、触覚提示方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2016218830A true JP2016218830A (ja) 2016-12-22

Family

ID=57578562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015104373A Pending JP2016218830A (ja) 2015-05-22 2015-05-22 触覚提示システム、触覚提示方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2016218830A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023063159A1 (ja) * 2021-10-13 2023-04-20 ソニーグループ株式会社 情報処理装置、及び情報処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023063159A1 (ja) * 2021-10-13 2023-04-20 ソニーグループ株式会社 情報処理装置、及び情報処理方法

Similar Documents

Publication Publication Date Title
Tang et al. Collaboration with 360° Videochat: Challenges and Opportunities.
KR100963238B1 (ko) 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
Schäfer et al. A survey on synchronous augmented, virtual, andmixed reality remote collaboration systems
Fakourfar et al. Stabilized annotations for mobile remote assistance
US9654734B1 (en) Virtual conference room
Leithinger et al. Physical telepresence: shape capture and display for embodied, computer-mediated remote collaboration
CN108646997A (zh) 一种虚拟及增强现实设备与其他无线设备进行交互的方法
US20170038829A1 (en) Social interaction for remote communication
Carmigniani et al. Augmented reality technologies, systems and applications
CN104081317B (zh) 信息处理设备和信息处理方法
US10200654B2 (en) Systems and methods for real time manipulation and interaction with multiple dynamic and synchronized video streams in an augmented or multi-dimensional space
Kunert et al. Photoportals: shared references in space and time
Zillner et al. 3D-board: a whole-body remote collaborative whiteboard
JP6721072B2 (ja) 計算処理実行方法、計算処理システム及びプログラム
Nor'a et al. Integrating virtual reality and augmented reality in a collaborative user interface
WO2018042175A1 (en) Systems and methods for providing real-time composite video from multiple source devices
US11423627B2 (en) Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
JP2021078104A (ja) コンテキスト及びコンテンツを意識した3D手ジェスチャ視覚化を伴うWebベースリモートアシスタンスシステムに関するプログラム
Steptoe et al. Acting rehearsal in collaborative multimodal mixed reality environments
Onishi et al. Embodiment of video-mediated communication enhances social telepresence
US20220398816A1 (en) Systems And Methods For Providing Real-Time Composite Video From Multiple Source Devices Featuring Augmented Reality Elements
Sakashita et al. RemoteCoDe: Robotic Embodiment for Enhancing Peripheral Awareness in Remote Collaboration Tasks
Zhang et al. Is this my phone? operating a physical smartphone in virtual reality
Cai et al. Trip together: a remote pair sightseeing system supporting gestural communication
Tan et al. Virtual reality based immersive telepresence system for remote conversation and collaboration