JP7276334B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7276334B2 JP7276334B2 JP2020522571A JP2020522571A JP7276334B2 JP 7276334 B2 JP7276334 B2 JP 7276334B2 JP 2020522571 A JP2020522571 A JP 2020522571A JP 2020522571 A JP2020522571 A JP 2020522571A JP 7276334 B2 JP7276334 B2 JP 7276334B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- display
- space
- existing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1446—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Description
1.概要
2.詳細
3.構成例
4.処理フロー例
5.変形例
6.ハードウェア構成例
7.まとめ
まず、本開示の概要について説明する。
上記では、本開示の概要について説明した。続いて、本開示の詳細について説明する。
まず、図1を参照して、本開示の一実施形態に係る情報処理システムの構成例について説明する。
上記では、本実施形態に係る情報処理システムの構成例について説明した。続いて、第1の空間100Aおよび第2の空間100Bにおける機器配置などについて説明する。
本実施形態に係る情報処理システムにおいては、ユーザA(第1のユーザ)およびユーザB(第2のユーザ)に提供される視聴覚効果について複数の動作モードが設けられる。そして、所定のトリガが発生した場合に、サーバ装置200は、動作モードを切り替えて、ユーザAおよびユーザBに与える視聴覚効果を変更することによって、ユーザAおよびユーザBに対して互いの位置関係(および体勢)を知覚させることができる。
上記では、本実施形態に係る情報処理システムにおいて用いられる動作モードの種類について説明した。続いて、動作モードの切り替えについて説明する。
上記では、動作モードの切り替えについて説明した。続いて、各機器を用いた情報伝達のバリエーションについて説明する。
上記では、各機器を用いた情報伝達のバリエーションについて説明した。続いて、撮像画像からの実物体の抽出処理について説明する。
上記では、撮像画像からの物体の抽出処理について説明した。続いて、本実施形態に係る各空間の構成例および各装置の機能構成例について説明する。
まず、図20を参照して、第1の空間100または第2の空間100Bの構成例について説明する。図20に示すように、第1の空間100または第2の空間100Bには、クライアント装置110と、入力機器群120と、出力機器群130と、が備えられる。
クライアント装置110は、上記のとおり、入力機器群120および出力機器群130を統括的に制御する装置である。図20に示すように、クライアント装置110は、制御部111と、通信部113と、記憶部115と、を備える。
制御部111は、クライアント装置110が行う処理全般を統括的に制御する機能構成である。例えば、制御部111は、入力機器群120から提供される各種入力情報を取得すると、当該入力情報をサーバ装置200へ提供する処理を制御する。なお、このとき、制御部111は、入力情報をそのままサーバ装置200へ提供するのではなく、入力情報を解析し、その解析結果をサーバ装置200へ提供することでサーバ装置200の処理負荷を低減させたり通信データ量を削減したりすることができる。
通信部113は、サーバ装置200、入力機器群120、および出力機器群130を含む外部装置と各種通信を行う機能構成である。例えば、通信部113は、入力機器群120から入力情報を受信したり、サーバ装置200へ当該入力情報を送信したりする。また、通信部113は、サーバ装置200から出力機器群130を制御するための制御情報を受信したり、出力機器群130へ当該制御情報を送信したりする。なお、通信部113が通信する情報および通信するケースはこれらに限定されない。また、通信部113の通信方式は特に限定されない。
記憶部115は、各種情報を記憶する機能構成である。例えば、記憶部115は、入力機器群120から提供された入力情報、またはサーバ装置200から提供された制御情報などを記憶する。また、記憶部115は、クライアント装置110の処理に使用される各種プログラム、または各種パラメータなどを記憶する。なお、記憶部115が記憶する情報はこれらに限定されない。
入力機器群120は、各種入力情報を生成する機器群である。図20に示すように、入力機器群120は、センサ部121と、カメラ123と、マイク125と、を備える。なお、入力機器群120の構成はこれらに限定されず、入力情報を生成可能な機器であれば如何なる機器が入力機器群120に備えられてもよい。
センサ部121は、任意のセンサを備える構成である。例えば、センサ部121は、タッチセンサ、圧力センサ、近接センサ、赤外線受光部、超音波センサ、デプスカメラ、サーモカメラ、またはRGBカメラなどを備えていてもよいし、また、ボタン、スイッチ、コントローラ(例えば、スティック型コントローラなど)、およびレバーなど物理的構成により形成される操作入力部を備えていてもよい。
カメラ123は、ユーザおよびユーザの作業対象物などを撮像することで撮像画像を生成する構成である。なお、カメラ123の設置態様は特に限定されない。例えば、図21のAに示すように、ユーザがセンサ部121に備えられているスティック型コントローラに対して操作入力を行うことで、図21のBに示すように、カメラ123の撮像方向が変更されるような態様でカメラ123が設置されてもよい。これによって、例えば、各ユーザが同一の空間で作業をしているかのような感覚が創出され易いように撮像範囲が調整され得る。また、図22に示すように、複数のカメラ123が天球状に設置されてもよい。これによって、物体(ユーザの身体を含む)が様々な角度から撮像された撮像画像が生成されるため、各ユーザが同一の空間で作業をしているかのような感覚が創出され易いように撮像範囲を調整することや、身体情報または環境情報を取得することがより容易になる。
マイク(マイクロホン)125は、ユーザの発話音声などをセンシングする構成である。なお、マイク125の設置態様は特に限定されない。
出力機器群130は、上記のとおり、ユーザA(第1のユーザ)、またはユーザB(第2のユーザ)に対して各種出力を行う機器群である。図20に示すように、出力機器群130は、テーブルディスプレイ131と、ウィンドウディスプレイ133と、スピーカ135と、触覚提示機器137と、を備える。なお、出力機器群130の構成はこれらに限定されず、各種出力を行うことができる機器であれば如何なる機器が出力機器群130に備えられてもよい。
テーブルディスプレイ131は、表示面がテーブルの天板部分に設けられ、地表面に対して略平行に位置するディスプレイである。なお、ディスプレイの種類は特に限定されない。
ウィンドウディスプレイ133は、テーブルディスプレイ131上の一端に略垂直に設けられ、表示面が地表面に対して略垂直に位置するディスプレイである。なお、ディスプレイの種類は特に限定されない。
スピーカ135は、音声を出力する構成である。また、例えば、複数台のスピーカ135が互いに連携することなどによって実空間に音像が定位されてもよい。これによって、各ユーザは、他のユーザの位置および体勢などを直感的に認識することができるため、各ユーザが同一空間中に存在する感覚がより強調され得る。なお、スピーカ135の種類は特に限定されない。
触覚提示機器137は、ユーザに対して触覚を提示する構成である。例えば、触覚提示機器137は、ユーザが装着するウェアラブル機器(例えば、グラス型、時計型、グローブ型、または衣服型のウェアラブル装置など)や、ユーザの身体に接触する外部機器などである。触覚提示機器137は、例えば、振動を提示するアクチュエータ(例えば、ERM(偏心モータ)、LRA(リニア共振アクチュエータ)、またはVCM(ボイスコイルモータ)など)、力覚を提示する電気素子、または温度感覚を提示する温度変化素子など(例えば、ペルチェ素子など)を備えている。なお、触覚提示機器137が提示する触覚は特に限定されない。
続いて、図23を参照して、サーバ装置200の機能構成例について説明する。図23に示すように、サーバ装置200は、制御部210と、通信部220と、記憶部230と、を備える。
制御部210は、サーバ装置200が行う処理全般を統括的に制御する機能構成である。例えば、制御部210は、ユーザによって入力機器群120を用いて行われる入力などに基づいて各種処理の開始や停止を制御する。なお、制御部210の制御内容は特に限定されない。例えば、制御部210は、汎用コンピュータ、PC、タブレットPCまたはスマートフォンなどにおいて一般的に行われる処理(例えば、OSに関する処理など)を制御してもよい。
入力情報解析部211は、各空間に備えられる入力機器群120から取得された入力情報を解析する機能構成である(入力情報解析部211は、解析部としても機能する)。例えば、入力情報解析部211は、入力情報を解析することで、身体情報または環境情報を取得する取得部として機能する。上記のとおり、身体情報とは各ユーザの身体の部位の位置情報を含む概念であり、環境情報とは各空間に存在する物体(入力機器群120や出力機器群130を含む)の各部分の位置情報を含む概念である。なお、入力情報解析部211が入力情報を解析することで環境情報を取得する処理は、上記で説明した、撮像画像から実物体を抽出する処理を含む概念であることに留意されたい。
仮想空間生成部213は、入力情報解析部211によって取得された身体情報または環境情報(または、少なくとも身体情報)に基づいて仮想空間を生成する機能構成である。仮想空間生成部213は、身体情報または環境情報に基づいて各ユーザまたは各物体の位置関係を仮想空間上に再現することができる。仮想空間生成部213は、クライアント装置110から随時提供される入力情報に基づいて仮想空間を更新していく。
表示制御部215は、各空間に備えられるディスプレイによる表示処理を制御する機能構成である。図23に示すように、表示制御部215は、テーブルディスプレイ表示制御部215aと、ウィンドウディスプレイ表示制御部215bと、を備える。
テーブルディスプレイ表示制御部215aは、各空間に備えられるテーブルディスプレイ131による表示処理を制御する機能構成である。より具体的には、テーブルディスプレイ表示制御部215aは、入力情報解析部211により認識された入力の内容、入力情報解析部211により設定された動作モード、仮想空間生成部213により生成された仮想空間などに基づいてテーブルディスプレイ131による表示処理を制御する。
ウィンドウディスプレイ表示制御部215bは、各空間に備えられるウィンドウディスプレイ133による表示処理を制御する機能構成である。より具体的には、ウィンドウディスプレイ表示制御部215bは、入力情報解析部211により認識された入力の内容、入力情報解析部211により設定された動作モード、仮想空間生成部213により生成された仮想空間などに基づいてウィンドウディスプレイ133による表示処理を制御する。
音声出力制御部217は、各空間に備えられるスピーカ135による音声出力処理を制御する機能構成である。例えば、音声出力制御部217は、ユーザAの音声をユーザBへ(または、ユーザBの音声をユーザAへ)伝達する。音声出力制御部217は、マイク125によって取得されたユーザの音声情報に基づいて生成した制御情報を生成し、通信部220を介してクライアント装置110へ提供することでスピーカ135の音声出力処理を制御する。その際、音声出力制御部217は、仮想空間生成部213によって生成された仮想空間(各ユーザの位置関係)および入力情報解析部211により設定された動作モードに基づいて制御情報を生成することで、実空間に音像を定位させて各ユーザに互いの位置関係を知覚させてもよい。
触覚提示制御部219は、各空間に備えられる触覚提示機器137による触覚提示処理を制御する機能構成である。より具体的には、触覚提示制御部219は、入力情報解析部211により認識された入力の内容、入力情報解析部211により設定された動作モード、仮想空間生成部213により生成された仮想空間などに基づいて触覚提示機器137の触覚提示処理を制御する。触覚提示制御部219は、触覚提示機器137による触覚提示の内容を含む制御情報を生成し、通信部220を介してクライアント装置110へ提供することで触覚提示機器137の触覚提示処理を制御する。
通信部220は、クライアント装置110を含む外部装置との各種通信を行う機能構成である。例えば、通信部220は、クライアント装置110との通信において、入力機器群120によって取得された入力情報を受信したり、出力機器群130を制御するための制御情報を送信したりする。なお、通信部220が通信する情報および通信するケースはこれらに限定されない。また、通信部220の通信方式は特に限定されない。
記憶部230は、各種情報を記憶する機能構成である。例えば、記憶部230は、入力情報、入力情報解析部211による解析の結果、仮想空間生成部213によって生成された仮想空間、表示制御部215、音声出力制御部217、および触覚提示制御部219によって生成された制御情報などを記憶する。また、記憶部230は、サーバ装置200の処理に使用される各種プログラム、または各種パラメータなどを記憶する。なお、記憶部230が記憶する情報はこれらに限定されない。
上記では、本実施形態に係る各空間の構成例および各装置の機能構成例について説明した。続いて、図25を参照して、サーバ装置200の処理フローの一例について説明する。
上記では、サーバ装置200の処理フローの一例について説明した。続いて、本開示の変形例について説明する。
上記では、本開示の変形例について説明した。続いて、図32を参照して、サーバ装置200またはクライアント装置110のハードウェア構成例について説明する。
以上で説明してきたように、本開示に係る情報処理装置(サーバ装置200)は、第1の空間100Aに存在する第1のユーザ(例えば、指導者)の第1の身体情報、または第2の空間100Bに存在する第2のユーザ(例えば、生徒)の第2の身体情報を取得し、第1の身体情報または第2の身体情報に基づいて仮想空間を生成する。より具体的には、情報処理装置は、第1のユーザまたは第2のユーザの位置関係を再現した仮想空間を生成する。なお上記のとおり、情報処理装置は、第1の空間100Aに存在する物体に関する第1の環境情報、または第2の空間100Bに存在する物体に関する第2の環境情報も用いることで各空間に存在する物体についても仮想空間に再現してもよい。
(1)
第1の空間に存在する第1のユーザの第1の身体情報、および第2の空間に存在する第2のユーザの第2の身体情報を取得する取得部と、
前記第1の身体情報または前記第2の身体情報に基づいて仮想空間を生成する仮想空間生成部と、
前記第1のユーザまたは前記第2のユーザの少なくともいずれか一方に起因するトリガが発生した場合に動作モードを切り替える動作モード制御部と、
前記動作モードの切り替えと、前記第1の空間に存在する少なくとも1台の機器、または前記第2の空間に存在する少なくとも1台の機器を連動させる制御部と、を備える、
情報処理装置。
(2)
前記取得部は、前記第1の空間に存在する物体に関する情報を含む第1の環境情報、または前記第2の空間に存在する物体に関する情報を含む第2の環境情報をさらに取得し、
前記仮想空間生成部は、前記第1の環境情報または前記第2の環境情報にも基づいて前記仮想空間を生成する、
前記(1)に記載の情報処理装置。
(3)
前記動作モード制御部は、前記仮想空間における前記第1のユーザおよび前記第2のユーザの位置関係の変化に基づいて前記動作モードを切り替える、
前記(2)に記載の情報処理装置。
(4)
前記位置関係は、前記第1のユーザおよび前記第2のユーザが正対して位置する関係、前記第1のユーザおよび前記第2のユーザが略同一の方向を向いた状態で横に並んで位置する関係、前記第1のユーザおよび前記第2のユーザが略同一の方向を向いた状態で一方が他方に被さるように位置する関係のうちの少なくともいずれか1つを含む、
前記(3)に記載の情報処理装置。
(5)
前記機器は、少なくとも1台のディスプレイを含む、
前記(1)から(4)のいずれか1項に記載の情報処理装置。
(6)
前記機器は、表示面が地表面に対して略垂直に位置する第1のディスプレイ、および表示面が地表面に対して略平行に位置する第2のディスプレイを含む、
前記(5)に記載の情報処理装置。
(7)
前記第2のディスプレイは、前記第1のユーザまたは前記第2のユーザの作業台としても使用される、
前記(6)に記載の情報処理装置。
(8)
前記制御部は、前記第1の空間に存在する前記第1のディスプレイまたは前記第2のディスプレイに対して、前記第2の身体情報の少なくとも一部を表示させる、
前記(7)に記載の情報処理装置。
(9)
前記第2の身体情報の少なくとも一部、および前記第2の空間に存在する前記第2のディスプレイの表示画像が撮像された撮像画像を解析することで、前記第2の身体情報の少なくとも一部を前記撮像画像から抽出する解析部をさらに備える、
前記(8)に記載の情報処理装置。
(10)
前記第2の空間が複数存在し、前記第2のユーザが複数人存在する場合、
前記制御部は、前記第1のディスプレイまたは前記第2のディスプレイに対して、複数人の前記第2のユーザそれぞれの前記第2の身体情報の少なくとも一部を表示させる、
前記(9)に記載の情報処理装置。
(11)
前記解析部は、複数人の前記第2のユーザそれぞれの前記第2の身体情報を解析することで、前記第2のユーザそれぞれの作業に関する評価を行う、
前記(10)に記載の情報処理装置。
(12)
前記制御部は、前記第1のユーザによる入力に基づいて前記第2の空間に存在する少なくとも1台の機器を制御する、
前記(1)から(11)のいずれか1項に記載の情報処理装置。
(13)
前記第2の空間が複数存在し、前記第2のユーザが複数人存在する場合、
前記制御部は、前記第1のユーザによる入力に基づいて複数の前記第2の空間のうちの少なくともいずれか1つを特定し、特定された前記第2の空間に存在する少なくとも1台の機器を制御する、
前記(12)に記載の情報処理装置。
(14)
前記機器は、スピーカまたは触覚提示機器を含む、
前記(1)から(13)のいずれか1項に記載の情報処理装置。
(15)
第1の空間に存在する第1のユーザの第1の身体情報、および第2の空間に存在する第2のユーザの第2の身体情報を取得することと、
前記第1の身体情報または前記第2の身体情報に基づいて仮想空間を生成することと、
前記第1のユーザまたは前記第2のユーザの少なくともいずれか一方に起因するトリガが発生した場合に動作モードを切り替えることと、
前記動作モードの切り替えと、前記第1の空間に存在する少なくとも1台の機器、または前記第2の空間に存在する少なくとも1台の機器を連動させることと、を有する、
コンピュータにより実行される情報処理方法。
(16)
第1の空間に存在する第1のユーザの第1の身体情報、および第2の空間に存在する第2のユーザの第2の身体情報を取得することと、
前記第1の身体情報または前記第2の身体情報に基づいて仮想空間を生成することと、
前記第1のユーザまたは前記第2のユーザの少なくともいずれか一方に起因するトリガが発生した場合に動作モードを切り替えることと、
前記動作モードの切り替えと、前記第1の空間に存在する少なくとも1台の機器、または前記第2の空間に存在する少なくとも1台の機器を連動させることと、
をコンピュータに実現させるためのプログラム。
100B 第2の空間
110 クライアント装置
111 制御部
113 通信部
115 記憶部
120 入力機器群
121 センサ部
123 カメラ
125 マイク
130 出力機器群
131 テーブルディスプレイ
133 ウィンドウディスプレイ
135 スピーカ
137 触覚提示機器
200 サーバ装置
210 制御部
211 入力情報解析部
213 仮想空間生成部
215 表示制御部
215a テーブルディスプレイ表示制御部
215b ウィンドウディスプレイ表示制御部
217 音声出力制御部
219 触覚提示制御部
220 通信部
230 記憶部
300 ネットワーク
Claims (13)
- 第1の空間に存在する第1のユーザの第1の身体情報、および第2の空間に存在する第2のユーザの第2の身体情報と、前記第1の空間に存在する物体に関する情報を含む第1の環境情報、または前記第2の空間に存在する物体に関する情報を含む第2の環境情報と、を取得する取得部と、
前記第1の身体情報または前記第2の身体情報と、前記第1の環境情報または前記第2の環境情報と、に基づいて仮想空間を生成する仮想空間生成部と、
前記第1のユーザまたは前記第2のユーザの少なくともいずれか一方に起因するトリガが発生した場合に、前記仮想空間における前記第1のユーザおよび前記第2のユーザの位置関係の変化に基づいて動作モードを切り替える動作モード制御部と、
前記動作モードの切り替えと、前記第1の空間に存在する少なくとも1台の機器、または前記第2の空間に存在する少なくとも1台の機器を連動させる制御部と、を備え、
前記位置関係は、前記第1のユーザおよび前記第2のユーザが正対して位置する関係、前記第1のユーザおよび前記第2のユーザが略同一の方向を向いた状態で横に並んで位置する関係、前記第1のユーザおよび前記第2のユーザが略同一の方向を向いた状態で一方が背後から他方に被さるように位置する関係のうちの少なくともいずれか1つを含む、
情報処理装置。 - 前記機器は、少なくとも1台のディスプレイを含む、
請求項1に記載の情報処理装置。 - 前記機器は、表示面が地表面に対して略垂直に位置する第1のディスプレイ、および表示面が地表面に対して略平行に位置する第2のディスプレイを含む、
請求項2に記載の情報処理装置。 - 前記第2のディスプレイは、前記第1のユーザまたは前記第2のユーザの作業台としても使用される、
請求項3に記載の情報処理装置。 - 前記制御部は、前記第1の空間に存在する前記第1のディスプレイまたは前記第2のディスプレイに対して、前記第2の身体情報の少なくとも一部を表示させる、
請求項4に記載の情報処理装置。 - 前記第2の身体情報の少なくとも一部、および前記第2の空間に存在する前記第2のディスプレイの表示画像が撮像された撮像画像を解析することで、前記第2の身体情報の少なくとも一部を前記撮像画像から抽出する解析部をさらに備える、
請求項5に記載の情報処理装置。 - 前記第2の空間が複数存在し、前記第2のユーザが複数人存在する場合、
前記制御部は、前記第1のディスプレイまたは前記第2のディスプレイに対して、複数人の前記第2のユーザそれぞれの前記第2の身体情報の少なくとも一部を表示させる、
請求項6に記載の情報処理装置。 - 前記解析部は、複数人の前記第2のユーザそれぞれの前記第2の身体情報を解析することで、前記第2のユーザそれぞれの作業に関する評価を行う、
請求項7に記載の情報処理装置。 - 前記制御部は、前記第1のユーザによる入力に基づいて前記第2の空間に存在する少なくとも1台の機器を制御する、
請求項1に記載の情報処理装置。 - 前記第2の空間が複数存在し、前記第2のユーザが複数人存在する場合、
前記制御部は、前記第1のユーザによる入力に基づいて複数の前記第2の空間のうちの少なくともいずれか1つを特定し、特定された前記第2の空間に存在する少なくとも1台の機器を制御する、
請求項9に記載の情報処理装置。 - 前記機器は、スピーカまたは触覚提示機器を含む、
請求項1に記載の情報処理装置。 - 第1の空間に存在する第1のユーザの第1の身体情報、および第2の空間に存在する第2のユーザの第2の身体情報と、前記第1の空間に存在する物体に関する情報を含む第1の環境情報、または前記第2の空間に存在する物体に関する情報を含む第2の環境情報と、を取得することと、
前記第1の身体情報または前記第2の身体情報と、前記第1の環境情報または前記第2の環境情報と、に基づいて仮想空間を生成することと、
前記第1のユーザまたは前記第2のユーザの少なくともいずれか一方に起因するトリガが発生した場合に、前記仮想空間における前記第1のユーザおよび前記第2のユーザの位置関係の変化に基づいて動作モードを切り替えることと、
前記動作モードの切り替えと、前記第1の空間に存在する少なくとも1台の機器、または前記第2の空間に存在する少なくとも1台の機器を連動させることと、を有し、
前記位置関係は、前記第1のユーザおよび前記第2のユーザが正対して位置する関係、前記第1のユーザおよび前記第2のユーザが略同一の方向を向いた状態で横に並んで位置する関係、前記第1のユーザおよび前記第2のユーザが略同一の方向を向いた状態で一方が背後から他方に被さるように位置する関係のうちの少なくともいずれか1つを含む、
コンピュータにより実行される情報処理方法。 - 第1の空間に存在する第1のユーザの第1の身体情報、および第2の空間に存在する第2のユーザの第2の身体情報と、前記第1の空間に存在する物体に関する情報を含む第1の環境情報、または前記第2の空間に存在する物体に関する情報を含む第2の環境情報と、を取得することと、
前記第1の身体情報または前記第2の身体情報と、前記第1の環境情報または前記第2の環境情報と、に基づいて仮想空間を生成することと、
前記第1のユーザまたは前記第2のユーザの少なくともいずれか一方に起因するトリガが発生した場合に、前記仮想空間における前記第1のユーザおよび前記第2のユーザの位置関係の変化に基づいて動作モードを切り替えることと、
前記動作モードの切り替えと、前記第1の空間に存在する少なくとも1台の機器、または前記第2の空間に存在する少なくとも1台の機器を連動させることと、
をコンピュータに実現させ、
前記位置関係は、前記第1のユーザおよび前記第2のユーザが正対して位置する関係、前記第1のユーザおよび前記第2のユーザが略同一の方向を向いた状態で横に並んで位置する関係、前記第1のユーザおよび前記第2のユーザが略同一の方向を向いた状態で一方が背後から他方に被さるように位置する関係のうちの少なくともいずれか1つを含む、
ためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018105824 | 2018-06-01 | ||
JP2018105824 | 2018-06-01 | ||
PCT/JP2019/021432 WO2019230852A1 (ja) | 2018-06-01 | 2019-05-29 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019230852A1 JPWO2019230852A1 (ja) | 2021-07-08 |
JP7276334B2 true JP7276334B2 (ja) | 2023-05-18 |
Family
ID=68698274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020522571A Active JP7276334B2 (ja) | 2018-06-01 | 2019-05-29 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11366631B2 (ja) |
JP (1) | JP7276334B2 (ja) |
CN (1) | CN112166602B (ja) |
DE (1) | DE112019002798T5 (ja) |
WO (1) | WO2019230852A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021220494A1 (ja) * | 2020-04-30 | 2021-11-04 | 塁 佐藤 | 通信端末装置、通信方法、およびソフトウェアプログラム |
WO2022097271A1 (ja) * | 2020-11-06 | 2022-05-12 | 株式会社Abal | 仮想空間体感システム |
JP2023066988A (ja) * | 2021-10-29 | 2023-05-16 | 学校法人同志社 | 映像シェアシステム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009145883A (ja) | 2007-11-20 | 2009-07-02 | Rissho Univ | 学習システム、記憶媒体及び学習方法 |
WO2017030193A1 (ja) | 2015-08-20 | 2017-02-23 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2018073093A (ja) | 2016-10-28 | 2018-05-10 | キヤノン株式会社 | 表示制御システム、画像処理装置、表示制御方法、及びプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5845211B2 (ja) * | 2013-06-24 | 2016-01-20 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US10019059B2 (en) * | 2014-08-22 | 2018-07-10 | Sony Interactive Entertainment Inc. | Glove interface object |
US9898864B2 (en) * | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
JP6541497B2 (ja) * | 2015-07-31 | 2019-07-10 | キヤノン株式会社 | コミュニケーションシステム、その制御方法及びプログラム |
JP2018019338A (ja) * | 2016-07-29 | 2018-02-01 | キヤノン株式会社 | 遠隔コミュニケーションシステム、その制御方法、及びプログラム |
JP2018092313A (ja) * | 2016-12-01 | 2018-06-14 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20190212901A1 (en) * | 2018-01-08 | 2019-07-11 | Cisco Technology, Inc. | Manipulation of content on display surfaces via augmented reality |
-
2019
- 2019-05-29 DE DE112019002798.0T patent/DE112019002798T5/de active Pending
- 2019-05-29 US US17/058,230 patent/US11366631B2/en active Active
- 2019-05-29 JP JP2020522571A patent/JP7276334B2/ja active Active
- 2019-05-29 WO PCT/JP2019/021432 patent/WO2019230852A1/ja active Application Filing
- 2019-05-29 CN CN201980035050.4A patent/CN112166602B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009145883A (ja) | 2007-11-20 | 2009-07-02 | Rissho Univ | 学習システム、記憶媒体及び学習方法 |
WO2017030193A1 (ja) | 2015-08-20 | 2017-02-23 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2018073093A (ja) | 2016-10-28 | 2018-05-10 | キヤノン株式会社 | 表示制御システム、画像処理装置、表示制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11366631B2 (en) | 2022-06-21 |
US20210157541A1 (en) | 2021-05-27 |
CN112166602B (zh) | 2023-12-05 |
CN112166602A (zh) | 2021-01-01 |
WO2019230852A1 (ja) | 2019-12-05 |
JPWO2019230852A1 (ja) | 2021-07-08 |
DE112019002798T5 (de) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
LaViola Jr et al. | 3D user interfaces: theory and practice | |
Cao et al. | An exploratory study of augmented reality presence for tutoring machine tasks | |
Sallnäs et al. | Supporting presence in collaborative environments by haptic force feedback | |
US11734906B2 (en) | Automatic transparency of VR avatars | |
JP7276334B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR101563312B1 (ko) | 시선 기반 교육 콘텐츠 실행 시스템 | |
Köpsel et al. | Effects of auditory, haptic and visual feedback on performing gestures by gaze or by hand | |
US11442685B2 (en) | Remote interaction via bi-directional mixed-reality telepresence | |
US20230152961A1 (en) | Method and System for Gesture and Displaying Sideline Operation | |
Camporesi et al. | The effects of avatars, stereo vision and display size on reaching and motion reproduction | |
Pusch et al. | Augmented reality for operator training on industrial workplaces–Comparing the Microsoft hololens vs. small and big screen tactile devices | |
Tran et al. | Wearable Augmented Reality: Research Trends and Future Directions from Three Major Venues | |
Semwal et al. | Virtual environments for visually impaired | |
Pedro et al. | Towards higher sense of presence: a 3D virtual environment adaptable to confusion and engagement | |
Takacs | How and Why Affordable Virtual Reality Shapes the Future of Education. | |
Chapoulie et al. | Evaluation of direct manipulation using finger tracking for complex tasks in an immersive cube | |
Scavarelli et al. | Exploring Selection and Search Usability Across Desktop, Tablet, and Head-Mounted Display WebXR Platforms | |
Vaidyanathan et al. | “Will Use It, Because I Want to Look Cool” A Comparative Study of Simple Computer Interactions Using Touchscreen and In-Air Hand Gestures | |
He | Enhancing Collaboration and Productivity for Virtual and Augmented Reality | |
US11983837B2 (en) | Cheating deterrence in VR education environments | |
Gerhard et al. | Virtual Reality Usability Design | |
Tesfazgi | Survey on behavioral observation methods in virtual environments | |
Neale et al. | RelicPad: A hands-on, mobile approach to collaborative exploration of virtual museum artifacts | |
ALEZ | Authoring Tools for Augmented Reality Scenario Based Training Experiences | |
Nishio et al. | Body Ownership Transfer by Social Interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230417 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7276334 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |