JP2017084100A - 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム - Google Patents

情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム Download PDF

Info

Publication number
JP2017084100A
JP2017084100A JP2015211896A JP2015211896A JP2017084100A JP 2017084100 A JP2017084100 A JP 2017084100A JP 2015211896 A JP2015211896 A JP 2015211896A JP 2015211896 A JP2015211896 A JP 2015211896A JP 2017084100 A JP2017084100 A JP 2017084100A
Authority
JP
Japan
Prior art keywords
information
sharing
shared area
user
information communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015211896A
Other languages
English (en)
Other versions
JP6632322B2 (ja
Inventor
基起 仲間
Motoki Nakama
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015211896A priority Critical patent/JP6632322B2/ja
Publication of JP2017084100A publication Critical patent/JP2017084100A/ja
Application granted granted Critical
Publication of JP6632322B2 publication Critical patent/JP6632322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】他端末との間で任意に情報共有を開始することができ、かつ、仮想オブジェクトの共有領域を任意の位置、サイズで表示できる情報通信端末を提供する。【解決手段】テーブル104をそれぞれ異なる方向から撮像している2つの情報通信端末100A,100Bは、撮像画像から他端末との協働により指定された位置での共有開始指示を表すイベントを検出すると、それぞれ検出時の撮像画像等を共有管理装置へ送信する。共有管理装置は、受信した撮像画像から、上記イベントが同時期に生じているときは共有開始可能と判定し、上記位置に共有領域105を設定する。このとき、共有領域105には、共有している情報通信端末100A,100Bのユーザを識別するためのタグ情報110A,110Bが重畳表示される。【選択図】図4

Description

本発明は、AR(Augmentated Reality:拡張現実感)やMR(Mixed Reality:複合現実感)などの技術を利用して複数のユーザ間で情報を共有する技術に関する。
近年、ARやMRなどの技術(以下、「AR等技術」という)が、カメラ搭載のスマートフォン、タブレット端末、メガネ型デバイス、HMD(Head Mounted Display)などで利用されている。スマートフォンやタブレット端末を利用したAR等技術の場合、全ての仮想オブジェクトは表示装置に表示される。そのため、表示された仮想オブジェクトをそのまま他のユーザに見せれば、プライベートな仮想オブジェクトであっても、ユーザ同士でそれを簡単に共有することができる。これに対し、例えばメガネ型デバイスやHMDでAR等技術を実現する場合、仮想オブジェクトは、それを装着しているユーザしか見ることができない。
このような問題を解決する従来技術として、特許文献1に情報共有システムが開示されている。この情報共有システムでは、複数のユーザがそれぞれカメラとディスプレイを有する端末装置を身に付け、ディスプレイを通じて見える実空間に仮想オブジェクトを重畳表示してAR空間を形成する。そして、このAR空間で各ユーザが保有する情報を共有するために、実空間に共有領域を設定する。
特開2012−168646号公報
特許文献1に開示された情報共有システムにおいて、共有領域の位置やサイズなどは、いずれかの端末装置あるいは情報処理装置側で定義される。そのため、情報を共有するユーザ間で、実空間の内容に応じて共有領域の位置やサイズなどを任意に変えたり、どの時点から情報共有を開始するかなどを自由に決めることができない。また、どのユーザが共有者でどのユーザが非共有者かの区別もつかないため、どの情報をどのユーザと共有してよいかの判断に迷う場合がある。
本発明の課題は、複数のユーザで情報を共有する際に、情報共有の開始時期や共有領域の位置などを自由に決めることができる情報通信端末およびその応用技術を提供することにある。
本発明が提供する情報通信端末は、実空間を撮像した撮像装置を取得する撮像手段と、ユーザ固有の仮想オブジェクトを取得するオブジェクト取得手段と、前記撮像画像から情報共有に関するイベントを検出するイベント検出手段と、前記実空間を異なる方向から撮像している他端末と同時期に前記イベントが検出され、かつ、該イベントが当該他端末との協働で指定された位置での共有開始指示を表す場合、当該他端末との間で前記仮想オブジェクトの共有を可能とする共有領域を当該撮像画像の前記位置に重畳表示する表示制御手段と、を備えることを特徴とする。
本発明によれば、情報通信端末間で情報の共有領域の位置を任意に指定したり、共有開始の時期を指示することができる。
(a)は情報処理システムの概要説明図、(b)は表示画面の例示図。 ARグラスのハードウェア構成図。 (a)はARグラスの機能構成図、(b)は計算資源の機能構成図。 (a)〜(c2)は、ユーザの指示内容と共有領域の形成過程の説明図。 共有領域を形成して情報共有を行う際の情報処理システムのシーケンス図。 (a1)〜(d)は表示画面の例と指先位置の算出方法の例を示した図。 イベント検出処理の手順を示したフローチャート。 共有開始判定処理の手順を示したフローチャート。 (a)〜(e)は他の実施形態による表示画面の例示図。
図面を参照して本発明の実施の形態例を説明する。以下の説明では、複数のユーザが、それぞれ撮像機能および通信機能を有するメガネ型の情報処理端末(「ARグラス」と表記する)を装着して、実空間上で仮想オブジェクトを共有する場合の例を示す。
「実空間」は現実世界の空間をいう。この実空間に存在する物体は「実物体」と呼ばれる。「仮想オブジェクト」は、実物体と対比される概念であり、例えばグラフィクス等で生成された情報などが該当する。ARグラスは、クラウドに代表されるネットワーク上に配置された共有管理装置を介して他のARグラスとリアルタイム通信が可能とされる。このような共有管理装置を「計算資源」(computational resource)と表記する。
各ARグラスは、表示装置の一例となるメガネ型ディスプレイと、ユーザの視線方向の実空間を撮像するステレオカメラとを搭載している。メガネ型ディスプレイはシースルー型の例を示すが、これに限らない。ステレオカメラは、RGBステレオ画像を撮像する。撮像された画像を撮像画像と呼ぶ。画像は、静止画、動画あるいはこれらの組み合わせである。RGBは、赤 (Red)、緑 (Green)、青 (Blue) の三つの原色を混ぜて幅広い色を再現する加法混合の一種である。
各ARグラスは、また、位置情報を取得するGPSセンサ、方位・姿勢を取得するジャイロセンサなどの各種センサを備えている。以後の説明では、複数のARグラス、あるいはこれらのARグラスとクラウド上の計算資源とが協働する態様を情報処理システムと表記する。
<第1実施形態>
図1(a)は、第1実施形態に係る情報処理システムの概要説明図である。本実施形態の情報処理システムは、複数のARグラス100と計算資源101とを高速の無線回線103で接続して構成される。図示の例では、それぞれ同じ構成のARグラス100を装着したユーザ102aとユーザ102bとがテーブル104を挟んで対座している。図1(b)は、一方のユーザ102aがARグラス100を通して見る表示画面106の例示図である。実物体であるテーブル104の面上には、共有領域105とユーザ固有の仮想オブジェクトとが重畳表示される。本実施形態では、仮想オブジェクトとして、プライベートコンテンツである写真Pa1、Pa2、Pa3、Pb1を想定する。共有領域105に存在する写真Pa3,Pb1は、ユーザ102a,102bの双方が見ることができる。他方、共有領域105の周辺領域に存在する写真Pa1,Pa2は共有されておらず、ユーザ102aには見えているが、ユーザ102bには見えていない。
ARグラス100の表示画面106は、ユーザの両目の視差を考慮して、左目用の画面、右目用の画面として生成された後、左右それぞれのディスプレイに出力される。そのため、ユーザ102aが表示画面106を通して実空間を眺めると、写真Pa1、Pa2、Pa3、Pb1がテーブル104上に実際に存在するかのようにリアルに重畳表示される。なお、壁面や天井面、空中、その他実物体の表面に、写真あるいは他の仮想オブジェクトを重畳表示することも可能である。写真Pa1、Pa2、Pa3、Pb1は、ユーザ102aが、自分の手、指先、スタイラスペン、差し棒のような指示入力体を用いて操作することができる。図1(b)の例では、指示入力体が指先である例が示されている。
ユーザ102aが装着しているARグラス100は、指先の状態(位置、形状、方向、数、動きなど)を検出し、検出結果と所定の基準情報とに基づいてユーザ102aの指示内容を判別する。つまり、何らかの状態をユーザ102aの指示に起因して生じるイベントとして検出する。イベントの検出は、ARグラス100を通して観測できる座標系(ax、ay、az)と実空間上の世界座標系(x、y、z)とを用いて行われる。各座標系は1対1で対応しており、ARグラス100が備えるGPSセンサ、ジャイロセンサ、ステレオ画像の画像処理(距離検出)などにより取得できる情報を利用して適切にキャリブレーションされている。
<ARグラスの構成>
上記のARグラス100の構成例を説明する。なお、以後の説明においてユーザ102aとユーザ102bとを区別する必要がない場合は、ユーザ102と表記する。図2はARグラス100のハードウェア構成図である。ARグラス100は、バス203に接続されたCPU200、RAM201、ROM202を主要部品として含むコンピュータを有している。CPU(Central Processing Unit)200は、バス203を介して接続される各デバイスを統括的に制御する。CPU200は、また、本発明のコンピュータプログラム(情報共有用プログラム)を実行することにより、情報共有に関する種々の機能を形成する。RAM(Random Access Memory)201は、CPU200の主メモリ、ワークエリア等の一時記憶領域として用いられる。ROM(Read Only Memory)202には、オペレーティングシステム(OS)、上記情報共有用プログラム、デバイスドライバ等が記憶されている。
ディスプレイI/F(I/Fはインタフェースの略、以下同じ)204は、撮像画像や仮想オブジェクトをメガネ型ディスプレイ205で表示可能な信号に変換する。入力I/F206は、ステレオカメラ207で撮像した撮像画像をARグラス100が処理可能な形式に変換する。なお、メガネ型ディスプレイ205はステレオカメラ207と一体になっているものであってもよい。入力I/F206は、また、GPS(Global Positioning System)センサ208で取得した位置情報、およびジャイロセンサ209で検出した角速度をARグラス100が処理可能な形式に変換する。なお、GPSセンサ208で時刻情報を取得する場合、入力I/F206は、その時刻情報をARグラス100が処理可能な形式に変換する。
ストレージI/F210は、ストレージ211へのデータの入出力を行う。ストレージ211には、仮想オブジェクトやUI(User Interface)部品画像、ARグラス100が内部で起動する要素プログラムなどが格納されている。ストレージ211は、ディスクデバイスやフラッシュメモリ、ネットワークドライブやUSBドライブなどの大容量記憶装置である。複数の記憶装置を並列に接続して構成されていてもよいし、計算資源101に含まれるストレージであっても構わない。
ネットワークI/F212は、計算資源101との間でリアルタイム通信を行う。本実施形態では、高速な無線通信ネットワークの利用を想定しているが、有線ネットワークを利用する形態であっても構わない。なお、図示を省略したが、計算資源101も、それぞれCPU、RAM、ROM、ストレージI/F、ストレージ、ネットワークI/Fを有する1または複数のコンピュータで構成されている。それぞれのハードウェアの機能はARグラス100のものと同様である。計算資源101のストレージには、AR仮想空間内で表示する公開オブジェクト、すなわち誰でも見ることができる仮想オブジェクトが格納されていてもよい。この場合、ARグラス100は、それら公開オブジェクトをネットワークI/F212を介して取得することが可能である。以下の説明では、他図を用いて同じものを説明する場合には同一の符号を付し、その説明を省略する。
図3(a)は、ARグラス100のCPU200が情報共有用プログラムを実行することによりARグラス100に形成される機能ブロックの構成図である。ARグラス100は、通信部(入出力部)300、位置情報取得部301、姿勢取得部302、記憶部303の機能ブロックを有している。ARグラス100は、また、撮像部304、領域検出部305、形状検出部306、距離算出部307、指先位置決定部308の機能を有している。ARグラス100は、さらに、イベント検出部309、表示制御部310、表示部311の機能を有している。
図3(b)は計算資源101のCPUが共有管理用プログラムを実行することによりARグラス100に形成される主要な機能ブロックの構成図である。計算資源101は、通信部(入出力部)400、記憶部403、解析部412、イベント判定部413、共有領域設定部414の機能を有している。これらの機能は、計算資源101のCPUがコンピュータプログラム(共有管理用プログラム)を実行することで形成される。
まず、ARグラス100の機能ブロックについて説明する。通信部300は、ストレージI/F210を介して、記憶部303とのデータの入出力を制御する。例えば、記憶部303からユーザ固有の仮想オブジェクトを取得する。通信部300は、また、ネットワークI/F212を介して、他端末との間のデータ通信および計算資源101との間のデータ通信を行う。位置情報取得部301は、ARグラス100の実空間の位置情報をGPSセンサ208により取得し、取得した位置情報をRAM201に保存する。本実施形態では、スマートフォンやタブレット端末に搭載されているGPSセンサと同等のものを想定する。但し、GPSデータを受信できないような屋内のユースケースでは、WiFi、Bluetoohあるいは音波を用いた屋内位置測位技術で代用することも可能である。
姿勢取得部302は、ジャイロセンサ209で検出される角速度からARグラス100の方位・姿勢を表す姿勢情報を算出し、それをRAM201に保存する。ARグラス100の姿勢情報は、すなわち実空間におけるユーザ102の向きや姿勢を表す。記憶部303は、ストレージ211およびそのインタフェースにより実現される。前述した通り、記憶部303には仮想オブジェクトとなるプライベートな写真やUI部品画像、プログラムなどが格納されている。ユーザ102が過去に行った場所の情報や行動履歴、操作履歴などを格納しておき、その情報を仮想オブジェクトとして利用することも可能である。
撮像部304は、ステレオカメラ207で撮像されるRGBステレオ画像を所定時間毎に取得し、RAM201に保存する。RGBステレオ画像は、2つの視点から撮像された2種類のRGB画像の集合により実現される。2つの画像間にはズレ(視差)があり、それぞれ右目と左目に対応付けられている。保存されたRGBステレオ画像は、ARグラス100の各機能ブロックにおいて順次処理される。撮像部304がRGBステレオ画像を撮像する周期は、ステレオカメラ207が撮像する画像のフレームレートと一致する。但し、フレームレートによらない所定の時間を撮像の周期として設定することもできる。なお、本実施形態では、例えば左目に対応付けられた画像をマスター画像、右目に対応づけられた画像をスレーブ画像として処理するが、このような処理の形態に限定されるものではない。
領域検出部305は、RAM201に保存されているRGBステレオ画像の肌色情報を利用することによって、画像内の肌色領域(ユーザ102の手や指など)とそれ以外の領域とを検出する。領域検出部305は、また、検出した肌色領域をラベリングし、RAM201に保存する。形状検出部306は、RAM201に保存されている肌色領域の情報を利用して指差し形状領域を検出する。その詳細は後述する。形状検出部306は、また、検出した指差し形状領域をラベリングし、RAM201に保存する。
距離算出部307は、RAM201に保存されている指差し形状領域の情報を利用して、ARグラス100から指差し形状領域の各画素までの距離を算出する。この距離は、画像の深さを表すものとなる。具体的な計算方法は後述するが、RGBステレオ画像を形成する2つの画像(マスター画像とスレーブ画像)から対応点を探索し、その視差から三角測量を用いて距離を算出する。対応点とは、空間中のある一点を二つの視点で同時に撮影したとき、それぞれの視点で撮影した画像中に映った当該点をいう。これは一般的に「ステレオ対応点」と呼ばれ、ステレオカメラ207は、このステレオ対応点を利用したカメラである。距離算出部307は、算出した各画素の距離情報をRAM201に保存する。なお、ステレオカメラ207を用いるのは距離計測の一手段にすぎない。また、必ずしもカラー画像である必要はなく、赤外ステレオカメラを用いてステレオ画像を取得してもよい。また、ステレオカメラ207ではなく、公知の距離画像センサを用いて距離情報を取得しても構わない。
指先位置決定部308は、RAM201に保存されているラベリングされた指差し形状領域と距離情報とからユーザ102の指先位置を決定し、その結果をRAM201に保存する。イベント検出部309は、RAM201に保存されている指先位置の状態に基づいて、撮像画像から情報共有に関する様々なイベントを検出する。情報共有に関するイベントの例として、本実施形態では、主として、共有開始指示を表すイベントを検出する場合の例について説明する。
表示制御部310は、実空間を撮像した撮像画像およびユーザ固有の仮想オブジェクトの表示部311での表示態様を様々に制御する。例えば、実空間を異なる方向から撮像している他端末(他のARグラス100)と同時期にイベントが検出されたとする。該イベントが当該他端末との協働で指定された位置での共有開始指示を表す場合、当該他端末との間で仮想オブジェクトの共有を可能とする共有領域を当該撮像画像の上記位置に重畳表示する。例えば、撮像画像に映った実物体と表示する仮想オブジェクトとの位置合せを行い、両者を重畳表示する。表示制御部310は、また、ユーザ102の視差を考慮して左目用、右目用のUI画像をそれぞれ生成し、表示部311に出力する。表示部311は、左目用、右目用のメガネ型ディスプレイ205に左目用画面、右目用画面をそれぞれ表示する。なお、メガネ型ディスプレイ205は、光学シースルー方式のディスプレイ、ビデオシースルー方式のディスプレイのいずれの方式であっても構わない。
次に、計算資源101の主要な機能ブロックについて説明する。通信部400は、同一の実空間をそれぞれ異なる方向から撮像している複数のARグラス100から撮像画像、撮像時刻、撮像位置、撮像時の姿勢情報を含む情報を受信する。このような情報をイベント情報と呼ぶ場合がある。つまり、通信部400は、イベント情報を受信する受信手段として機能する。通信部400は、また、ストレージI/Fを介して、記憶部403とのデータの入出力を制御する。
解析部412は、受信した各撮像画像を解析することにより、例えば、他端末との協働で指定された位置での共有開始指示を表すイベントを検出する。イベント判定部413は、各ARグラス100で検出されたイベントが同時期に生じている2つ以上のARグラス100を共有開始可能な端末と判定する。共有開始可能であれば、共有開始OKを判定結果として出力する。他方、共有開始不能であれば、共有開始NGを判定結果として出力する。各判定結果は、通信部400を介して各ARグラス100に送信する。本実施形態では、この解析部412とイベント判定部413により、共有開始指示に対する判定手段として機能する。
共有領域設定部414は、共有開始可能とされた全てのARグラス100の姿勢情報を基に、各ARグラス100の撮像画像において指定された上記位置において各ユーザ固有の情報(例えば仮想オブジェクト)の共有を可能にする共有領域を設定する。そして、設定された共有領域の位置、形状およびサイズを含む共有領域情報を共有開始可能と判定した全てのARグラス100宛に出力する。共有領域情報および/または判定結果は、通信部400を介して、イベント情報を送信してきた全てのARグラス100に送信される。つまり、通信部400は、送信手段としても機能する。
なお、共有領域設定部414は、共有領域105を表示する全てのARグラス100またはそのユーザを識別するためのタグ情報を取得し、取得したこれらのタグ情報が共有領域105またはその周辺領域に表示されるように共有領域を設定する。この場合、共有領域設定部414は、共有領域情報と共にタグ情報を出力し、通信部400は、これらの情報を全てのARグラス100に送信する。
<動作例>
次に、情報処理システムの動作例を図4および図5を参照して具体的に説明する。図4(a)は、ARグラス100Aを装着したユーザ102aと、ARグラス100Bを装着したユーザ102bがテーブル104を囲み、協調しながら情報共有を開始しようとする場面を示す。図5は、このときの処理の一例を示すシーケンス図である。
本実施形態では、ARグラス100Aの撮像範囲107aとARグラス100Bの撮像範囲107bとが共通する範囲のうち、ユーザ102aとユーザ102bとが任意に定めた位置に共有領域を形成する。そのために、ユーザ102aとユーザ102bとで協調して多角形領域の作成を指示し、この多角形領域を共有領域とする。つまり、各ユーザ102a,102bは、自分と相手の指先を同時に見ながら共有開始指示を表すイベントを発生させるものとする。2台のARグラス100A,100Bは、それぞれ電源ONを契機に起動し、イベント検出処理を実行する(図5:S100)。イベント検出処理については後述する(図7)。以後の説明では、ARグラス100A、100Bにおいて同時期(ほぼ同じ時刻)にイベント検出処理が開始されたものとする。
図4(b1)は、ARグラス100Aを装着したユーザ102aが見ることができる表示画面106Aの一例を示している。同様に、図4(b2)は、ARグラス100Bを装着したユーザ102bが見ることができる表示画面106Bの一例を示している。ユーザ102aは、左右の指先108a,108bで位置を指定する。同様に、ユーザ102bも、左右の指先108c,108dで位置を指定する。これにより、撮像画像から、実空間において共有領域の表示位置を定める状態を検出することができる。つまり、共有領域となる多角形領域109の位置が他端末との協働で指定されたことがイベントとして検出される。
本実施形態では、図4(b1),(b2)の表示画面106A,106Bにおいて、表示制御部310が、指先108a〜108dで指定された多角形領域109A,109Bの位置をユーザ102a、102bが直感的に把握できるように強調表示する。図5のシーケンス図には示されていないが、共有開始前に、ARグラス100Aの表示画面106Aにすでにユーザ102a固有の写真Pa1がテーブル104に重畳表示されているものとする。また、ユーザ102bが装着しているARグラス100Bの表示画面106Bにすでにユーザ102b固有の写真Pb1がテーブル104に重畳表示されているものとする。
仮想オブジェクトである写真Pa1,Pb1の撮像画像との位置合わせは、撮像部304が撮像したステレオ画像を基にテーブル104の3次元形状を推論エンジンで推定した上で行われる。すなわち、推論エンジンが、テーブル104の画像をもとに当該テーブル104の3次元形状を推定する。その後、推定されたテーブル104の3次元形状と表示する仮想オブジェクトの位置合わせを行う。これにより、あたかもテーブル104の面上に写真Pa1,Pb1が存在するかのように重畳表示される。
図5を参照し、ARグラス100においてイベントが検出されると、各ARグラス100は、イベント情報をクラウド上の計算資源101へ送信する(S101)。イベント情報の生成方法については、後述する(図7)。イベント情報を受信した計算資源101は、共有判定処理を実行する(S102)。共有判定処理については、後述する(図8)。図5では、計算資源101において共有を開始してもよいという判定(共有判定OK)がなされたものとして説明を続ける。共有判定がOKとの判定後、計算資源101は、共有判定がなされたARグラス100AとARグラス100Bに対し、それぞれ共有判定の結果情報、共有相手先の情報、共有領域の属性情報を送信する(S103)。属性情報は、位置、形状、サイズ、色などの情報である。計算資源101から共有判定の結果情報等を受信したARグラス100は、それぞれ受信した情報に基づいて、情報共有のための接続を確立する(S104)。また、ARグラス100は、計算資源101から受信した共有領域情報を基に各ARグラス100の表示画面106に共有領域105を表示させる(S105)。
図4(c1)は、ARグラス100Aで共有領域105を表示した際に、ユーザ102aが見ることができる表示画面106Aを示している。同様に、図4(c2)は、ARグラス100Bにおいて共有領域105を表示した際に、ユーザ102bが見ることができる表示画面106Bを示している。図4(c1),(c2)に示されるように、共有領域105は、実物体であるテーブル104の面上に重畳表示される。共有領域105の重畳表示方法は、前述した実物体への仮想オブジェクトの重畳表示方法と同じである。
本実施形態では、共有領域105を表示する際に、当該共有領域105を共有するARグラス100または当該ARグラス100を装着したユーザを識別するための識別情報を取得する。他ユーザまたは他端末を識別するための識別情報を第1タグ情報と呼ぶ。また、自己または自端末を識別するための識別情報を第2タグ情報と呼ぶ。また、これらを含む全体をタグ情報と呼ぶ。表示制御部310は、タグ情報を共有領域105またはその周辺領域に表示させる。図4(c1),(c2)には、共有領域105に、タグ情報110A,110Bが表示されている。図4(c1)の例では、第2タグ情報が「A」で、第1タグ情報が「B」なので、共有領域105に「ShareA+B」のタグ情報110Aが表示される。同様に、図4(c2)の例では、共有領域105に「ShareB+A」のタグ情報110Bが表示される。これらのタグ情報110A、110Bにより、ユーザ102は、自分が誰と情報を共有しているかを直観的に把握できるようになる。なお、タグ情報110A,110Bは、情報共有を行っている間、ずっと表示していてもよいし、共有開始後、一定時間表示したのちに非表示にしてもよい。
図5に戻り、共有開始指示の検出後、ARグラス100は、ユーザ102の指示操作、すなわちイベントの検出を継続し、検出したときは、その都度、計算資源101に通知する。計算資源101は、各ユーザ102による指示内容を判別したときは、判別した指示内容に基づく情報表示を行う。例えば、図6(a1)で示されるように、ユーザ102aが写真Pa1を指先108で操作して、その写真Pa1を共有領域105に挿入したことを検知したとする(S106)。この場合、ARグラス100Aは、ユーザ102aが操作した写真Pa1が共有領域105に入ったというイベントを検出する。そして、ARグラス100Aは、共有領域105に配置した写真Pa1のデータとその位置情報(仮想オブジェクトに関わる情報)を他端末宛、すなわちARグラス100Bに送信する(S107)。このデータと情報とを受信したARグラス100Bは、受信した写真Pa1のデータと位置情報とに基づき、ARグラス100Bの表示画面106Bの共有領域105に、写真Pa1を表示させる(S108)。その結果、写真Pa1は、ユーザ102a,102bの間で共有される。すなわち、ユーザ102aが装着しているARグラス100Aには、共有領域105に加え、共有した写真Pa1が重畳表示される。一方、ユーザ102bが装着しているARグラス100Bには、共有領域105に加え、ユーザ102aによって共有された写真Pa1とユーザ102bのプライベートな写真Pb1が重畳表示されている。但し、写真Pb1は、共有領域105に含まれていない。そのため、ユーザ102aはそれを見ることができない。
なお、ユーザ102aが共有領域105で写真Pa1をさらに別の位置に移動したとする(S109)。この場合、ARグラス100Aは、写真Pa1の移動情報をARグラス100Bに送信する(S110)。ARグラス100Bは、受信した移動情報を基に写真Pa1の共有領域105の表示位置を更新する(S111)。S109〜S111の処理は繰り返し行われる。
写真Pa1に対するユーザ102aの操作内容を検出したときのARグラス100Aの処理は以下のようになる。まず、ARグラス100Aの撮像部304で撮像した撮像画像から、領域検出部305、形状検出部306、距離算出部307、指先位置決定部308が協働して指先108を検出する。その後、イベント検出部309で、指先108と写真Pa1との接触の有無を判定する。接触していると判定された場合は、指先108により写真Pa1が操作されたことを検出する。
<イベント検出処理>
ここで、ARグラス100によるイベント検出部309の処理手順例を図7により詳しく説明する。ARグラス100は、まず、撮像部304から既定のフレームレートでRGBステレオ画像(撮像画像)を取得し、RAM201に保存する(S200)。このとき、位置情報取得部301が、撮像画像の付加情報として、ユーザ102が存在する実空間上の位置情報をGPSセンサ208から取得し、RAM201に保存する。また、姿勢取得部302が、撮像画像の付加情報として、ARグラス100の向いている方向および姿勢を、ジャイロセンサ209で検出される角速度に基づいて算出し、RAM201に保存する。その後、領域検出部305が、RAM201に保存されている撮像画像を解析し、マスター画像およびスレーブ画像中に肌色領域があるかどうかを判定する(S201)。肌色領域を検出できなかった場合(S201:N)はS200へ戻る。肌色領域が検出された場合(S201:Y)、領域検出部305は、検出した肌色領域をラベリングし、その結果をRAM201に保存する。
形状検出部306は、RAM201に保存されている肌色領域のラベル画像を利用して指差し形状を検出する(S202)。検出された指差し形状の例を図6(b)に示す。本例では指差し形状を検出するために、図6(b),(c)に示される肌色領域を囲んだ凸領域600a、600bを利用する。例えば、図6(b),(c)をそれぞれ識別するために、凸領域600a、600b全体に占める肌色領域の割合を算出し、両者を比較する。本例の場合、図6(c)の凸領域600bに対して、図6(b)の凸領域600aの肌色領域の割合は小さい。手のサイズは共通なので、肌色領域の割合が相対的に小さい図6(b)の凸領域600aは指差し形状と判別することができる。但し、指差し形状の検出は、図6(b),(c)の例に限定されない。例えば、検出したい指差し形状の画像を予めテンプレートとして用意し、撮像したステレオ画像とマッチングして指差し形状を検出してもよい。もしくは、肌色領域の形状から既定の特徴量を抽出し、機械学習することによって指差し形状を検出することも可能である。本実施形態では、指差し形状かそれ以外かを判定し、検出できれば十分である。このとき、形状検出部306は、検出した指差し形状の領域をラベリングし、その結果をRAM201に保存する。
形状検出部306は、その後、指差し形状が3つ以上存在するか否かを判定する(S203)。指差し形状が3つ以上存在しない場合(S203:N)、S200に戻る。3つ以上存在する場合(S203:Y)、指差し形状の先端部、すなわち指先位置のz軸方向の距離を算出する(S204)。具体的には、距離算出部307が、RAM201に保存されているRGBステレオ画像を解析し、マスター画像中の指差し形状領域の各画素に対する距離を算出する。例えば、マスター画像中の指差し形状領域の画素(m、n)の距離を算出する場合、距離算出部307は、まず(m、n)に対応するステレオ対応点(m1、n1)をスレーブ画像から探索する。そしてマスター画像中の画素(m、n)とスレーブ画像中のステレオ対応点(m1、n1)との視差から三角測量によって、画素(m、n)の距離(深さ)を求める。距離算出部307は、マスター画像中の全ての指差し形状領域の画素に対し、上記距離算出を行い、その結果をRAM201に保存する。
その後、指先位置決定部308は、RAM201に保存されている指先形状領域の輪郭とその距離情報から指先位置を決定し、その結果をRAM201に保存する。ここでは、ARグラス100を装着しているユーザ本人の指先位置と、それ以外のユーザの指先位置とを区別して決定する。この指先位置の決定方法について、図6(d)を参照して詳しく説明する。まず、輪郭上の等間隔の三点a、b、cがなす角度θが閾値内である指先らしき点を複数個求め、指先らしき点が連続する部分を検出する。さらに、その連続する複数の指先らしき点の平均位置を指先位置の候補としてRAM201に保存する。さらに、距離情報を利用して最終的な指先108を決定し、RAM201に保存する。具体的には、ARグラス100を装着しているユーザ側に領域が存在し、かつ距離が20〜70cmの範囲にあり、かつその中でARグラス100から最も遠い位置に存在する指先の候補を最終的な指先位置として決定する。図6(d)の例では、図示した指先108の位置が最終的な指先位置である。図4(b1)の例では、指先108a、108bがARグラス100を装着しているユーザ本人の指先位置である。
なお、指先位置を「距離が20cmから70cmの範囲にある指先位置」としたのは、人の手が届く範囲を考慮した結果である。距離の下限を20cm以上としたのは、あまりにもユーザの手や指先がARグラスの撮像部304に近すぎると、撮像されるステレオ画像は肌色領域ばかりとなってしまい、形状認識が難しくなってしまうからである。このような課題が問題とならない場合、もしくは解決可能な場合は、指先位置の範囲を「20cmから70cm」以外に設定しても構わない。
次に、ARグラス100を装着しているユーザ以外の指先位置の決定方法について説明する。形状検出部306で検出した指差し形状領域の輪郭を用いて、領域毎に指先位置の候補を求めるところまでは、ARグラス100を装着しているユーザの指先位置の決定方法と同じである。違いは、指差し形状の方向と距離の閾値である。具体的には、ARグラス100を装着しているユーザ側に指差し形状を表す領域が存在せず、かつ距離が70cmより大きいとする。その中で、ARグラス100から最も近い位置に存在する指先の候補があれば、それをARグラス100を装着しているユーザ以外の指先位置とする。図4(b1)の例では、指先108c、108dの位置がARグラス100を装着しているユーザ以外の指先位置となる。
図7に戻り、ARグラス100は、S205で決定した3個以上の指先位置から、少なくとも1つがARグラス100を装着しているユーザの指先か否かを判定する(S206)。指先が1つも存在しない場合(S206:N)、S200に戻る。指先が1つ以上存在する場合(S206:Y)、ARグラス100は、S205で決定した3個以上の指先位置のうち、少なくとも1つがARグラス100を装着しているユーザ以外の指先か否かを判定する(S207)。ユーザ以外の指先が1つも存在しない場合(S207:N)、S200に戻る。ユーザ以外の指先が1つ以上存在する場合(S207:Y)、イベント検出部309が共有開始指示を検出する(S208)。そして、通信部300が、撮像部304で撮像した画像に加えて、共有開始指示を検出した際の撮像時刻、撮像位置、姿勢情報をクラウド上の計算資源101に送信する(S209)。
上記の一連の処理を終えると、ARグラス100は、動作を終了させるか否かを判定する(S210)。本実施形態では、物理ボタンやGUIに対する入力操作により終了指示がなされた場合に、ARグラス100の動作を終了させる。動作を終了させない場合(S210:N)はS200に戻り、上記処理を繰り返す。一方、動作を終了すると判定した場合(S210:Y)、ARグラス100は、イベントの検出処理を含めた全ての処理を終了する。
<共有開始判定処理>
次に、図8を参照して、クラウド上の計算資源101が実行する共有開始判定処理について説明する。この処理は、情報処理システムが稼働している間、イベント判定部413が常時実行する。すなわち、計算資源101がARグラス100から共有開始指示の情報を受信するまで待つ(S300:N)。共有開始指示の情報は、例えば、撮像画像、撮像位置、撮像時刻、姿勢情報などのイベント情報である。イベント情報を受信した場合(S300:Y)、イベント判定部413は、複数のARグラス100において同時期(ほぼ同時刻)の共有開始指示のイベントが存在するか否かを判断する(S301)。存在しない場合(S301:N)、イベント判定部413は、共有開始判定NGと判定する(S307)。そして、通信部400を通じて情報を送信してきたARグラス100に判定結果を送信する。
S301において、同時期の共有開始指示のイベントが存在する場合(S301:Y)、イベント判定部413は、ほぼ同位置でのイベントか否かを判定する(S302)。そうでない場合(S302:N)、上記S307に処理が移行する。ほぼ同位置であった場合(S302:Y)、解析部412と協働で、各ARグラス100から送信されてきた画像とその画像を撮像した際の姿勢情報とを利用して対応関係にある指先を検出する。そしてその結果をRAM201に保存する(S303)。図4(b1),(b2)の例では、ARグラス100Aによって撮像された画像に含まれる指先108a,108bと、ARグラス100Bによって撮像された画像に含まれる指先108c,108dとを対応付ける処理を行う。なお、S303において、解析部412は、さらに、対応付けした指先によって形成される領域の形状の類似度、すなわちどれだけ形状が一致しているかを判定してもよい。図4(b1),(b2)の例では、ARグラス100Aによって撮像された画像に含まれる多角形領域109aとARグラス100Bによって撮像された画像に含まれる多角形領域109bとの類似度を数値化し、共有開始判定に利用してもよい。
その後、イベント判定部413は、対応関係にある指先が存在するか否かを判定する(S304)。対応関係にある指先が存在しない場合(S304:N)、上記S307に処理が移行する。対応関係にある指先が存在する場合(S304:Y)、共有領域設定部414は、対応付けした指先によって特定される領域を、図4(b1),(b2)に示される共有領域105として設定する(S305)。共有領域105が設定されると、イベント判定部413は、共有開始OKと判定し(S306)、情報を送信してきたARグラス100に、それぞれ判定結果と共有領域の属性情報を送信する。
上記一連の処理を終えると、計算資源101は、情報処理システムを終了するか否かを判定する(S308)。本実施形態では、計算資源101を含めた情報処理システム全体の動作を終了することはほぼないが、仮にサービスを終了するために計算資源101を終了する場合は、情報処理システムの動作を終了すると判定する。情報処理システムの動作が終了しない場合(S308:N)、S300へ戻り、上記一連の処理を繰り返す。一方、情報処理システムを終了すると判定した場合(S300:Y)、情報処理システムは全ての処理を終了する。
以上説明したように、本実施形態では、ARグラス100を装着したユーザ102がそれぞれ指先で多角形領域を指定することで情報処理システムにおいて当該指定した位置での共有開始指示のイベントを検出させ、これにより共有領域105を設定させる。共有開始は、情報共有を行うユーザ102同士が協調して行うため、どのユーザと情報共有を開始するのかを直観的に把握できる。また、情報共有を行うユーザ102が装着する全てのARグラス100の画像において共有開始指示を表す状態が存在している必要があるため、意図しないユーザとの間で共有が開始される可能性が低い。そのため、結果的にセキュリティが高くなる。
また、指先で指定した多角形領域が共有領域105として設定されるため、ユーザ102は任意の大きさ、形状の共有領域を自由に設定できる。その結果、例えばテーブル104の面上に実物体がある場合でも、実物体が邪魔にならないように共有領域105を設定できたり、また逆に実物体を参照しながら情報共有を行いたい場合でも、実物体近傍に共有領域105を設定したりすることが可能となる。
なお、本実施形態では明記していないが、情報共有を開始しようとしているARグラス100の数、それによるユーザ102の人数から推測される当該ユーザが操作する指示入力体の最大数が所定範囲を超えた状態を共有開始OKのイベントに含めてもよい。あるいは、撮像画像に映った指示入力体の数と推定した数との差が所定範囲を超える場合に共有開始不能と判定するようにしてもよい。同様に、撮像画像と姿勢情報に基づいて指示入力体の侵入位置を検出し、検出した侵入位置が既定の範囲外である場合は、指示入力体の数に関わらず、共有開始不能と判定するようにしてもよい。これらの共有開始不能と判定する条件を含めることによって、よりセキュアな情報共有が可能となる。
また、本実施形態では説明を省略したが、例えば、イベント検出部309で検出されたイベントが、既存の共有領域105の消去指示を表すときに、当該共有領域105の一部または全領域を消去する制御を行うことも可能である。消去指示は、例えば、ユーザが左右の指をクロスするなどにより表すことができる。この場合、共有領域の一部領域をその後に指示することで、当該領域だけを消去するものであってもよい。あるいは、それまで共有を行っていたいずれかのユーザが、撮像画像に一定時間以上映らなくなった状態、もしくは無操作状態(共有領域を見ない状態)が一定時間継続された時点で消滅するようにしてもよい。
また、操作ミスによって誤ってプライベートな情報が共有されてしまうことを防ぐ機能を追加することは容易に考えられる。例えば、共有領域105が設定されたタイミングで、共有領域105の表示前にその位置に元々存在していたプライベートな仮想オブジェクトを共有領域外に出す処理を追加しても構わない。また、共有領域105へのプライベートな仮想オブジェクトの移動状況が所定条件を満たさない場合は、当該移動を無効にするように制御してもよい。例えば、移動はドラッグ&ドロップで行うことを条件とし、それ以外の操作、例えばフリック操作など投げ込むような操作を行った場合は跳ね返るといった制御を行うようにしてもよい。
<第2実施形態>
次に、本発明の第2実施形態について説明する。第1実施形態で説明した内容と共通するものについては同符号を付し、適宜説明を省略する。ARグラス100のハードウェア構成、および機能ブロックの構成は第1の実施形態と同じである。第2実施形態では、共有領域105に新規メンバーを追加する場面について説明する。すなわち、図4(c1),(c2)に示されるように2人のユーザ102が既に共有を開始し、共有領域105が設定されている状態から説明を始める。
3人目のユーザが、既に共有を開始している2人のユーザに対して一定距離以内近づいたとする。すると、計算資源101は、既に共有している2人のユーザの共有領域105の領域情報を、3人目のユーザが装着しているARグラス100へ送信する。その結果、3人目のユーザが装着しているARグラス100には、既存の共有領域105の外形が表示される。このとき、3人目のユーザは共有領域105にまだ参加していない。そのため、3人目のユーザが装着しているARグラス100には、2人のユーザ102が既に共有している写真(仮想オブジェクト)は表示されない。3人目のユーザは、その外形から、既存の共有領域105の存在だけを認識することができる。
3人目のユーザが既存の共有領域105に新規メンバーとして参加したい場合、そのユーザは、実空間において共有参加指示を表すイベントを発生させる。例えば、手または指先を既存の共有領域105に重ね合わせる操作指示を行う。3人目のユーザを含めた全てのユーザの装着するARグラス100は、それぞれ共有参加指示のイベントを同時期に検出する。そのため、各ARグラス100は、第1実施形態と同様、撮像画像、当該イベントの検出時の撮像時刻、撮像位置、姿勢情報のほか、共有参加指示に関する情報を計算資源101に送信する。このとき、既存の共有領域105を共有しているユーザが装着しているARグラス100の全てで共有参加指示を受け入れるイベントが検出されたとする。すると、当該イベントが検出されたときの撮像画像、当該イベントを検出した際の撮像時刻、撮像位置、姿勢情報なども計算資源101に送信される。計算資源101は、送信されてきたこれらの情報をS102の共有判定処理で処理する。共有判定処理の処理は、第1実施形態において説明した内容と同様である。共有判定処理の結果がOKであれば、3人目のユーザも既存の共有領域105を共有できるものとなる。
このように、第2実施形態では、3人目のユーザには既存の共有領域105の外形のみが提示されるが、共有参加指示のイベントが検出され、共有判定処理の判定結果がOKになると、そのユーザは共有領域105を利用できる新規メンバーとなる。なお、新規メンバーを追加する態様はこの限りではない。3人目のユーザを含めた全員で共有開始指示のイベントを発生させ、共有領域105を再設定した上で、3人目のユーザを新規メンバーとして追加しても構わない。
<第3実施形態>
次に、本発明の第3実施形態について説明する。第1の実施形態で説明した内容と共通するものについては同符号を付し、適宜説明を省略する。また、ARグラス100のハードウェア構成、および機能構成は、第1の実施形態と同じである。第2実施形態では、予めプライベートな仮想オブジェクト(写真Pa1等)が表示されている場合の例であるが、第3実施形態では、予め表示されている仮想オブジェクトが存在しない場合の例を説明する。第3実施形態では、共有領域105の設定後、ARグラス100のストレージ211から仮想オブジェクトの他の例となるプライベートコンテンツを適宜読み出して表示するものとする。
第3実施形態では、図5のS105において共有領域105を表示する際に、共有領域105の近傍で、かつユーザ102の手の届く範囲に、ストレージ211に記憶されているプライベートコンテンツにアクセスする。そして、いずれかのプライベートコンテンツを選択的に取得するためのハンドル画像を表示する。ハンドルは、例えば、フォルダやリスト等である。このようなハンドル画像の一例を図9(a)に示す。ハンドル画像は、図示の例ではスクロールハンドル900であり、プライベートコンテンツが左右に並んで表示されている。ユーザ102aが指先で左右にフリック操作すると、スクロールハンドル900内部に表示される仮想オブジェクトは、フリックした方向にスクロールする。
このように、共有領域105の近傍で、かつユーザ102aの手の届く範囲に、プライベートコンテンツにアクセスするためのスクロールハンドル900を表示する。これにより、ユーザ102aは、プライベートコンテンツへ簡単にアクセスしつつ、情報共有を行うことが可能となる。なお、図9(a)は、ユーザ102aからみたスクロールハンドル900の例であるが、ユーザ102b側でも同様の処理が可能である。
<第4実施形態>
次に、本発明の第4実施形態について説明する。第1実施形態で説明した内容と共通するものについては同符号を付し、適宜説明を省略する。ARグラス100のハードウェア構成、および機能構成は第1実施形態と同じである。第4実施形態では、イベントとしてARグラス100を装着したユーザ102が、握手、もしくは手を重ね合わせる動作を協調して行う例を説明する。なお、第1ないし第3実施形態と異なり、第4実施形態では、実空間上に立体的な共有領域を設定する。
第4実施形態のARグラス100は、図5のS100において、握手もしくは手を重ね合わせる協調動作をイベントとして検出する。具体的には、撮像部304で撮像したステレオ画像から、領域検出部305によって肌色領域を検出し、さらに形状検出部306において、手形状を検出する。そして、検出した手形状を、図9(b)で示すように、ARグラス100を装着したユーザ本人の手領域902とそれ以外の手領域901とに分類する。そして各領域が次第に近づいて接触し、最終的に一つの肌色領域903になることをイベントとして検出する。一つの肌色領域903になってから一定時間経過すると、ARグラス100のイベント検出部309は、イベントを検出したと判定する。そして通信部300が、第1実施形態と同様にイベントの情報を計算資源101に送信する。計算資源101の共有領域設定部414は、図9(c)で示すような、球状の共有領域105を設定し、その結果をARグラス100に返信する。図9(c)の場合は、握手した手の周辺に、システム規定の半径で球体状の共有領域を設定している例を示している。このように、第4実施形態で示した方法を用いると、実空間上の任意の位置に立体的な共有領域を作成することが可能となる。
<第5実施形態>
次に、本発明の第5実施形態について説明する。第1実施形態で説明した内容と共通するものについては同符号を付し、適宜説明を省略する。ARグラス100のハードウェア構成、および機能構成は第1実施形態と同じである。第5実施形態では、個々のユーザ、もしくは個々のARグラス100に紐付いている実物体をイベントに利用する例を説明する。
図9(d)には、実物体の例として2つのIDカード904,905が示されている。これらのIDカード904,905には、ARグラス100を装着したユーザ102a、102bにそれぞれ紐付いている。IDカード904、905には、ARマーカが印字されており、ARグラス100を通してIDカードを見ると、どのユーザのIDカードなのかを判定することができる。図9(d)で示すように、撮像部304において、テーブル104の面上に複数配置されたIDカード904,905が撮像されると、イベント検出部309は、イベントを検出したと判定する。その結果、通信部300は、第1実施形態と同様にイベントに関する情報を計算資源101に送信する。
計算資源101は、共有領域設定部414が、図9(e)で示すような、共有領域105を設定し、その結果をARグラス100に返信する。図9(e)の場合は、IDカード904と905を含み、かつIDカード904と905が共有領域の対角線上の端点となるように共有領域が設定されている。但し、共有領域の設定法はこの限りではない。例えば、IDカード904と905を結ぶ直線の中間位置にシステム規定の形状、大きさの共有領域を設定しても構わない。
なお、複数の実物体の代わりに、1つの実物体に紐付けされた仮想オブジェクトを利用することも可能である。例えば、複数のARグラス100を装着したユーザ102がテーブル104に紐付けされた仮想的なボタンをARグラス100の表示部311に表示した状態で、その仮想的なボタンを同時に押下してもよい。この場合は、「仮想ボタンを複数のユーザが押下する」というイベントをARグラス100で検出していることになる。
このように、第5実施形態では、個々のユーザ、もしくは個々のARグラス100に紐付いている実物体を利用することにより、ユーザの手や指先を利用した場合と同様に、セキュリティを考慮した情報共有を簡単に開始することができる。
<他の実施形態>
以上、第1〜第5実施形態を詳述したが、本発明は、計算資源101の機能をARグラス100に持たせることで、ARグラス100同士で共有開始時期を自由に決めたり、任意の位置に共有空間105を設定することも可能である。
また、CPU200を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、各実施形態において示した機能を演算部や回路で構成すれば良い。
本発明はまた、コンピュータプログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。また、各実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(又は記憶媒体)を、情報通信端末や計算資源に供給する場合、係る記憶媒体はコンピュータ読み取り可能な記憶媒体である。情報通信端末や計算資源のCPUが、記録媒体に格納されたプログラムコードを読み出し実行する場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになる。そのため、そのプログラムコードを記録した記録媒体もまた、本発明を構成することになる。

Claims (20)

  1. 実空間を撮像した撮像画像を取得する撮像手段と、
    ユーザ固有の仮想オブジェクトを取得する取得手段と、
    前記撮像画像から情報共有に関するイベントを検出するイベント検出手段と、
    前記実空間を異なる方向から撮像している他端末と同時期に前記イベントが検出され、かつ、該イベントが当該他端末との協働で指定された位置での共有開始指示を表す場合、当該他端末との間で前記仮想オブジェクトの共有を可能とする共有領域を当該撮像画像の前記位置に重畳表示する表示制御手段と、
    を備えることを特徴とする情報通信端末。
  2. 前記表示制御手段は、前記協働で指定された位置を前記撮像画像において強調表示することを特徴とする、
    請求項1に記載の情報通信端末。
  3. 前記表示制御手段は、前記他端末または当該他端末を装着したユーザを識別するための第1タグ情報を取得し、取得した第1タグ情報を前記共有領域またはその周辺領域に表示することを特徴とする、
    請求項1に記載の情報通信端末。
  4. 前記表示制御手段は、自端末または自端末を装着したユーザを識別するための第2タグ情報を取得し、前記第1タグ情報と共に前記第2タグ情報を併せて表示することを特徴とする、
    請求項3に記載の情報通信端末。
  5. 前記イベント検出手段は、前記撮像画像において、前記実空間において前記共有領域の表示位置を定める状態、ユーザの人数から推測される当該ユーザが操作する指示入力体の最大数が所定範囲を超えた状態、前記ユーザが前記他端末のユーザと共に所定の協調動作を行っている状態、所定の実物体が前記実空間において複数配置された状態、所定の実物体に紐付けされた前記仮想オブジェクトが前記ユーザにより操作された状態のいずれかの状態が存在するときに、当該状態を前記共有開始指示を表すイベントとして検出することを特徴とする、
    請求項1ないし4のいずれか一項に記載の情報通信端末。
  6. 前記表示制御手段は、前記共有領域を表示する際に、当該共有領域の周辺領域に、予め保存されている前記仮想オブジェクトの選択的な取得を可能にするハンドル画像を表示することを特徴とする、
    請求項1に記載の情報通信端末。
  7. 前記表示制御手段は、前記検出されたイベントが、既存の前記共有領域への共有参加指示を表し、かつ、前記共有領域を共有している他端末において前記共有参加指示を受け入れるイベントが検出されたときに、前記既存の前記共有領域における前記仮想オブジェクトの表示を可能にすることを特徴とする、
    請求項1に記載の情報通信端末。
  8. 前記表示制御手段は、前記検出されたイベントが、既存の前記共有領域の一部または全領域の消去指示を表すときは、当該領域を消去することを特徴とする、
    請求項1に記載の情報通信端末。
  9. 前記表示制御手段は、前記共有領域の表示前に当該共有領域の位置に表示されていた前記仮想オブジェクトを当該共有領域外に移動させることを特徴とする、
    請求項1に記載の情報通信端末。
  10. 前記表示制御手段は、前記共有領域への前記仮想オブジェクトの移動状況が所定条件を満たさない場合は、当該移動を無効にすることを特徴とする、
    請求項9に記載の情報通信端末。
  11. 前記共有領域に配置された前記仮想オブジェクトに関わる情報を当該共有領域において当該仮想オブジェクトを共有する他端末宛に送信する送信手段をさらに備えることを特徴とする、
    請求項1に記載の情報通信端末。
  12. 前記撮像手段は、ユーザに装着されたときに当該ユーザの2つの視点から前記実空間を撮像したステレオ画像を取得し、保存することを特徴とする、
    請求項1ないし11のいずれか一項に記載の情報通信端末。
  13. 同一の実空間をそれぞれ異なる方向から撮像している複数の情報通信端末から撮像画像、撮像時刻、撮像位置、撮像時の姿勢情報を含むイベント情報を受信する受信手段と、
    受信した各撮像画像を解析することにより他端末との協働で指定された位置での共有開始指示を表すイベントを検出し、該イベントが同時期に生じている2つ以上の情報通信端末を共有開始可能な情報通信端末と判定する判定手段と、
    前記共有開始可能とされた全ての情報通信端末の前記姿勢情報を基に、各情報通信端末の撮像画像の前記位置において各ユーザ固有の情報の共有を可能にする共有領域を設定する設定手段と、
    設定された共有領域の位置、形状およびサイズを含む共有領域情報を前記全ての情報通信端末に送信する送信手段と、
    を有することを特徴とする共有管理装置。
  14. 前記設定手段は、前記共有領域を表示する全ての情報通信端末またはそのユーザを識別するためのタグ情報を取得し、取得したこれらのタグ情報が前記共有領域またはその周辺領域に表示されるように前記共有領域を設定し、
    前記送信手段は、前記共有領域情報と共に前記タグ情報を送信することを特徴とする、
    請求項13に記載の共有管理装置。
  15. 前記判定手段は、前記撮像画像を送信した情報通信端末の数から各情報通信端末のユーザがそれぞれ指示を行うための指示入力体の数を推定するとともに、受信した前記撮像画像と前記姿勢情報とに基づいて各撮像画像に映っている指示入力体の数を検出し、推定した数と検出した数との差が所定範囲を超える場合は共有開始不能と判定し、
    前記送信手段は、前記共有領域情報に代えて前記判定結果を送信することを特徴とする、請求項14に記載の共有管理装置。
  16. 前記判定手段は、前記撮像画像と前記姿勢情報に基づいて前記指示入力体の侵入位置を検出し、検出した侵入位置が既定の範囲外である場合は、前記指示入力体の数に関わらず、共有開始不能と判定することを特徴とする、
    請求項15に記載の共有管理装置。
  17. 同一の実空間をそれぞれ異なる方向から撮像している複数の情報通信端末が、撮像画像から他端末との協働により指定された位置での共有開始指示を表すイベントを検出すると、それぞれ検出時の撮像画像、撮像時刻、撮像位置および姿勢情報を所定の共有管理装置へ送信するステップと、
    前記共有管理装置が、受信した各撮像画像から他端末との協働で指定された位置での共有開始指示を表すイベントを検出し、該イベントが同時期に生じている2つ以上の情報通信端末を共有開始可能な情報通信端末と判定するとともに、前記共有開始可能とされた全ての情報通信端末の前記姿勢情報を基に、各情報通信端末の撮像画像の前記位置において各ユーザ固有の情報の共有を可能にする共有領域を設定し、設定した共有領域の位置、形状およびサイズを含む共有領域情報を前記全ての情報通信端末宛に送信するステップと、
    前記全ての情報通信端末がそれぞれ自端末の撮像画像に前記共有領域を重畳表示するステップとを有することを特徴とする、
    情報共有方法。
  18. 前記共有管理装置は、前記共有領域を表示する全ての情報通信端末またはそのユーザを識別するためのタグ情報を取得し、取得したこれらのタグ情報が前記共有領域またはその周辺領域に表示されるように前記共有領域を設定し、前記全ての情報通信端末宛に前記共有領域情報と共に前記タグ情報を送信することを特徴とする、
    請求項17に記載の情報共有方法。
  19. 実空間の撮像機能と通信機能とを有するコンピュータを、請求項1ないし12のいずれか一項に記載された情報通信端末として動作させるためのコンピュータプログラム。
  20. 通信機能を有するコンピュータを、請求項13ないし16のいずれか一項に記載された共有管理装置として動作させるためのコンピュータプログラム。
JP2015211896A 2015-10-28 2015-10-28 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム Active JP6632322B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015211896A JP6632322B2 (ja) 2015-10-28 2015-10-28 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015211896A JP6632322B2 (ja) 2015-10-28 2015-10-28 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2017084100A true JP2017084100A (ja) 2017-05-18
JP6632322B2 JP6632322B2 (ja) 2020-01-22

Family

ID=58711165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015211896A Active JP6632322B2 (ja) 2015-10-28 2015-10-28 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6632322B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018142637A1 (ja) * 2017-02-06 2018-08-09 国立大学法人東北大学 情報処理システム、及び、情報処理方法
JP2019179382A (ja) * 2018-03-30 2019-10-17 株式会社スクウェア・エニックス 情報処理プログラム、情報処理方法及び情報処理システム
CN113791495A (zh) * 2021-08-27 2021-12-14 优奈柯恩(北京)科技有限公司 用于显示信息的方法、装置、设备及计算机可读介质
US11295536B2 (en) 2020-03-10 2022-04-05 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium
WO2023202445A1 (zh) * 2022-04-20 2023-10-26 华为技术有限公司 演示系统、方法、图形界面及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006518507A (ja) * 2003-02-19 2006-08-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ポータブル装置間でのコンテンツアイテムのアドホック共有のためのシステムと、そのインタラクション方法
JP2012065246A (ja) * 2010-09-17 2012-03-29 Sony Corp 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2012168646A (ja) * 2011-02-10 2012-09-06 Sony Corp 情報処理装置、情報共有方法、プログラム及び端末装置
JP2014203175A (ja) * 2013-04-02 2014-10-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム。

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006518507A (ja) * 2003-02-19 2006-08-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ポータブル装置間でのコンテンツアイテムのアドホック共有のためのシステムと、そのインタラクション方法
JP2012065246A (ja) * 2010-09-17 2012-03-29 Sony Corp 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2012168646A (ja) * 2011-02-10 2012-09-06 Sony Corp 情報処理装置、情報共有方法、プログラム及び端末装置
JP2014203175A (ja) * 2013-04-02 2014-10-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム。

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018142637A1 (ja) * 2017-02-06 2018-08-09 国立大学法人東北大学 情報処理システム、及び、情報処理方法
JP2019179382A (ja) * 2018-03-30 2019-10-17 株式会社スクウェア・エニックス 情報処理プログラム、情報処理方法及び情報処理システム
US11328490B2 (en) 2018-03-30 2022-05-10 Kabushiki Kaisha Square Enix Information processing program, method, and system for sharing virtual process for real object arranged in a real world using augmented reality
JP7209474B2 (ja) 2018-03-30 2023-01-20 株式会社スクウェア・エニックス 情報処理プログラム、情報処理方法及び情報処理システム
US11295536B2 (en) 2020-03-10 2022-04-05 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium
CN113791495A (zh) * 2021-08-27 2021-12-14 优奈柯恩(北京)科技有限公司 用于显示信息的方法、装置、设备及计算机可读介质
WO2023202445A1 (zh) * 2022-04-20 2023-10-26 华为技术有限公司 演示系统、方法、图形界面及相关装置

Also Published As

Publication number Publication date
JP6632322B2 (ja) 2020-01-22

Similar Documents

Publication Publication Date Title
US11145083B2 (en) Image-based localization
JP5843340B2 (ja) 3次元環境共有システム及び3次元環境共有方法
JP6632322B2 (ja) 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム
US9536350B2 (en) Touch and social cues as inputs into a computer
US10600253B2 (en) Information processing apparatus, information processing method, and program
US20140313228A1 (en) Image processing device, and computer program product
WO2013028813A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
JP6677890B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
JP6004051B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
US10803666B1 (en) Method and device for synchronizing augmented reality coordinate systems
US20160379591A1 (en) Information processing apparatus, control method, and storage medium
JP6495538B2 (ja) イメージコンテンツ検索
CN113614795A (zh) 移动设备的相对空间定位
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2013168120A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP6376251B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2014174643A (ja) 画像処理システム、その制御方法、画像処理装置、及び画像処理方法
KR20200120467A (ko) Hmd 장치 및 그 동작 방법
JP6164177B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2020177490A (ja) Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末
JP2016224809A (ja) 情報処理装置、情報処理方法
JP6741939B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018190447A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2020160576A (ja) 情報処理装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R151 Written notification of patent or utility model registration

Ref document number: 6632322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151