JP2019057057A - 情報処理装置、情報処理システム及びプログラム - Google Patents

情報処理装置、情報処理システム及びプログラム Download PDF

Info

Publication number
JP2019057057A
JP2019057057A JP2017180369A JP2017180369A JP2019057057A JP 2019057057 A JP2019057057 A JP 2019057057A JP 2017180369 A JP2017180369 A JP 2017180369A JP 2017180369 A JP2017180369 A JP 2017180369A JP 2019057057 A JP2019057057 A JP 2019057057A
Authority
JP
Japan
Prior art keywords
image
information
user
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017180369A
Other languages
English (en)
Inventor
橋本 一成
Kazunari Hashimoto
一成 橋本
誓哉 稲木
Seiya Inagi
誓哉 稲木
哲平 青木
Teppei Aoki
哲平 青木
大輔 安岡
Daisuke Yasuoka
大輔 安岡
忠秋 佐藤
Tadaaki Sato
忠秋 佐藤
英剛 出雲
Hidetake Izumo
英剛 出雲
佑介 山浦
Yusuke Yamaura
佑介 山浦
宏 梅基
Hiroshi Umeki
宏 梅基
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017180369A priority Critical patent/JP2019057057A/ja
Priority to US16/129,810 priority patent/US11108990B2/en
Publication of JP2019057057A publication Critical patent/JP2019057057A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】予め定められた場所において、ある組織に属するグループが共通する人との間で情報を共有することが可能な情報処理装置、情報処理システム及びプログラムを提供する。【解決手段】情報処理装置は、現実空間(壁100)に仮想画像110aが重なるように表示するHMD装置2Aから、当該HMD装置2Aの使用者のユーザID、及び予め定められた場所を示す位置情報を受け付ける受付手段と、位置情報に紐付けられた公開情報を、使用者のユーザIDが公開相手に含まれている場合に、予め定められた場所又はその近傍に仮想画像110aとして表示するようHMD装置2Aに指示する指示手段とを備える。【選択図】図8

Description

本発明は、情報処理装置、情報処理システム及びプログラムに関する。
近年、カメラ付きの携帯端末等において、撮影した映像に文字や画像等の他の情報を重畳して表示させる拡張現実(AR:Augmented Reality)のシステムが提案されている(例えば、特許文献1参照。)。
特許文献1に記載された拡張現実システムは、カメラを有する携帯端末と通信可能なサーバーを有する拡張現実システムにおいて、前記サーバーは、故人に関する情報を記憶する故人情報記憶部と、慰霊場所の位置情報を記憶する位置情報記憶部と、前記携帯端末との情報の送受信を行う制御部とを有し、前記携帯端末は、自機の位置を検出する位置検出部と、該位置検出部で検出した位置の情報を含む情報を送信すると共に前記サーバーからの情報を受信する送受信部を有し、前記サーバーの制御部は、前記携帯端末が前記位置検出部で検出した自機の位置が、前記位置情報記憶部に記憶された慰霊場所の位置情報と合致する場合には、前記故人情報記憶部に記憶された故人に関する情報を前記携帯端末に送信し、前記故人に関する情報を受信した携帯端末に、該故人に関する情報を前記カメラで撮影した映像に重畳して、画面に表示させるものである。
特許第5780372号公報
本発明の課題は、予め定められた場所において、ある組織に属するグループが共通する人との間で情報を共有することが可能な情報処理装置、情報処理システム及びプログラムを提供することにある。
[1]現実空間に仮想空間の画像が重なるように表示する表示装置から、当該表示装置の使用者の識別情報、及び予め定められた場所の位置を示す位置情報を受け付ける受付手段と、
前記位置情報に紐付けられた公開情報を、前記使用者の識別情報がある組織に属するグループとして公開相手に含まれている場合に、前記予め定められた場所又はその近傍に前記仮想空間の画像として表示するよう前記表示装置に指示する指示手段と、を備えた情報処理装置。
[2]前記表示装置は、撮影機能を有し、
前記受付手段は、前記表示装置により前記予め定められた場所を撮影した画像を受け付けし、
前記画像に含まれるコード画像から前記位置情報を取得する取得手段、をさらに備えた前記[1]に記載の情報処理装置。
[3]前記公開情報は、前記使用者と同じグループに属している者が付加した情報を含む、前記[1]又は[2]に記載の情報処理装置。
[4]前記公開情報は、前記使用者と同じグループに属している者の閲覧回数を含む、前記[1]から[3]のいずれかに記載の情報処理装置。
[5]前記表示装置は、前記仮想空間の画像を仮想的に撮影する仮想カメラを備え、
前記閲覧回数は、前記仮想カメラによって撮影された仮想カメラ画像の歪み率及び面積により求められた関心度が閾値以上の場合に1回として計数する、前記[4]に記載の情報処理装置。
[6]前記表示装置は、前記仮想空間の画像を仮想的に撮影する仮想カメラを備え、
前記閲覧回数は、前記仮想カメラによって撮影された仮想カメラ画像の撮影時間が予め定められた時間以上連続する場合に1回として計数する、前記[4]に記載の情報処理装置。
[7]前記公開情報は、前記位置情報及び対象物の特徴情報に紐付けられ、
前記指示手段は、前記公開情報を前記対象物又はその近傍に前記仮想空間の画像として表示するよう前記表示装置に指示する、前記[1]から[6]のいずれかに記載の情報処理装置。
[8]前記対象物は、前記予め定められた場所を移動可能な物である、前記[6]又は[7]に記載の情報処理装置。
[9]前記受付手段は、前記表示装置の位置を示す位置情報を受け付けし、
前記指示手段は、前記表示装置の位置が前記予め定められた場所から予め定められた距離以下の場合に、前記公開情報を前記仮想空間の画像として表示するよう指示する、前記[1]から[8]のいずれかに記載の情報処理装置。
[10]現実空間に仮想空間の画像が重なるように表示する表示装置と、
前記表示装置から当該表示装置の使用者の識別情報、及び予め定められた場所の位置を示す位置情報を受け付ける受付手段と、
前記位置情報に紐付けられた公開情報を、前記使用者の識別情報がある組織に属するグループとして公開相手に含まれている場合に、前記予め定められた場所又はその近傍に前記仮想空間の画像として表示するよう前記表示装置に指示する指示手段と、を備えた情報処理システム。
[11]コンピュータを、現実空間に仮想空間の画像が重なるように表示する表示装置から、当該表示装置の使用者の識別情報、及び予め定められた場所の位置を示す位置情報を受け付ける受付手段と、
前記位置情報に紐付けられた公開情報を、前記使用者の識別情報がある組織に属するグループとして公開相手に含まれている場合に、前記予め定められた場所又はその近傍に前記仮想空間の画像として表示するよう前記表示装置に指示する指示手段、として機能させるためのプログラム。
請求項1、10、11に係る発明によれば、予め定められた場所において、ある組織に属するグループが共通する人との間で情報を共有することが可能になる。
請求項2に係る発明によれば、予め定められた場所にコード画像を設けなくても予め定められた場所を特定することができる。
請求項3に係る発明によれば、表示装置の使用者と同じグループに属している者が付加した情報を共有することができる。
請求項4に係る発明によれば、表示装置の使用者と同じグループに属している者の公開情報に対する関心度を知ることができる。
請求項5、6に係る発明によれば、仮想カメラ画像から関心度を知ることができる。
請求項7〜9に係る発明によれば、位置情報が広い範囲を示す場合にその広い範囲に複数の対象物が存在する場合でも対象物ごとに公開情報を表示することができる。
図1は、本発明の第1の実施の形態に係る情報処理システムの構成例を示す図である。 図2は、ヘッドマウントディスプレイ装置の一例を示す外観図である。 図3は、HMD装置の制御系の一例を示す図である。 図4(a)、(b)は、仮想カメラ画像生成手段の機能を説明するための図である。 図5は、情報処理装置の制御系の一例を示すブロック図である。 図6は、ユーザ属性テーブルの一例を示す図である。 図7は、コンテンツテーブルの一例を示す図である。 図8は、仮想画像の表示例を示す図である。 図9は、第1の実施の形態に係る情報処理装置の動作の一例を示すフローチャートである。 図10は、仮想画像の表示例を示す図である。 図11は、閲覧回数を説明するための図である。 図12は、本発明の第2の実施の形態に係る情報処理システムの構成例を示す図である。 図13は、第2の実施の形態に係るHMD装置の制御系の一例を示す図である。 図14は、第2の実施の形態に係る情報処理装置の制御系の一例を示すブロック図である。 図15は、ユーザ属性テーブルの一例を示す図である。 図16は、対象物テーブルの一例を示す図である。 図17は、対象物の近傍に仮想的に表示された仮想画像の一例を示す図である。 図18は、第2の実施の形態に係る情報処理装置の動作の一例を示すフローチャートである。 図19(a)〜(e)は、第2の実施の形態の変形例を示す図である。
以下、本発明の実施の形態について図面を参照して説明する。なお、各図中、実質的に同一の機能を有する構成要素については、同一の符号を付してその重複した説明を省略する。
[実施の形態の要約]
本実施の形態に係る情報処理装置は、現実空間に仮想空間の画像が重なるように表示する表示装置から、当該表示装置の使用者の識別情報、及び予め定められた場所の位置を示す位置情報を受け付ける受付手段と、前記位置情報に紐付けられた公開情報を、前記使用者の識別情報が公開相手に含まれている場合に、前記予め定められた場所又はその近傍に前記仮想空間の画像として表示するよう前記表示装置に指示する指示手段とを備える。
「表示装置」には、使用者の頭部に装着され、使用者が公開情報を仮想空間の画像として視認すると同時に現実空間(外景)も直接視認可能な光透過方式の頭部装着型表示装置、外景を撮影した画像に公開情報を仮想空間の画像として重ねて表示する携帯型情報端末等が含まれる。光透過方式の頭部装着型表示装置は、ゴーグル型でもメガネ型でもよい。携帯型情報端末は、頭部装着型でもよい。
[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る情報処理システムの構成例を示す図である。
この情報処理システム1は、第1の者が使用するヘッドマウントディスプレイ装置(以下「HMD装置」という。)2Aと、第2の者が使用するHMD装置2Bと、各HMD装置2A、2B(これらを総称するときは、以下「HMD装置2」という。)を制御する情報処理装置3とを備える。HMD装置2と情報処理装置3とは、互いに無線によって通信可能に接続されている。HMD装置2は、表示装置の一例である。
第1の者及び第2の者は、例えば、同一の組織に属しているが、当該組織を構成するグループが異なる者である。「組織」とは、人の集まりをいい、例えば、企業、企業に属する組織(部門、チーム、グループ等)、団体等が該当する。グループは、組織の下位の層を構成するものの一例である。第1の者及び第2の者を総称するときは、以下、使用者又はユーザともいう。
このような情報処理システム1は、例えば、オフィス、公共施設、病院等の食堂、会議室、多目的室、談話室等で用いられ得る。これらの場所は、予め定められた場所の一例である。
図1は、例えば、オフィスの食堂で第1の者がHMD装置2Aを装着し、第2の者がHMD装置2Bを装着している状態を示す。食堂の壁100には、食堂の壁100の位置情報を示すコード画像101が形成されている。コード画像101を印刷したシートを壁100に貼り付けてもよく、コード画像101を壁100に直接印刷してもよい。食堂の壁100は、予め定められた場所(特定の場所ともいう。)の一例である。
コード画像101は、例えば、予め定められた場所の位置を示す位置情報が暗号化されたQRコード(登録商標)である。なお、コード画像101は、QRコード(登録商標)に限られず、PDF417、Data Matrix、Maxi Code等の2次元コードでもよく、バーコード等の1次元コードや独自コード、ドットパターンでもよい。また、目的に応じて複数種のコードを組み合わせてもよい。
HMD装置2は、現実空間(外景)に仮想空間の画像(以下「仮想画像」ともいう。)が重なるように表示するもの、すなわち仮想画像を仮想的に表示するものである。具体的には、HMD装置2は、使用者の頭部に装着されるものであり、使用者が仮想画像を視認すると同時に外景も直接視認可能な光透過方式の頭部装着型表示装置である。
図2は、HMD装置2の一例を示す外観図である。HMD装置2は、表示部22と、外向きカメラ23Aとを備える。表示部22は、耳に装着されるフレーム220と、右側透過型ディスプレイ221a及び左側透過型ディスプレイ221b(これらを総称するときは「透過型ディスプレイ221」ともいう。)とを備える。
透過型ディスプレイ221は、例えば、透過型液晶ディスプレイ、透過型有機ELディスプレイ、透過型無機ELディスプレイ等を用いることができる。右側透過型ディスプレイ221aは、右眼用の表示画像を表示し、左側透過型ディスプレイ221bは、左眼用の表示画像を表示する。右眼用の表示画像及び左眼用の表示画像は、外景に重なって仮想画像として当該HMD装置2の使用者に視認される。
(HMD装置の構成)
図2は、HMD装置2の制御系の一例を示す図である。HMD装置2は、HMD装置2の各部を制御する制御部20と、各種の情報を記憶する記憶部21と、上記の表示部22と、上記の外向きカメラ23Aと、内向きカメラ23Bと、センサ部24と、音声入力部25と、位置検出部26と、処理部27と、無線通信部28とを備える。
制御部20は、CPU(Central Processing Unit)、インターフェース等から構成されている。CPUは、記憶部21に記憶されたプログラム210に従って動作することにより送信手段200、受信手段201、表示制御手段202、仮想カメラ画像生成手段203等として機能する。各手段200〜203の詳細は後述する。
記憶部21は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等から構成され、プログラム、データ等が記憶されている。
外向きカメラ23Aは、外景や対面する者の顔、当該HMD装置2の使用者の手等を撮影し、撮影した画像を制御部20に送る。内向きカメラ23Bは、当該HMD装置2の使用者の眼を撮影し、撮影した画像を制御部20に送る。外向きカメラ23A及び内向きカメラ23Bが撮影する画像は、静止画でも動画でもよい。対面する者を顔画像により特定する場合は、静止画でもよいが、使用者の手等を撮影してジェスチャーを検出する場合や視線を検出する場合は、動画又は1秒間に複数枚撮影する連続的な静止画が好ましい。
センサ部24は、距離画像センサと、加速度センサと、ジャイロセンサとを備える。距離画像センサは、例えば、赤外線距離センサ、レーザ距離センサ、超音波距離センサ等を用いることができる。距離画像センサは、赤外線、レーザ又は超音波等を照射し、その反射の時間差から画素ごとに距離を読み取って距離画像を得る。加速度センサは、HMD装置2に加わる加速度を検出する。ジャイロセンサは、HMD装置2に加わる角速度を検出する。
音声入力部25は、マイクロフォンで構成され、当該HMD装置2の使用者が発声した音声を電気信号である音声信号に変換して入力する。
処理部27は、外向きカメラ23A、内向きカメラ23B、センサ部24及び音声入力部25により入力された情報を処理するものであり、ジェスチャー検出部270と、視線検出部271と、音声認識部272と備える。
ジェスチャー検出部270は、使用者の動きを示すジェスチャーを検出する。具体的には、ジェスチャー検出部270は、センサ部24の距離画像センサが検出した距離画像から、使用者の手の動き(例えば、2本指によるピンチ動作等)により予め定められた手のジェスチャーを検出する。また、ジェスチャー検出部270は、センサ部24の加速度センサが検出したHMD装置2の加速度と、ジャイロセンサが検出したHMD装置2の角速度とに基づいて、使用者の頭部の動き(例えば、左右に振る等)により予め定められた頭部のジェスチャーを検出する。ジェスチャー検出部270は、検出したジェスチャーに対応するコマンドを制御部20に送信する。
視線検出部271は、内向きカメラ23Bが使用者の眼を撮影した画像から使用者の視線方向を検出し、検出した視線方向や視線方向に対応するコマンドを制御部20に送信する。視線検出技術としては、例えば、内向きカメラ23Bに可視光カメラを用いて、目頭の位置に対する虹彩の位置に基づいて視線を検出してもよく、内向きカメラ23Bに赤外線カメラと赤外線LEDを用いて、角膜反射の位置に対する瞳孔の位置に基づいて視線方向を検出してもよい。なお、ジェスチャーの代わりに視線方向を用いてもよい。
音声認識部272は、音声入力部25が入力した音声信号をデジタルの音声データに変換し、音声データを制御部20に送信する。
無線通信部28は、例えば、Wi−Fi(Wireless Fidelity)、Wi−Fiダイレクト等の無線LANや、Bluetooth(登録商標)、赤外線通信等の近距離無線通信を用いて情報処理装置3と通信する。なお、無線通信部28は、HMD装置2同士で通信してもよい。
位置検出部26は、自装置2の位置を示す位置情報をGPS(Global Positioning System)等を用いて定期的に検出し、検出した位置情報を制御部20に送信する。なお、自装置2の位置をビーコン信号を用いて検出してもよい。すなわち、位置検出部26は、ビーコン発信機を識別するビーコンIDを含むビーコン信号を検出し、ビーコンID及びビーコン信号の強度情報を情報処理装置3に送信する。情報処理装置3は、ビーコンIDに対応するビーコン発信機の位置の情報及びビーコン信号の強度からHMD装置2の位置情報を取得する。
次に、HMD装置2の各手段200〜203について説明する。
送信手段200は、外向きカメラ23Aにより撮影された画像、処理部27による処理結果(例えば、ジェスチャー検出部270が検出したジェスチャーに対応するコマンド、視線検出部271が検出した視線方向や視線方向に対応するコマンド、又は音声認識部272により認識された音声データ)、位置検出部26が検出した位置情報、又は後述する仮想カメラ画像を、当該HMD装置2の使用者を識別するユーザIDとともに無線通信部28により情報処理装置3に送信する。
受信手段201は、情報処理装置3の送信手段304から送信された表示画像、及び表示画像を仮想画像として視認させるべき位置を示す位置情報を受信する。
表示制御手段202は、受信手段201が受信した表示画像及び位置情報に基づいて表示部22を制御する。すなわち、表示制御手段202は、受信手段201が受信した表示画像及び位置情報に基づいて右眼用の表示画像及び左眼用の表示画像を生成し、右眼用の表示画像を右側透過型ディスプレイ221aに表示し、左眼用の表示画像を左側透過型ディスプレイ221bに表示して位置情報に対応する位置に仮想画像が当該HMD装置2の使用者に視認されるよう制御する。
図4(a)、(b)は、仮想カメラ画像生成手段203の機能を説明するための図である。仮想カメラ画像生成手段203は、情報処理装置3から送信された表示画像及び位置情報に基づいて、図4に示すように、HMD装置2の使用者の眼の位置に仮想的に配置した仮想カメラ29により仮想画像110a(図4(a)参照)を仮想的に撮影して得られる仮想カメラ画像110b(図4(b)参照)を生成する。
制御部20は、視線検出部271により検出された視線方向が壁100に仮想的に表示された仮想画像110aに向くと、仮想カメラ画像生成手段203により仮想カメラ画像110bを生成させる。仮想カメラ画像生成手段203は、制御部20の制御の下で、仮想カメラ29により仮想画像110aを仮想的に撮影して仮想カメラ画像110bを生成する。視線方向が仮想画像110aに向いたとき仮想カメラ画像110bを生成することで、視線方向とは無関係に仮想カメラ画像を生成する場合と比べて後述する閲覧判定手段305により仮想画像への関心度を正確に算出できる。なお、関心度の精度が落ちるが、視線方向とは無関係に仮想カメラ画像を定期的に生成してもよい。
例えば、仮想カメラ29が仮想画像110aの中心線から水平方向に角度α傾いた方向から仮想画像110aを仮想的に撮影した場合、仮想カメラ画像生成手段203により生成された仮想カメラ画像110bは、元の仮想画像110aよりも細長い画像となり、元の仮想画像110aの歪み率(Ha/Wa)に対して仮想カメラ画像110bの歪み率(Hb/Wb)が大きくなる。
(情報処理装置の構成)
図5は、情報処理装置3の制御系の一例を示すブロック図である。情報処理装置3は、情報処理装置3の各部を制御する制御部30と、各種の情報を記憶する記憶部31と、各HMD装置2と無線通信を行う無線通信部32とを備える。
無線通信部32は、例えば、Wi−Fi(Wireless Fidelity)、Wi−Fiダイレクト等の無線LANや、Bluetooth(登録商標)、赤外線通信等の近距離無線通信を用いてHMD装置2と通信する。
制御部30は、CPU(Central Processing Unit)、インターフェース等から構成されている。CPUは、プログラム310に従って動作することにより受信手段301、取得手段302、表示画像生成手段303、送信手段304、閲覧判定手段305等として機能する。表示画像生成手段303及び送信手段304は、指示手段の一例である。各手段301〜305の詳細は後述する。
記憶部31は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等から構成され、プログラム310、ユーザ属性テーブル311(図5参照)、コンテンツテーブル312(図6参照)等が記憶されている。なお、本明細書において、テーブルに情報を書き込む場合に記録又は登録を用い、記憶部に情報を書き込む場合に記憶を用いる。
(ユーザ属性テーブルの構成)
図6は、ユーザ属性テーブル311の一例を示す図である。ユーザ属性テーブル311には、ユーザの属性情報が予め記録されている。ユーザ属性テーブル311は、ユーザIDが記録された「ユーザID」欄と、ユーザ名が記録された「ユーザ名」欄と、ユーザが所属する部署が記録された「所属部署」欄と、ユーザが正社員か派遣社員か、管理職か一般職か等の種別が記録された「ユーザ種別」欄と、コンテンツを識別するコンテンツIDが記録される「コンテンツID」欄と、当該ユーザのコンテンツの閲覧回数が記録される「閲覧回数」欄とを有する。ユーザID、ユーザ名、所属部署及びユーザ種別は、人の属性情報の一例である。所属部署は、グループの一例である。コンテンツデータ及びコメント情報は、公開情報の一例である。
(コンテンツテーブルの構成)
図7は、コンテンツテーブル312の一例を示す図である。コンテンツテーブル312は、コンテンツIDが記録される「コンテンツID」欄と、コンテンツ名が記録される「コンテンツ名」欄と、コンテンツを公開する相手(例えば部署等)が記録される「公開相手」欄と、コンテンツを作成したユーザのユーザIDが記録される「コンテンツ作成者のユーザID」欄と、コンテンツを仮想画像として公開する位置を示す位置情報が記録される「位置情報」欄と、コンテンツの閲覧が有効な期間が記録される「有効期間」欄と、コンテンツデータが記録される「コンテンツデータ」欄と、コンテンツに対するコメント情報が記録される「コメント情報」欄とを有する。「コメント情報」欄は、コメントを付加したユーザのユーザIDが記録される「ユーザID」欄と、付加されたコメントの内容が記録される「コメント内容」欄とを有する。
「公開相手」欄に記録される公開相手は、個人が属する組織又は組織の下位の層のグループ、組織又はグループに属する個人、組織又はグループに属さない個人でもよい。「位置情報」欄には、例えば、仮想画像の中心の座標として、例えば、経度、緯度、高度を示す座標(x、y、z)が記録される。なお、高さを仮想画像の大きさに応じて定めるとした場合は、例えば、経度、緯度を示す座標(x、y)を位置情報として記録してもよい。同図に「位置情報」欄には、コンテンツIDが「C1」に対して、食堂の特定の壁の位置を示す(x、y、z)が記録され、コンテンツIDが「C2」に対して、ロビーの特定の壁の位置を示す(x、y、z)が記録されている場合を示す。また、「位置情報」欄に記録される位置情報は、コード画像101に含まれる位置情報と同じである。「コメント情報」欄に記録されるユーザID及びコメントは、コメント情報の一例である。コンテンツデータ及びコメント情報は、位置情報に紐付けられて予め登録された公開情報の一例である。食堂の特定の壁、及びロビーの特定の壁は、予め定められた場所の一例である。
次に、情報処理装置3の各手段301〜305について説明する。
受信手段301は、HMD装置2から送信されるユーザID、仮想カメラ画像、顔画像、音声データ、位置情報及び各種のコマンド等を受信する。
取得手段302は、受信手段301がログインの要求を示すコマンド、ユーザID及びコード画像101を受信すると、ユーザIDに対応する所属部署をユーザ属性テーブル311から取得し、受信手段301が受信したコード画像101を復号して位置情報を取得する。取得手段302は、取得した所属部署を公開相手として含み、現在が有効期間に含まれ、かつ、取得した位置情報に対応するコンテンツデータ及びコメント情報をコンテンツテーブル312から取得する。
表示画像生成手段303は、HMD装置2の表示部22に表示させる表示画像、例えば、取得手段302により取得されたコンテンツデータ及びコメント情報を含む表示画像を生成する。
送信手段304は、生成された表示画像を仮想画像として表示するようにHMD装置2に指示する。具体的には、送信手段304は、表示画像生成手段303が生成した表示画像、及び表示画像を仮想画像として視認させるべき位置情報をHMD装置2に送信する。
閲覧判定手段305は、HMD装置2から送信された仮想カメラ画像110b(図3参照)に基づいて仮想画像110aに対する関心度を算出する。具体的には、仮想カメラ画像110bの面積をS、長辺の長さをHb、短辺の長さをWb、歪み率をkb(=Hb/Wb)とするとき、閲覧判定手段305は、HMD装置2の使用者の仮想画像110aに対する関心度Iを次の式(1)により算出する。
I=kb×S ・・・(1)
すなわち、関心度Iは、歪み率kbが小さいほど大きくなり、面積Sが大きいほど大きくなる。換言すれば、HMD装置2の使用者が仮想画像110aを近くで正面から見ている場合は、関心度Iが大きくなり、仮想画像110aに関心があることを示している。閲覧判定手段305は、関心度Iが閾値以上の場合に仮想画像110aを閲覧していると判定し、閲覧回数をカウントする。これにより仮想画像110aを斜めから見た場合や遠くから見た場合は、仮想画像110aへの関心が低く関心度が閾値未満の場合は、仮想画像110aを閲覧したとは判定されず、閲覧回数はカウントされない。
なお、関心度は歪み率及び面積の一方のみで算出してもよく、次の式(2)により算出してもよい。
I=A・kb+B・S ・・・(2)
ただし、A、Bは正の係数である。
また、仮想画像110aを見ている時間、すなわち仮想カメラ画像110bの撮影時間に基づいて関心度を算出してもよい。この場合、撮影時間が長いほど関心度が大きくなり、撮影時間が短いほど関心度が小さくなる。
(第1の実施の形態の動作)
次に、情報処理システム1の動作の一例について、図8を参照し、図9のフローチャートに従って説明する。
(1)ログイン
例えば、HMD装置2Aを使用する第1の者が手を動かし、図1に示すコード画像101の撮影を指示するジェスチャー(第1のジェスチャー)を行うと、HMD装置2Aのジェスチャー検出部270は、センサ部24の距離画像センサが取得した距離画像から第1のジェスチャーを検出し、それに対応する第1のコマンドを制御部20に送信する。
制御部20は、ジェスチャー検出部270からの第1のコマンドに基づいて、外向きカメラ23Aを制御してコード画像101を撮影する。制御部20は、撮影したコード画像101を記憶部21に記憶する。
次に、HMD装置2Aを使用する第1の者が手を動かし、ログインを指示するジェスチャー(第2のジェスチャー)を行うと、HMD装置2Aのジェスチャー検出部270は、センサ部24の距画像センサが取得した距離画像から第2のジェスチャーを検出し、それに対応する第2のコマンドを制御部20に送信する。
HMD装置2Aの送信手段200は、ログインの要求を、コード画像101及び自己を識別するユーザIDとともに情報処理装置3に送信する。
情報処理装置3の受信手段301は、HMD装置2Aから送信されたログインの要求、コード画像101及びユーザIDを受信する(S1:Yes)。
(2)コンテンツの取得
取得手段302は、受信手段301が受信したユーザIDに対応する所属部署をユーザ属性テーブル311から取得し、受信手段301が受信したコード画像101を復号して位置情報を取得する。
取得手段302は、取得した所属部署を公開相手として含み、現在が有効期間含まれ、かつ、取得した位置情報に対応するコンテンツがコンテンツテーブル312に含まれているか否かを判断する(S2)。
取得した所属部署を公開相手として含み、現在が有効期間に含まれ、かつ、取得した位置情報に対応するコンテンツがコンテンツテーブル312に含まれている場合は(S2:Yes)、対応するコンテンツデータ及びコメント情報をコンテンツテーブル312から取得する。例えば、ログインした第1の者のユーザIDが「user002」の場合、ユーザ属性テーブル311から所属部署の「知財」を取得する。コード画像101が示す位置情報が「食堂の特定の壁」の場合は、図7に示すように、公開相手として「知財」を含み、かつ、位置情報が「食堂の特定の壁」のコンテンツIDが「コンテンツa」、コンテンツ名が「××プロジェクト参加募集」のコンテンツがコンテンツテーブル312に含まれているので、取得手段302は、このコンテンツデータとコメント情報をコンテンツテーブル312から取得する。
(3)表示画像の生成
表示画像生成手段302は、取得手段302が取得したコンテンツデータ及びコメント情報から表示画像を生成する(S7)。表示画像は、コンテンツ及びコメント情報を含む2次元の画像である。
(4)表示画像及び位置情報の送信
送信手段303は、表示画像生成手段302が生成した表示画像、及び取得手段302が取得した位置情報を第1の者が使用するHMD装置2Aに送信する(S4)。
HMD装置2Aの表示制御手段202は、表示画像及び位置情報に基づいて表示画像が食堂の壁100に仮想画像110aが視認されるよう表示部22を制御する。
図8は、仮想画像の表示例を示す図である。図8に示す仮想画像110aは、例えば、コンテンツデータとして、提案者の氏名、募集の概要、募集人数、及び募集期間を含み、コメント情報として、コンテンツに対するコメントを記載した者の名前、及びコメントの内容を含む。
例えば、HMD装置2Aを装着した第1の者には、図8に示すように、食堂の特定の壁100に表示された「××プロジェクト参加者募集」のコンテンツデータ及びコメント情報を含む仮想画像110aが視認されるが、例えば、第1の者とは同一の組織に属するが、グループが異なるHMD装置2Bを装着した第2の者には、この仮想画像110aは視認されない。したがって、特定の場所においてグループが共通する特定の人との間で情報の共有が可能になる。また、公開相手としてグループを指定できるので、公開相手として個人を個々に指定する場合と比較して公開相手の指定が容易になる。なお、仮想画像は、特定の場所の近傍に表示してもよい。この場合、特定の場所と仮想画像を同時に視認すること可能になる。
図10は、仮想画像の他の表示例を示す図である。図10に示すように、食堂の壁100に、コンテンツデータを含む第1の仮想画像110Aと、コメント情報を含む第2の仮想画像110Bとを表示してもよい。
同図に示す場合は、第1の仮想画像110Aは、例えば、コンテンツ名、募集の概要、募集人数、募集期間を含む。第2の仮想画像110Bは、例えば、当該コンテンツを閲覧した者の属性情報、当該コンテンツを閲覧した者の現在の位置、閲覧回数及びコメント内容を含む。コンテンツを閲覧した者の現在の位置は、当該者が使用するHMD装置2からHMD装置2の位置情報を情報処理装置3が取得すればよい。
(5)閲覧回数の記録
次に、受信手段301は、ログインした第1の者が使用するHMD装置2Aから仮想カメラ画像110bを受信したか否かを判断する(S5)。HMD装置2Aを使用する第1の者は、壁100に仮想的に表示された仮想画像110aを視認すると、視線検出部271が仮想画像110aへの視線方向を検出し、視線方向を制御部20に送信する。
制御部20は、視線検出部271により検出された視線方向が壁100に仮想的に表示された仮想画像110aに向くと、仮想カメラ画像生成手段203により仮想カメラ画像110bを生成させる。仮想カメラ画像生成手段203は、当該HMD装置2Aを使用する第1の者の眼に仮想カメラ29を仮想的に配置し、仮想カメラ29により仮想画像110aを仮想的に撮影した仮想カメラ画像110bを生成する。
HMD装置2の送信手段200は、仮想カメラ画像生成手段203により生成された仮想カメラ画像110bをユーザIDとともに情報処理装置3に送信する。
情報処理装置3の受付手段301は、仮想カメラ画像110bをユーザIDとともに受信すると(S5:Yes)、閲覧判定手段305は、前述したように仮想カメラ画像110bに基づいて仮想画像110aを閲覧したか否かを判定する(S6)。閲覧判定手段305は、仮想画像110aを閲覧したと判定すると(S6:Yes)、ユーザID及びコンテンツIDに基づいて、ユーザ属性テーブル311の「閲覧回数」欄の当該ユーザに対応する閲覧回数を更新する(S7)。
上記ステップS5において、予め定められた時間を経過しても仮想カメラ画像110bを受信しなければ(S8:Yes)、当該HMD装置2Aを強制的にログアウトする(S9)。
(閲覧回数の算出例)
図11は、閲覧判定手段305による閲覧回数の算出例を説明するための図である。同図中、111a〜116aは、ユーザのAさんが使用するHMD装置2により仮想的に撮影された仮想カメラ画像を示す。また、同図中、111b〜114bは、ユーザのBさんが使用するHMD装置2により仮想的に撮影された仮想カメラ画像を示す。閲覧判定手段305は、以下のように閲覧を判定する。
ユーザのAさん及びBさんは、仮想画像110aが表示されている場所の前を図10において左側から右側に通過している。ユーザのAさんは、仮想画像110aが表示されている場所の前を通過する間に仮想画像110aに3回接近し、ユーザのBさんは、Aさんほど接近していないが、仮想画像110aに1回接近している。
Aさんが仮想画像110aに最初に接近したときの仮想カメラ画像112aは、歪み率が大きく、面積も小さいため、閲覧したとは判定されない。Aさんが仮想画像110aに2回目に接近したときの仮想カメラ画像113aは、歪み率が小さく、面積も大きいため、閲覧したと判定される。Aさんが仮想画像110aに3回目に接近したときは、仮想カメラ画像115aは、面積は大きいが、歪み率が大きいため、閲覧したとは判定されない。Bさんが仮想画像110aに最も接近したときの仮想カメラ画像112bは、面積も小さく、歪み率が大きいため、閲覧したとは判定されない。
(位置情報の変形例)
上記実施の形態では、予め定められた場所を示すものとしてコード画像101を用いたが、HMD装置2の位置を示す位置情報を用いてもよい。すなわち、コンテンツテーブル312の「位置情報」欄に記録された位置情報が示す位置と、HMD装置2の位置との間の距離が予め定められた値(例えば、3m)以下の場合に、対応するコンテンツデータ及びコメント情報コンテンツテーブル312から取得し、仮想画像を生成し表示してもよい。この変形例によれば、コード画像を省くことができる。
[第2の実施の形態]
図12は、本発明の第2の実施の形態に係る情報処理システムの構成例を示す図である。第1の実施の形態では、公開情報は予め定められた場所の位置を示す位置情報に紐付けられているが、本実施の形態は、公開情報は予め定められた場所の位置を示す位置情報、及び当該場所に置かれた対象物の特徴情報に紐付けられたものである。対象物は、例えば、飲料ボトル、携帯型情報端末装置等の移動可能な物である。以下、第1の実施の形態と異なる点を中心に説明する。
この情報処理システム1は、第1の実施の形態と同様に、第1の者が使用するHMD装置2A、第2の者が使用するHMD装置2B、及び情報処理装置3を備える。
図12は、例えば、オフィスの談話室で第1の者がHMD装置2Aを装着し、第2の者がHMD装置2Bを装着している状態を示す。談話室には、複数のテーブル121、122が配置され、一方のテーブル121の上面121aに対象物120が置かれているが他方のテーブル122の上面122aには何も置かれていない。対象物120が置かれたテーブル121は、予め定められた場所(特定の場所ともいう。)の一例である。
図13は、第2の実施の形態に係るHMD装置2の制御系の一例を示す図である。本実施の形態のHMD装置2は、制御部20が仮想カメラ画像生成手段203を備えていないが、抽出手段204を備えている点が第1の実施の形態のHMD装置2とは異なる。
HMD装置2の制御部20は、CPU(Central Processing Unit)、インターフェース等から構成されている。CPUは、記憶部21に記憶されたプログラムに従って動作することにより送信手段200、受信手段201、表示制御手段202、抽出手段204等として機能する。
抽出手段204は、メッセージの登録モードにおいて、外向きカメラ23Aにより撮影された対象物120の画像から対象物120の特徴情報(形状、色等)を抽出し、抽出した特徴情報を記憶部21に記憶する。
送信手段200は、メッセージの登録モードにおいて、音声認識部272により認識された音声データ、及び記憶部21に記憶した特徴情報をユーザIDとともに情報処理装置3に送信する。情報処理装置3に送信した音声データ、特徴情報及びユーザIDは、対象物テーブル313に登録される。
図14は、第2の実施の形態に係る情報処理装置の制御系の一例を示すブロック図である。本実施の形態の情報処理装置3は、閲覧判定手段305を備えていないが、登録手段306を備えている点が第1の実施の形態の情報処理装置3とは異なる。
情報処理装置3は、第1の実施の形態と同様に、制御部30、記憶部31、無線通信部32を備える。
制御部30は、CPU(Central Processing Unit)、インターフェース等から構成されている。CPUは、プログラム310に従って動作することにより受信手段301、取得手段302、表示画像生成手段303、送信手段304、登録手段306等として機能する。
登録手段306は、第1の者が使用するHMD2Aから送信された特徴情報、音声データ及びユーザIDに基づいて、必要な情報を対象物テーブル313(図16参照)に登録する。登録の方法の詳細については、後述する。
記憶部31は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等から構成され、プログラム310、ユーザ属性テーブル311a(図15参照)、対象物テーブル313(図16参照)、地図データ314等が記憶されている。
ユーザ属性テーブル311aは、第1の実施の形態のユーザ属性テーブル311と同様に、「ユーザID」欄、「ユーザ名」欄、「所属部署」欄、及び「ユーザ種別」欄を有するが、「コンテンツID」欄、及び「閲覧回数」欄を有していない。
地図データ314は、HMD装置2が移動可能な空間、例えば、建物内の空間であって、対象物が置かれる複数の場所の名称と、当該場所の位置を示す位置情報とを含む。なお、当該場所は1つでもよい。
(対象物テーブルの構成)
図16は、対象物テーブル313の一例を示す図である。対象物テーブル313は、対象物を識別する対象物IDが記録される「対象物ID」欄と、対象物の特徴情報が記録される「特徴情報」欄と、対象物が置かれる場所の位置を示す位置情報が記録される「位置情報」欄と、メッセージを公開する有効期間が記録される「有効期間」欄と、公開相手が記録される「公開相手」欄と、メッセージ付与者のユーザIDが記録される「メッセージ付与者のユーザID」欄と、付与されたメッセージが記録される「メッセージ」欄とを有する。付与されたメッセージは、テキスト、音声信号、画像又は動画でもよく、これらの組合せでもよい。図12に示す場合は、対象物120は、テーブル121の上面121aに置かれているため、「位置情報」欄には、テーブル121の上面121aの位置情報が記録される。メッセージを位置情報及び対象物120の特徴情報と紐付けることで、同一の場所(例えば、テーブル121)に複数の対象物が存在していても対象物ごとにメッセージを仮想画像として表示することが可能になる。
(第2の実施の形態の動作)
次に、情報処理システム1の動作の一例について、図17を参照し、図18のフローチャートに従って説明する。
(1)メッセージの登録
例えば、HMD装置2Aを使用する第1の者が手を動かし、対象物120に紐付けてメッセージの登録を指示するジェスチャー(第3のジェスチャー)を行うと、HMD装置2Aのジェスチャー検出部270は、センサ部24の距離画像センサが取得した距離画像から第3のジェスチャーを検出し、それに対応する第3のコマンドを制御部20に送信する。
制御部20は、ジェスチャー検出部270からの第3のコマンドに基づいて、メッセージの登録モードに移行する。メッセージの登録モードにおいて、制御部20は、外向きカメラ23Aを制御して、例えば、テーブル121の上面121aに置かれている対象物120を撮影する。制御部20の抽出手段204は、撮影した対象物120の画像から対象物120の特徴情報を抽出する。抽出手段204は、抽出した特徴情報を記憶部21に記憶する。
次に、第1の者は、対象物120に紐付けて登録するメッセージ、有効期間、テーブル121の位置、及び公開相手を音声により音声入力部25に入力する。音声入力部25は、第1の者の音声を音声信号として入力する。音声認識部272は、入力された音声信号を音声データに変換し、記憶部21に記憶する。例えば、図17に示すように、「これは私のです。飲まないでください。」と話すと、そのメッセージが情報処理装置3の対象物テーブル313に登録される。
送信手段200は、記憶部21に記憶した対象物120の特徴情報、及び音声データを、自己を識別するユーザIDとともに情報処理装置3に送信する。
情報処理装置3の登録手段306は、第1の者が使用するHMD2Aから送信された特徴情報、音声データ及びユーザIDを対象物テーブル313に登録する。具体的には、登録手段306は、対象物IDを発行し、対象物IDを「対象物ID」欄、特徴情報を「特徴情報」欄、ユーザIDを「メッセージ付与者のユーザID」欄に登録し、音声データに含まれる有効期間、公開相手、メッセージをそれぞれ「有効期間」欄、「公開相手」欄、「メッセージ」欄に登録する。音声データに含まれる場所に対応する位置情報を地図データ314から取得し、取得した位置情報を「位置情報」欄に登録する。
(2)対象物の画像の受信
メッセージを登録した第1の者と同じグループに所属する第1の者がHMD装置2Aを装着して手を動かし、テーブル121の上面121aに置かれている対象物120の撮影を指示するジェスチャー(第4のジェスチャー)を行うと、HMD装置2Aのジェスチャー検出部270は、センサ部24の距離画像センサが取得した距離画像から第4のジェスチャーを検出し、それに対応する第4のコマンドを制御部20に送信する。
制御部20は、ジェスチャー検出部270からの第4のコマンドに基づいて、外向きカメラ23Aを制御して対象物120を撮影する。抽出手段204は、対象物120の画像から対象物120の特徴情報を抽出し、記憶部21に記憶する。制御部20の送信手段200は、記憶部21が記憶する特徴情報を、当該HMD装置2Aの位置情報及びユーザIDとともに情報処理装置3に送信する。
情報処理装置3の受信手段301は、HMD装置2Aから送信された対象物120の特徴情報、位置情報、ユーザIDを受信する(S1:Yes)。
(3)付与されたメッセージの取得
取得手段302は、受信手段301が受信した対象物120の特徴情報、位置情報が対象物テーブル313に記録されているか否かを判断する(S12)。対象物テーブル313に記録されている位置情報が示す位置と、HMD装置2から送信された位置情報が示す位置との間の距離が予め定められた距離(例えば、3m)以下の場合は、取得手段302は、HMD装置2から送信された位置情報は、対象物テーブル313に記録されていると判断する。
対象物120の特徴情報が対象物テーブル313に記録されている場合は(S12:Yes)、取得手段302は、仮想画像を生成するのに必要な情報を対象物テーブル313から取得する(S13)。すなわち、取得手段302は、現在が有効期間に含まれている場合には、対象物テーブル313から位置情報、公開相手、メッセージ付与者のユーザID及びメッセージを取得する。
(4)表示画像の生成
表示画像生成手段302は、取得手段302が取得した情報から表示画像を生成する(S14)。図17に示す場合は、表示画像には、メッセージの他に、公開相手の情報として、例えば「to ○○グループのメンバ」と、メッセージの発信者の情報「from ××」が含まれる。表示画像は、2次元の画像である。
(5)表示画像及び位置情報の送信
送信手段303は、表示画像生成手段302が生成した表示画像及び位置情報を公開相手のHMD装置2に送信する(S15)。
HMD装置2の表示制御手段202は、表示画像及び位置情報に基づいて表示画像が対象物の近傍に仮想画像110aが視認されるよう表示部22を制御する。
例えば、第1の者には、図17に示すように、対象物の近傍に仮想的に表示された「to ○○グループのメンバ“これは私のです。飲まないで下さい。from ××」の情報を含む仮想画像110aが視認されるが、第1の者とは同一の組織に属するが、グループが異なる第2の者には、この仮想画像110aは視認されない。したがって、特定の場所を介して特定の人との間で情報の共有が可能になる。
(変形例1)
図19(a)〜(e)は、変形例を説明するための図である。第2の実施の形態では、メッセージを登録する際に、ジェスチャーでメッセージの登録モードに移行し、メッセージの登録モードの中で特徴情報の抽出、音声の入力を行ったが、この変形例1は、HMD装置2の使用者の手が対象物120に触れるごとに処理を逐次行うものである。なお、テーブル121の天板121aに対象物120が置かれているものとする。
図19(a)に示すように、HMD装置2Aの使用者であるAさんの手が対象物120に触れたら、対象物120を撮影し、撮影した画像から特徴情報を抽出する。
すなわち、HMD装置2Aのジェスチャー検出部270は、センサ部24の距離画像センサが取得した距離画像から対象物120に手が触れたことを示すジェスチャーを検出し、それに対応するコマンドを制御部20に送信する。制御部20は、ジェスチャー検出部270からのコマンドに基づいて、外向きカメラ23Aを制御して対象物120の画像を撮影する。抽出手段204は、外向きカメラ23Aにより撮影された対象物120の画像から対象物120の特徴情報を抽出し、記憶部21に記憶する。
次に、図19(b)に示すように、HMD装置2Aの使用者であるAさんの手が対象物120に触れたら、メッセージ(例えば、「お疲れ様でした。」)140等を音声入力する。
すなわち、HMD装置2Aのジェスチャー検出部270は、センサ部24の距離画像センサが取得した距離画像から対象物120に手が触れたことを示すジェスチャーを検出し、それに対応するコマンドを制御部20に送信する。制御部20は、ジェスチャー検出部270からのコマンドに基づいて、音声入力部25により当該使用者の音声を入力し、音声認識部272により音声データに変換し、音声データを記憶部21に記憶する。
次に、図19(c)に示すように、HMD装置2Aの使用者であるAさんの手が対象物120に触れたら、特徴情報、メッセージ等の音声データ、及びユーザIDを情報処理装置3に送信する。
すなわち、HMD装置2Aのジェスチャー検出部270は、センサ部24の距離画像センサが取得した距離画像から対象物120に手が触れたことを示すジェスチャーを検出し、それに対応するコマンドを制御部20に送信する。制御部20の送信手段200は、記憶部21に記憶された特徴情報及び音声データをユーザIDとともに情報処理装置3に送信する。
情報処理装置3の登録手段306は、HMD装置2Aから送信された特徴情報、音声データ及びユーザIDを対象物テーブル313に記録する。
次に、図19(d)に示すように、Bさんが使用するHMD装置2Bで対象物120を撮影して特徴情報を抽出する。
すなわち、HMD装置2Bの使用者であるBさんが手を動かして対象物120の撮影を指示する動作を行うと、HMD装置2Bのジェスチャー検出部270は、センサ部24の距離画像センサが取得した距離画像から対象物120の撮影を指示するジェスチャーを検出し、それに対応するコマンドを制御部20に送信する。
制御部20は、ジェスチャー検出部270からのコマンドに基づいて、外向きカメラ23Aを制御して対象物120の画像を撮影する。抽出手段204は、外向きカメラ23Aにより撮影された対象物120の画像から対象物120の特徴情報を抽出する。送信手段200は、抽出された特徴情報をBさんのユーザIDとともに情報処理装置3に送信する。
次に、図19(e)に示すように、表示画像生成手段303は、表示画像を生成する。送信手段304は、表示画像及び位置情報をBさんが使用するHMD装置2Bに送信する。
HMD装置2Bの表示制御手段202は、仮想画像141がBさんに視認されるように表示部22を制御する。図19(e)に示す場合は、メッセージの付与者の名前及びメッセージを含む「Aさんより お疲れ様でした。」の仮想画像141がBさんに視認される。
なお、第2の実施の形態において、移動可能な対象物が予め定められた場所から消えた場合、対象物が消えたことを示すHMD装置2からの音声データに基づいて、情報処理装置3の制御部30が当該場所に紐付けられているメッセージ等を対象物テーブル313から削除してもよい。また、同じ特定の場所に移動可能な対象物であって特徴情報が同一の対象物が複数存在する場合は、移動可能な対象物の相対的な位置関係に基づいて当該対象物を特定してもよい。
また、第2の実施の形態は、対象物の特徴情報をHMD装置2が抽出したが、情報処理装置3が抽出してもよい。この場合、HMD装置2が対象物の画像を情報処理装置3に送信し、情報処理装置3の制御部30が対象物120の画像から対象物120の特徴情報を抽出する。
以上、本発明の実施の形態を説明したが、本発明の実施の形態は上記実施の形態に限定されるものではなく、本発明の要旨を変更しない範囲内で種々の変形、実施が可能である。例えば、各実施の形態では、表示装置として光透過方式の頭部装着型表示装置について説明したが、本発明は、現実空間(外景)を撮影した画像に表示画像を仮想画像として重ねて表示するスマートフォン等の携帯型情報端末にも同様に適用することができる。
また、情報処理装置3が有する機能の一部をHMD装置2に移してもよく、HMD装置2が有する機能の一部を情報処理装置3に移してもよい。例えば、HMD装置2が有する音声認識機能を情報処理装置3に移し、HMD装置2から音声信号を情報処理装置3に送信し、情報処理装置3の音声認識機能により音声信号を音声データに変換してもよい。
制御部20、30の各手段は、それぞれ一部又は全部を再構成可能回路(FPGA:Field Programmable Gate Array)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)等のハードウエア回路によって構成してもよい。
また、本発明の要旨を変更しない範囲内で、上記実施の形態の構成要素の一部を省くことや変更することが可能である。また、本発明の要旨を変更しない範囲内で、上記実施の形態のフローにおいて、ステップの追加、削除、変更、入替え等が可能である。また、上記実施の形態で用いたプログラムをCD−ROM等のコンピュータ読み取り可能な記録媒体に記録して提供することができる。また、上記実施の形態で用いたプログラムをクラウドサーバ等の外部サーバに格納しておき、ネットワークを介して利用することができる。
1…情報処理システム、2、2A、2B…HMD装置、3…情報処理装置、20…制御部、21…記憶部、22…表示部、23A…外向きカメラ、23B…内向きカメラ、24…センサ部、25…音声入力部、26…位置検出部、27…処理部、28…無線通信部、30…制御部、31…記憶部、32…無線通信部、100…壁、101…コード画像、110a…仮想画像、110b、111a〜116a、111b〜114b…仮想カメラ画像、120…対象物、121、122…テーブル、121a、122a…上面、140…メッセージ、141…仮想画像、200…送信手段、201…受信手段、202…表示制御手段、203…仮想カメラ画像生成手段、204…抽出手段、220…フレーム、221…透過型ディスプレイ、221…透過型ディスプレイ、221a…右側透過型ディスプレイ、221b…左側透過型ディスプレイ、270…ジェスチャー検出部、271…視線検出部、272…音声認識部、301…受信手段、302…取得手段、303…表示画像生成手段、304…送信手段、305…閲覧判定手段、306…登録手段、310…プログラム、311、311a…ユーザ属性テーブル、312…コンテンツテーブル、313…対象物テーブル、314…地図データ

Claims (11)

  1. 現実空間に仮想空間の画像が重なるように表示する表示装置から、当該表示装置の使用者の識別情報、及び予め定められた場所を示す位置情報を受け付ける受付手段と、
    前記位置情報に紐付けられた公開情報を、前記使用者の識別情報がある組織に属するグループとして公開相手に含まれている場合に、前記予め定められた場所又はその近傍に前記仮想空間の画像として表示するよう前記表示装置に指示する指示手段と、を備えた情報処理装置。
  2. 前記表示装置は、撮影機能を有し、
    前記受付手段は、前記表示装置により前記予め定められた場所を撮影した画像を受け付けし、
    前記画像に含まれるコード画像から前記位置情報を取得する取得手段、
    をさらに備えた請求項1に記載の情報処理装置。
  3. 前記公開情報は、前記使用者と同じグループに属している者が付加した情報を含む、
    請求項1又は2に記載の情報処理装置。
  4. 前記公開情報は、前記使用者と同じグループに属している者の閲覧回数を含む、
    請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記表示装置は、前記仮想空間の画像を仮想的に撮影する仮想カメラを備え、
    前記閲覧回数は、前記仮想カメラによって撮影された仮想カメラ画像の歪み率及び面積により求められた関心度が閾値以上の場合に1回として計数する、
    請求項4に記載の情報処理装置。
  6. 前記表示装置は、前記仮想空間の画像を仮想的に撮影する仮想カメラを備え、
    前記閲覧回数は、前記仮想カメラによって撮影された仮想カメラ画像の撮影時間が予め定められた時間以上連続する場合に1回として計数する、
    請求項4に記載の情報処理装置。
  7. 前記公開情報は、前記位置情報及び対象物の特徴情報に紐付けられ、
    前記指示手段は、前記公開情報を前記対象物又はその近傍に前記仮想空間の画像として表示するよう前記表示装置に指示する、
    請求項1から6のいずれか1項に記載の情報処理装置。
  8. 前記対象物は、前記予め定められた場所を移動可能な物である、
    請求項6又は7に記載の情報処理装置。
  9. 前記受付手段は、前記表示装置の位置を示す位置情報を受け付けし、
    前記指示手段は、前記表示装置の位置が前記予め定められた場所から予め定められた距離以下の場合に、前記公開情報を前記仮想空間の画像として表示するよう指示する、
    請求項1から8のいずれか1項に記載の情報処理装置。
  10. 現実空間に仮想空間の画像が重なるように表示する表示装置と、
    前記表示装置から当該表示装置の使用者の識別情報、及び予め定められた場所を示す位置情報を受け付ける受付手段と、
    前記位置情報に紐付けられた公開情報を、前記使用者の識別情報がある組織に属するグループとして公開相手に含まれている場合に、前記予め定められた場所又はその近傍に前記仮想空間の画像として表示するよう前記表示装置に指示する指示手段と、
    を備えた情報処理システム。
  11. コンピュータを、
    現実空間に仮想空間の画像が重なるように表示する表示装置から、当該表示装置の使用者の識別情報、及び予め定められた場所を示す位置情報を受け付ける受付手段と、
    前記位置情報に紐付けられた公開情報を、前記使用者の識別情報がある組織に属するグループとして公開相手に含まれている場合に、前記予め定められた場所又はその近傍に前記仮想空間の画像として表示するよう前記表示装置に指示する指示手段、
    として機能させるためのプログラム。
JP2017180369A 2017-09-20 2017-09-20 情報処理装置、情報処理システム及びプログラム Pending JP2019057057A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017180369A JP2019057057A (ja) 2017-09-20 2017-09-20 情報処理装置、情報処理システム及びプログラム
US16/129,810 US11108990B2 (en) 2017-09-20 2018-09-13 Information processing apparatus, information processing system, and non-transitory computer readable medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017180369A JP2019057057A (ja) 2017-09-20 2017-09-20 情報処理装置、情報処理システム及びプログラム

Publications (1)

Publication Number Publication Date
JP2019057057A true JP2019057057A (ja) 2019-04-11

Family

ID=65720906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017180369A Pending JP2019057057A (ja) 2017-09-20 2017-09-20 情報処理装置、情報処理システム及びプログラム

Country Status (2)

Country Link
US (1) US11108990B2 (ja)
JP (1) JP2019057057A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022079067A (ja) * 2020-11-16 2022-05-26 Kddi株式会社 スマートグラス、プログラム及び表示制御方法
JP2022542490A (ja) * 2019-10-10 2022-10-03 メディシンキュー カンパニー,リミティド スマートグラスの視線トラッキングシステムおよびその方法
CN115243062A (zh) * 2022-06-16 2022-10-25 科大讯飞股份有限公司 场景展示方法、装置、屏显设备、电子设备和存储介质
WO2023223750A1 (ja) * 2022-05-18 2023-11-23 株式会社Nttドコモ 表示装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7106851B2 (ja) * 2017-12-12 2022-07-27 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2022006580A (ja) * 2020-06-24 2022-01-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びコンピュータプログラム
CN114710640B (zh) * 2020-12-29 2023-06-27 华为技术有限公司 基于虚拟形象的视频通话方法、装置和终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0934874A (ja) * 1995-07-21 1997-02-07 Nippon Telegr & Teleph Corp <Ntt> 分散協調空間構成方法及びシステム
JP2012118882A (ja) * 2010-12-02 2012-06-21 Ns Solutions Corp 情報処理システム、その制御方法及びプログラム
JP2012221249A (ja) * 2011-04-08 2012-11-12 Sony Corp 表示制御装置、表示制御方法、およびプログラム
JP2014203194A (ja) * 2013-04-03 2014-10-27 キヤノン株式会社 仮想オブジェクト表示制御装置、仮想オブジェクト表示制御方法、およびプログラム
JP2016115148A (ja) * 2014-12-15 2016-06-23 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282163A (ja) 2009-06-05 2010-12-16 Patent Trust World Kk 動画表示機能付ポスター
US9129295B2 (en) * 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
JP5780372B1 (ja) 2014-10-20 2015-09-16 良幸 香取 拡張現実システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0934874A (ja) * 1995-07-21 1997-02-07 Nippon Telegr & Teleph Corp <Ntt> 分散協調空間構成方法及びシステム
JP2012118882A (ja) * 2010-12-02 2012-06-21 Ns Solutions Corp 情報処理システム、その制御方法及びプログラム
JP2012221249A (ja) * 2011-04-08 2012-11-12 Sony Corp 表示制御装置、表示制御方法、およびプログラム
JP2014203194A (ja) * 2013-04-03 2014-10-27 キヤノン株式会社 仮想オブジェクト表示制御装置、仮想オブジェクト表示制御方法、およびプログラム
JP2016115148A (ja) * 2014-12-15 2016-06-23 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022542490A (ja) * 2019-10-10 2022-10-03 メディシンキュー カンパニー,リミティド スマートグラスの視線トラッキングシステムおよびその方法
JP7209128B2 (ja) 2019-10-10 2023-01-19 メディシンキュー カンパニー,リミティド スマートグラスの視線トラッキングシステムおよびその方法
JP2022079067A (ja) * 2020-11-16 2022-05-26 Kddi株式会社 スマートグラス、プログラム及び表示制御方法
JP7360775B2 (ja) 2020-11-16 2023-10-13 Kddi株式会社 スマートグラス、プログラム及び表示制御方法
WO2023223750A1 (ja) * 2022-05-18 2023-11-23 株式会社Nttドコモ 表示装置
CN115243062A (zh) * 2022-06-16 2022-10-25 科大讯飞股份有限公司 场景展示方法、装置、屏显设备、电子设备和存储介质
CN115243062B (zh) * 2022-06-16 2024-06-07 科大讯飞股份有限公司 场景展示方法、装置、屏显设备、电子设备和存储介质

Also Published As

Publication number Publication date
US11108990B2 (en) 2021-08-31
US20190089930A1 (en) 2019-03-21

Similar Documents

Publication Publication Date Title
JP2019057057A (ja) 情報処理装置、情報処理システム及びプログラム
US10839605B2 (en) Sharing links in an augmented reality environment
US10223832B2 (en) Providing location occupancy analysis via a mixed reality device
US10677596B2 (en) Image processing device, image processing method, and program
CN110954083B (zh) 移动设备的定位
CN106575425B (zh) 经由地理围栏边界段穿越进行的调节
JP7056055B2 (ja) 情報処理装置、情報処理システム及びプログラム
KR20190075988A (ko) 이미지를 분석하고 피드백을 제공하는 웨어러블 기기 및 방법
US20170359456A1 (en) Communication system comprising head wearable devices
JPWO2016021252A1 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
JP2019061590A (ja) 情報処理装置、情報処理システム及びプログラム
CN108351689B (zh) 用于显示处于预定义区域中的对象的全息图像的方法和系统
CN113678171A (zh) 信息处理装置、信息处理方法和记录介质
JP7013757B2 (ja) 情報処理装置、情報処理システム及びプログラム
CN112565165B (zh) 基于光通信装置的交互方法和系统
JP2018137683A (ja) 通報支援システム、携帯端末、通報支援方法およびプログラム
CN111859199A (zh) 在环境中定位内容
JP6840567B2 (ja) 通報支援システム、携帯端末、通報支援方法およびプログラム
US20220084258A1 (en) Interaction method based on optical communication apparatus, and electronic device
TWI747333B (zh) 基於光通信裝置的交互方法、電子設備以及電腦可讀取記錄媒體
WO2024116270A1 (ja) 携帯情報端末及び仮想現実表示システム
WO2021044588A1 (ja) メッセージ送信システム及びメッセージ送信方法
JP2024033277A (ja) 通信システム、情報処理システム、映像再生方法、プログラム
JP2024016454A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016075530A (ja) ナビゲーション装置及びナビゲーション方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211124