JP2019061590A - 情報処理装置、情報処理システム及びプログラム - Google Patents

情報処理装置、情報処理システム及びプログラム Download PDF

Info

Publication number
JP2019061590A
JP2019061590A JP2017187305A JP2017187305A JP2019061590A JP 2019061590 A JP2019061590 A JP 2019061590A JP 2017187305 A JP2017187305 A JP 2017187305A JP 2017187305 A JP2017187305 A JP 2017187305A JP 2019061590 A JP2019061590 A JP 2019061590A
Authority
JP
Japan
Prior art keywords
information
display
image
entry
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017187305A
Other languages
English (en)
Inventor
佑介 山浦
Yusuke Yamaura
佑介 山浦
誓哉 稲木
Seiya Inagi
誓哉 稲木
橋本 一成
Kazunari Hashimoto
一成 橋本
英剛 出雲
Hidetake Izumo
英剛 出雲
忠秋 佐藤
Tadaaki Sato
忠秋 佐藤
哲平 青木
Teppei Aoki
哲平 青木
大輔 安岡
Daisuke Yasuoka
大輔 安岡
宏 梅基
Hiroshi Umeki
宏 梅基
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017187305A priority Critical patent/JP2019061590A/ja
Priority to CN201810431550.7A priority patent/CN109582123B/zh
Priority to US16/130,195 priority patent/US11397320B2/en
Publication of JP2019061590A publication Critical patent/JP2019061590A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】記入対象に記入した情報に関連する情報を記入対象の近傍に仮想的に表示することができる情報処理装置、情報処理システム及びプログラムを提供する。【解決手段】情報処理装置3は、現実空間に仮想空間の画像が重なるように表示するとともに撮影機能を有する表示装置により撮影された画像に基づいて、表示装置の使用者の動きを検出する検出手段と、検出された使用者の動きに基づいて、記入対象に記入される記入情報に関連する関連情報を仮想空間の画像として記入対象の近傍に表示するよう表示装置に指示する指示手段とを備える。【選択図】図3

Description

本発明は、情報処理装置、情報処理システム及びプログラムに関する。
近年、現実世界環境の実際の直視を可能にし、同時に仮想物体の画像をエンドユーザの視野に投影し、それによりエンドユーザによって知覚される現実世界環境を、仮想物体を用いて拡張する電子デバイスが提案されている(例えば、特許文献1参照。)。
特許文献1に記載された電子デバイスは、個々に識別され、又は特定のグループに所属するものとして識別され得る特定の人物がHMD(ヘッドマウントディスプレイ)の視野内に存在する場合、又は特定の人物がHMDから特定の距離内に存在する場合、その特定の人物に関連付けられたリマインダが表示され得る拡張現実環境を、HMDのユーザに対して生成および表示するものである。
特表2016−506565号公報
本発明の課題は、記入対象に記入した情報に関連する情報を記入対象の近傍に仮想的に表示することができる情報処理装置、情報処理システム及びプログラムを提供することにある。
[1]現実空間に仮想空間の画像が重なるように表示するとともに撮影機能を有する表示装置により撮影された画像に基づいて、前記表示装置の使用者の動きを検出する検出手段と、検出された前記使用者の動きに基づいて、記入対象に記入される記入情報に関連する関連情報を前記仮想空間の画像として前記記入対象の近傍に表示するよう前記表示装置に指示する指示手段と、を備えた情報処理装置。
[2]前記関連情報は、罫線である、
前記[1]に記載の情報処理装置。
[3]前記指示手段は、前記罫線を前記記入情報の大きさに応じて変更するよう指示する、前記[2]に記載の情報処理装置。
[4]前記検出手段は、前記記入対象に記入するための筆記手段を持つ前記使用者の手指の動きを検出し、前記指示手段は、前記使用者の手指の動きに応じた前記関連情報を表示するよう指示する、前記[1]から[3]のいずれか1つに記載の情報処理装置。
[5]前記指示手段は、前記関連情報を前記記入対象の表面、前方又は隣接位置に表示するよう指示する、前記[1]から[4]のいずれか1つに記載の情報処理装置。
[6]前記関連情報は、前記記入対象への前記記入情報の記入を支援する支援情報である、前記[1]から[5]のいずれか1つに記載の情報処理装置。
[7]前記支援情報は、検出された前記使用者の空中での手書き操作に対する単語候補である、前記[6]に記載の情報処理装置。
[8]前記支援情報は、前記記入情報が誤記を含む場合に前記誤記の箇所を示す情報である、前記[6]に記載の情報処理装置。
[9]前記支援情報は、前記記入情報に関連するファイルリスト又はWeb検索結果である、前記[1]から[5]のいずれか1つに記載の情報処理装置。
[10]前記指示手段は、前記記入情報を含む前記関連情報を前記記入対象の前方の位置に表示するよう指示し、前記記入情報に対する前記使用者の動作に基づいて処理を実行する処理手段をさらに備えた、前記[1]から[9]のいずれか1つに記載の情報処理装置。
[11]前記表示装置は、音声入力部を備え、前記音声入力部から取得した音声の内容から主要な部分を抽出して文字に変換する変換手段と、をさらに備え、前記指示手段は、前記変換された文字を前記関連情報として表示するよう指示する、前記[1]から[10]のいずれか1つに記載の情報処理装置。
[12]現実空間に仮想空間の画像が重なるように表示するとともに撮影機能を有する表示装置と、前記表示装置により撮影された画像に基づいて、前記表示装置の使用者の動きを検出する検出手段と、検出された前記使用者の動きに基づいて、記入対象に記入される記入情報に関連する関連情報を前記仮想空間の画像として前記記入対象の近傍に表示するよう前記表示装置に指示する指示手段と、を備えた情報処理システム。
[13]コンピュータを現実空間に仮想空間の画像が重なるように表示するとともに撮影機能を有する表示装置により撮影された画像に基づいて、前記表示装置の使用者の動きを検出する検出手段と、検出された前記使用者の動きに基づいて 、記入対象に記入される記入情報に関連する関連情報を前記仮想空間の画像として前記記入対象の近傍に表示するよう前記表示装置に指示する指示手段、として機能させるためのプログラム。
請求項1、12、13に係る発明によれば、記入対象に記入した情報に関連する情報を記入対象の近傍に仮想的に表示するよう表示装置に指示することができる。
請求項2に係る発明によれば、記入対象の近傍に罫線を仮想的に表示するよう表示装置に指示することができる。
請求項3に係る発明によれば、記入情報の大きさに応じた罫線を仮想的に表示するよう表示装置に指示することができる。
請求項4に係る発明によれば、使用者の手指の動きに応じて関連情報を仮想的に表示するよう表示装置に指示することができる。
請求項5に係る発明によれば、関連情報を記入対象の表面、前方又は隣接位置に仮想的に表示するよう表示装置に指示することができる。
請求項6に係る発明によれば、記入情報の記入を支援する支援情報を表示するよう表示装置に指示することができる。
請求項7に係る発明によれば、検出された使用者の空中での手書き操作に対する単語候補を表示するよう表示装置に指示することができる。
請求項8に係る発明によれば、記入情報が誤記を含む場合に誤記の箇所を示す情報を表示するよう表示装置に指示することができる。
請求項9に係る発明によれば、記入情報に関連するファイルリスト及びWeb検索結果を表示するよう表示装置に指示することができる。
請求項10に係る発明によれば、使用者が記入対象に直接接触することなく、使用者の動作に基づく処理を実行することができる。
請求項11に係る発明によれば、参加者の音声から抽出した文字を関連情報として仮想的に表示することができる。
図1(a)は、本発明の実施の形態に係る情報処理システムの構成例を示す図、図1(b)は、ヘッドマウントディスプレイ装置の一例を示す外観図である。 図2は、HMD装置の制御系の一例を示す図である。 図3は、情報処理装置の制御系の一例を示すブロック図である。 図4は、仮想画像の一例を示す図であり、(a)は、罫線に係る仮想画像の一例を示す図、(b)は、(a)に示す罫線と異なる間隔を有する罫線に係る仮想画像を示す図、(c)は、升目状の罫線に係る仮想画像の一例を示す図である。 図5は、本発明の実施の形態に係る情報処理装置の動作の一例を示すフローチャートである。 図6は、支援情報の一例を示す図である。 図7は、支援情報の一例を示す図である。 図8は、支援情報の一例を示す図である。 図9は、関連情報の一例を示す図である。 図10は、関連情報の一例を示す図である。
以下、本発明の実施の形態について図面を参照して説明する。なお、各図中、実質的に同一の機能を有する構成要素については、同一の符号を付してその重複した説明を省略する。
[実施の形態の要約]
本実施の形態に係る情報処理装置は、現実空間に仮想空間の画像が重なるように表示するとともに撮影機能を有する表示装置により撮影された画像に基づいて、表示装置の使用者の動きを検出する検出手段と、検出された前記使用者の動きに基づいて、記入対象に記入される記入情報に関連する関連情報を仮想空間の画像として記入対象の近傍に表示するよう表示装置に指示する指示手段とを備える。
「表示装置」には、使用者の頭部に装着され、使用者が表示画像を仮想空間の画像として視認すると同時に現実空間(外景)も直接視認可能な光透過方式の頭部装着型表示装置、外景を撮影した画像に表示画像を仮想空間の画像として重ねて表示する携帯型情報端末等が含まれる。光透過方式の頭部装着型表示装置は、ゴーグル型でもメガネ型でもよい。携帯型情報端末は、頭部装着型でもよい。
「記入対象」とは、筆記手段によって記入される対象をいい、例えば、ホワイトボードや、テーブル、壁等に貼り付けたホワイトボードの代わりになるプラスチックシート等が該当する。なお、記入対象は、例えば、アノトパターン(微細なドットパターン)等の座標が埋め込まれたものでもよい。筆記手段は、記入対象に応じたものであり、例えば、ホワイトボード用のペン(ホワイトボードマーカ)、アノトパターンを読み取れるデジタルペン等が該当する。
関連情報とは、記入情報に関連する情報をいう。関連情報には、例えば、文字の入力位置や文字の大きさをガイドする罫線に係る表示画像や、ファイルやWeb画像に係る表示画像、使用者による記入対象への記入情報の記入を支援する支援情報が含まれる。
[実施の形態]
図1(a)は、本発明の実施の形態に係る情報処理システムの構成例を示す図、図1(b)は、ヘッドマウントディスプレイ装置の一例を示す外観図である。
この情報処理システム1は、第1の者が使用するヘッドマウントディスプレイ装置(以下「HMD装置」という。)2Aと、第2の者が使用するHMD装置2Bと、各HMD装置2A、2B(これらを総称するときは、以下「HMD装置2」という。)を制御する情報処理装置3と、第1の者が文字や図形等を記入するためのホワイトボード4を備える。HMD装置2と情報処理装置3とは、互いに無線によって通信可能に接続されている。第1の者及び第2の者は、使用者の一例である。ホワイトボード4は、記入対象の一例である。文字や図形は、記入情報の一例である。
このような情報処理システム1は、本実施の形態の場合、例えば、オフィス、公共施設、病院等の会議室、多目的室、談話室、講演会場等で用いられ得る。本実施の形態において、第1の者は、例えば、会議や講義でプレゼンテーションを行うプレゼンテータ(一般的には会議や講義ごとに1人)であり、第2の者は、例えば、会議や講義への参加者(一般的には複数)である。プレゼンテータ及び参加者を総称するときは、以下、使用者又はユーザともいう。
HMD装置2は、現実空間に仮想空間の画像(以下「仮想画像」ともいう。)が重なるように、すなわち仮想画像を仮想的に表示するものである。具体的には、HMD装置2は、図1(b)に示すように、使用者の頭部に装着されるものであり、使用者が仮想画像を視認すると同時に現実空間(外景)も直接視認可能な光透過方式の頭部装着型表示装置である。
HMD装置2は、表示部22と、外向きカメラ23Aとを備える。表示部22は、耳に装着されるフレーム220と、右側透過型ディスプレイ221a及び左側透過型ディスプレイ221b(これらを総称するときは「透過型ディスプレイ221」ともいう。)とを備える。
透過型ディスプレイ221は、例えば、透過型液晶ディスプレイ、透過型有機ELディスプレイ、透過型無機ELディスプレイ等を用いることができる。右側透過型ディスプレイ221aは、右眼用の表示画像を表示し、左側透過型ディスプレイ221bは、左眼用の表示画像を表示する。右眼用の表示画像及び左眼用の表示画像は、外景に重なって仮想画像として使用者に視認される。
図2は、HMD装置2の制御系の一例を示す図である。HMD装置2は、HMD装置2の各部を制御する制御部20と、各種の情報を記憶する記憶部21と、上記の表示部22と、上記の外向きカメラ23Aと、内向きカメラ23Bと、センサ部24と、音声入力部25と、位置検出部26と、処理部27と、無線通信部28とを備える。
制御部20は、CPU(Central Processing Unit)、インターフェース等から構成されている。CPUは、記憶部21に記憶されたプログラム210に従って動作することにより送信手段200、受信手段201、表示制御手段202等として機能する。各手段200〜202の詳細は後述する。
記憶部21は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等から構成され、プログラム、データ等が記憶されている。
外向きカメラ23Aは、対面する者の顔や自分の手等を含む外景を撮影し、撮影した画像(以下、「撮像画像」ともいう。)を制御部20に送る。内向きカメラ23Bは、当該HMD装置2の使用者の眼を撮影し、撮影した画像を制御部20に送る。外向きカメラ23A及び内向きカメラ23Bが撮影する画像は、静止画でも動画でもよい。使用者を顔画像により特定する場合は、静止画でもよいが、使用者の手等を撮影してジェスチャーを検出する場合や視線方向を検出する場合は、動画又は1秒間に複数枚撮影する連続的な静止画が好ましい。
センサ部24は、距離画像センサと、加速度センサと、ジャイロセンサとを備える。距離画像センサは、例えば、赤外線距離センサ、レーザ距離センサ、超音波距離センサ等を用いることができる。距離画像センサは、赤外線、レーザ又は超音波等を照射し、その反射の時間差から画素ごとに距離を読み取って距離画像を得る。加速度センサは、HMD装置2に加わる加速度を検出する。ジャイロセンサは、HMD装置2に加わる角速度を検出する。
音声入力部25は、マイクロフォンで構成され、当該HMD装置2の使用者が発声した音声を電気信号である音声信号に変換して入力する。
処理部27は、外向きカメラ23A、内向きカメラ23B、センサ部24及び音声入力部25により入力された情報を処理するものであり、ジェスチャー検出部270と、視線検出部271と、音声認識部272と備える。
ジェスチャー検出部270は、当該HMD装置2の使用者の動きを示すジェスチャーを検出する。具体的には、ジェスチャー検出部270は、センサ部24の距離画像センサが検出した距離画像から、使用者の手の動き(例えば、2本指によるピンチ動作等)により予め定められた手のジェスチャーを検出する。また、ジェスチャー検出部270は、センサ部24の加速度センサが検出したHMD装置2の加速度と、ジャイロセンサが検出したHMD装置2の角速度とに基づいて、使用者の頭部の動き(例えば、左右に振る等)により予め定められた頭部のジェスチャーを検出する。ジェスチャー検出部270は、検出したジェスチャーに対応するコマンドを制御部20に送信する。
視線検出部271は、内向きカメラ23Bが使用者の眼を撮影した画像から使用者の視線方向を検出し、検出した視線方向に対応するコマンドを制御部20に送信する。視線検出技術としては、例えば、内向きカメラ23Bに可視光カメラを用いて、目頭の位置に対する虹彩の位置に基づいて視線方向を検出してもよく、内向きカメラ23Bに赤外線カメラと赤外線LEDを用いて、角膜反射の位置に対する瞳孔の位置に基づいて視線方向を検出してもよい。なお、ジェスチャーの代わりに視線方向を用いてもよい。
音声認識部272は、音声入力部25が入力した音声信号をデジタルの音声データに変換し、音声データを制御部20に送信する。なお、ジェスチャーの代わりに音声を用いてもよい。
無線通信部28は、例えば、Wi−Fi(Wireless Fidelity)、Wi−Fiダイレクト等の無線LANや、Bluetooth(登録商標)、赤外線通信等の近距離無線通信を用いて情報処理装置3と通信する。なお、無線通信部28は、HMD装置2同士で通信してもよい。
位置検出部26は、自装置2の位置を示す位置情報をGPS(Global Positioning
System)等を用いて定期的に検出し、検出した位置情報を制御部20に送信する。なお、自装置2の位置をビーコン信号を用いて検出してもよい。すなわち、位置検出部26は、ビーコン発信機を識別するビーコンIDを含むビーコン信号を検出し、ビーコンID及びビーコン信号の強度情報を情報処理装置3に送信する。情報処理装置3は、ビーコンIDに対応するビーコン発信機の位置の情報及びビーコン信号の強度からHMD装置2の位置情報を取得する。位置情報は、例えば、経度、緯度を示す(x,y)で表される。なお、位置情報は、経度、緯度、高度を示す(x,y,z)でもよい。
次に、HMD装置2の各手段200〜202について説明する。
送信手段200は、外向きカメラ23Aにより撮影された撮像画像、処理部27による処理結果(例えば、ジェスチャー検出部270が検出したジェスチャーに対応するコマンド、視線検出部271が検出した視線方向や視線方向に対応するコマンド、又は音声認識部272により認識された音声データ)、又は位置検出部26が検出した位置情報を、当該HMD装置2の使用者を識別するユーザIDとともに無線通信部28により情報処理装置3に送信する。
受信手段201は、情報処理装置3の送信手段303から送信された表示画像、及び表示画像を仮想画像として視認させるべき位置を示す位置情報を受信する。
表示制御手段202は、受信手段201が受信した表示画像及び位置情報に基づいて表示部22を制御する。すなわち、表示制御手段202は、受信手段201が受信した表示画像及び位置情報に基づいて右眼用の表示画像及び左眼用の表示画像を生成し、右眼用の表示画像を右側透過型ディスプレイ221aに表示し、左眼用の表示画像を左側透過型ディスプレイ221bに表示して位置情報に対応する位置に仮想画像が当該HMD装置2の使用者に視認されるよう制御する。
表示画像は、プレゼンテータによりホワイトボード4の表面4aに記入される記入情報に関連する関連情報に係る画像を含む。ここで、関連情報には、例えば、文字の入力位置や文字の大きさをガイドする罫線に係る表示画像や、Web検索画面やファイルリストに係る表示画面、プレゼンテータの入力行為をサポートする支援情報(例えば、テンプレートの一覧、単語候補の一覧、修正候補の一覧等)に係る表示画像を含む。これらの詳細については、後述する。
具体的には、表示制御手段202は、罫線に係る仮想画像がホワイトボード4の表面4a(図1参照)上にプレゼンテータに視認されるよう表示部22を制御する。また、表示制御手段202は、支援情報に係る仮想画像がホワイトボード4の近傍にプレゼンテータに視認されるよう表示部22を制御する。なお、ホワイトボード4の「近傍」とは、現実空間に重ねられた仮想空間において、ホワイトボード4の表面4aが占める領域以外の位置をいい、例えば、ホワイトボード4の表面4aの左右上下の位置や、ホワイトボード4の表面4aの手前(使用者側)の位置(すなわち、表面4aから離れた前方)、隣接位置等が該当する。
図3は、情報処理装置3の制御系の一例を示すブロック図である。情報処理装置3は、情報処理装置3の各部を制御する制御部30と、各種の情報を記憶する記憶部31と、各HMD装置2と無線通信を行う無線通信部32と、ネットワーク330を介して外部装置331と通信するネットワーク通信部33とを備える。
無線通信部32は、例えば、Wi−Fi(Wireless Fidelity)、Wi−Fiダイレクト等の無線LANや、Bluetooth(登録商標)、赤外線通信等の近距離無線通信を用いてHMD装置2と通信する。
ネットワーク通信部33は、ネットワーク330を介して、外部装置331との間で信号を送受信する。ネットワーク330は、例えば、ローカルエリアネットワーク(LAN)、インターネット、イントラネット等であり、有線でも無線でもよい。外部装置331には、ウェブサーバ装置等が含まれる。
制御部30は、CPU(Central Processing Unit)、インターフェース等から構成されている。CPUは、プログラム310に従って動作することにより受付手段300、文字情報取得手段301、表示画像生成手段302、送信手段303等として機能する。表示画像生成手段302及び送信手段303は、指示手段の一例である。各手段300〜303の詳細は後述する。
記憶部31は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等から構成され、プログラム310、罫線情報311等が記憶されている。罫線情報311には、プレゼンテータによりホワイトボード4に記入された文字情報と罫線の間隔とが関連付けられて記録されている。なお、本明細書において、テーブルに情報を書き込む場合に記録又は登録を用い、記憶部に情報を書き込む場合に記憶を用いる。
次に、情報処理装置3の各手段300〜303について説明する。
受付手段300は、HMD装置2から送信される撮影画像、音声データ、位置情報及び各種のコマンド等を受け付ける。
文字情報取得手段301は、受付手段300が受け付けた撮像画像に対して、文字認識処理を実行し、撮像画像に含まれる文字情報を取得する。文字認識処理とは、当該撮像画像に対して、例えば、OCR(Optical Character Recognition)を実行することにより、撮像画像に含まれる文字情報を取得する処理をいう。文字情報取得手段301が取得する文字情報には、例えば、文字そのもの、文字の意味等の記入情報に関する情報のみならず、文字の横幅や縦幅等文字の大きさを示す情報が含まれる。
また、文字情報取得手段301は、現在仮想画像として表示されている罫線の間隔が記入された文字の大きさに適するか否かに関する情報をさらに取得する。具体的には、文字情報取得手段301は、文字情報として取得した文字の大きさと、現在仮想画像として表示されている罫線の間隔との差を求め、この差が予め定められた範囲内か否かに関する情報を取得する。
表示画像生成手段302は、HMD装置2の表示部22に表示させる表示画像を生成する。例えば、表示画像生成手段302は、文字情報取得手段301が取得した文字情報と、情報処理装置3の記憶部31に記憶された罫線情報311に記録された文字情報とを照合して罫線の間隔を特定し、当該特定された間隔を有する罫線に係る表示画像を生成する。また、表示画像生成手段302は、生成した表示画像を仮想画像として視認させるべき位置情報を算出する。
送信手段303は、HMD装置2に、生成された表示画像を仮想空間の画像として表示するように指示する。具体的には、送信手段303は、表示画像生成手段302が生成した表示画像、及び表示画像を仮想画像として視認させるべき位置情報をHMD装置2(本実施の形態ではプレゼンテータが使用するHMD装置2A)に送信する。
(実施の形態の動作)
次に、情報処理システム1の動作の一例について、図4を参照し、図5のフローチャートに従って説明する。図4は、仮想画像の一例を示す図であり、(a)は、罫線に係る仮想画像の一例を示し、(b)は、(a)に示す罫線と異なる間隔を有する罫線に係る仮想画像を示し、(c)は、升目状の罫線に係る仮想画像の一例を示す。図5は、本発明の実施の形態に係る情報処理装置3の動作の一例を示すフローチャートである。
(1)罫線の表示
プレゼンテータが手を動かして罫線の表示を指示するジェスチャー(第1のジェスチャー)を行うと、HMD装置2Aのジェスチャー検出部270は、センサ部24の距離画像センサが取得した距離画像から、第1のジェスチャーを検出し、それに対応する第1のコマンドを制御部20に送信する。また、位置検出部26は、自装置2の位置を示す位置情報を定期的に検出し、検出した位置情報を制御部20に送信する。制御部20は、ホワイトボード4に対する距離画像を距離画像センサにより取得する。距離画像によりHMD装置2に対するホワイトボード4の相対的位置が求まる。制御部20の送信手段200は、第1のコマンド、距離画像及びHMD装置2Aの位置情報を無線通信部28により情報処理装置3に送信する。
受付手段300は、HMD装置2から送信される第1のコマンド、距離画像及びHMD装置2Aの位置情報を受け付ける(S1)。受付手段300が第1のコマンドを受け付けると、表示画像生成手段302は、HMD装置2の表示部22に表示させる罫線に係る表示画像を生成するとともに(S2)、罫線に係る表示画像を仮想画像として視認させるべき位置情報を算出する(S3)。ここで生成される罫線に係る表示画像は、例えば、罫線情報311に記録された情報に基づいて生成されるものであり、予め定められた間隔で並ぶ複数の線を含む画像である。
情報処理装置3の送信手段303は、プレゼンテータが使用するHMD装置2Aに、表示画像生成手段302が生成した罫線に係る表示画像、及び罫線に係る表示画像を仮想画像として視認させるべき位置情報を送信する(S4)。
受信手段201は、情報処理装置3の送信手段303から送信された罫線に係る表示画像、及びこの罫線に係る表示画像を仮想画像として視認させるべき位置を示す位置情報を受信する。
表示制御手段202は、図4(a)に示すように、受信手段201が受信した表示画像及び位置情報に基づいて、予め定められた間隔を有する罫線40Aに係る表示画像がホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する。
(2)文字情報の取得
HMD装置2Aの制御部20は、ジェスチャー検出部270から第1のコマンドが送信される度に、外向きカメラ23Aを制御してホワイトボード4の表面4aにプレゼンテータにより記入された文字等の記入情報を撮影する。制御部20は、外向きカメラ23Aによりホワイトボード4の表面4aを撮影して得られた撮像画像を取得する。
HMD装置2Aの送信手段200は、撮像画像を情報処理装置3に送信する。
情報処理装置3の受付手段300は、HMD装置2Aから送信された撮像画像を受け付ける(S5)。
文字情報取得手段301は、受付手段300が受け付けた撮像画像に対して、文字認識処理を実行し、撮像画像に含まれる文字情報を取得する(S6)。
(3)罫線の変更
現在仮想画像として表示されている罫線の間隔が記入された文字の大きさに適するものでない場合(S7)、表示画像生成手段302は、文字情報取得手段301が取得した文字情報と、情報処理装置3の記憶部31に記憶された罫線情報311とを照合して罫線の間隔を特定するとともに(S8)、特定された間隔を有する罫線に係る表示画像を生成する(S9)。
送信手段303は、表示画像生成手段302が生成した上記の特定された間隔を有する罫線に係る表示画像をプレゼンテータが使用するHMD装置2Aに送信する(S10)。
HMD装置2Aの表示制御手段202は、図4(b)に示すように、上記の特定された間隔を有する罫線40Bに係る表示画像がホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する。
好ましくは、上述した罫線に係る仮想画像は、プレゼンテータが装着するHMD装置2Aのみに表示されるよう制御される。また、本実施の形態では、説明の便宜上、参加者もHMD装置2Bを装着しているものとして説明したが、プレゼンテータがHDM装置2Aを装着していればよく、参加者は必ずしもHMD装置2Bを装着していなくてもよい。
以上のように、本発明に係る情報処理装置3は、プレゼンテータに対して、プレゼンテータがホワイトボード4の表面4aに記入した文字の大きさに応じた罫線を仮想的に視認させることにより、記入する文字の大きさのバラツキの抑制を支援するとともに、複数の文字をホワイトボード4の上下縁部に平行に記入することを支援することができる。
以上、本発明の実施の形態を説明したが、上記実施の形態に限定されるものではなく、本発明の要旨を変更しない範囲内で種々の変形、実施が可能である。以下、具体的な変形例を説明する。なお、以下の説明では、特に記述が無い限り、上述したHMD装置2Aの制御部20及び情報処理装置3の制御部30の各手段が動作を行うものとし、上記の実施の形態で説明した各手段の詳細については説明を省略する。
<変形例1>
上述の例では、表示画像生成手段302は、一方向(例えば、横方向)の罫線に係る表示画面を表示したが、図4(c)に示すように、升目状の罫線40Cに係る表示画像をプレゼンテータに視認させるよう表示部22を制御してもよい。
<変形例2>
プレゼンテータのジェスチャーに応じて罫線の種類を切り替えて表示するようにしてもよい。以下、具体的に説明する。なお、「罫線の種類を切り替える」とは、例えば、図4(a)に示す横方向の罫線を、図4(c)に示す升目状の罫線に切り替えることをいう。
HMD装置2Aのジェスチャー検出部270が、プレゼンテータが手を動かして罫線の種類の切り替えを行うジェスチャー(第2のジェスチャー)を検出して、HMD装置2Aの送信手段200が第2のジェスチャーに対応する第2のコマンドを情報処理装置3に送信する。
第2のコマンドを受け付けた情報処理装置3は、現在仮想画像として表示されている罫線と異なる種類の罫線に係る表示画像を生成してHMD装置2Aに送信する。かかる表示画像を受信したHMD装置2Aは、切り替え後の罫線に係る表示画像をホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する。
第2のジェスチャーは、例えば、プレゼンテータがホワイトボード4の表面4aに記入情報を記入するためのペン100(図7参照)を保持している場合に、プレゼンテータがこのペン100を予め定められた指(例えば、人差し指)で予め定められた回数(例えば、2回〜5回)タップする行為が該当する。
以上のようにして、HMD装置2Aは、プレゼンテータのジェスチャーに応じて罫線を切り替えて仮想画面としてプレゼンテータに視認させるように表示することができる。
<変形例3>
実施の形態では、文字情報取得手段301が取得した文字情報に応じて罫線の間隔を変更したが、プレゼンテータのジェスチャーに応じて罫線の間隔を変更するようにしてもよい。以下、具体的に説明する。
HMD装置2Aのジェスチャー検出部270は、プレゼンテータが手を動かして罫線の間隔の変更を行うジェスチャー(第3のジェスチャー)を検出して、HMD装置2Aの送信手段200が第3のジェスチャーに対応する第3のコマンドを情報処理装置3に送信する。
第3のコマンドを受け付けた情報処理装置3は、現在仮想画像として表示されている罫線と間隔が異なる罫線に係る表示画像を生成してHMD装置2Aに送信する。かかる表示画像を受信したHMD装置2Aは、変更後の間隔を有する罫線に係る表示画像をホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する。
第3のジェスチャーは、例えば、プレゼンテータがホワイトボード4の表面4aに記入情報を記入するためのペン100を保持している場合に、プレゼンテータがこのペン100をスライドさせる行為が該当する。
<変形例4>
図6は、支援情報の一例を示す図である。図6に示すように、HMD装置2Aは、複数のテンプレート51を含むテンプレート集5を、ホワイトボード4の表面4aの近傍(例えば、上下左右いずれかの隣接位置)に仮想画像としてプレゼンテータに視認されるよう表示部22を制御してもよい。以下、具体的に説明する。
HMD装置2Aのジェスチャー検出部270は、プレゼンテータが手を動かして罫線の間隔の変更を行うジェスチャー(第4のジェスチャー)を検出して、HMD装置2Aの送信手段200が第4のジェスチャーに対応する第4のコマンドを情報処理装置3に送信する。
第4のコマンドを受け付けた情報処理装置3は、複数のテンプレート51を含むテンプレート集5に係る表示画像を生成してHMD装置2Aに送信する。かかる表示画像を受信したHMD装置2Aは、テンプレート集5に係る表示画像をホワイトボード4の表面4aの上下左右いずれかの隣接位置に仮想画像としてプレゼンテータに視認されるよう表示部22を制御してもよい。
第4のジェスチャーは、例えば、プレゼンテータが、仮想空間におけるホワイトボード4の表面4aの予め定められた位置を予め定められた時間(例えば、2〜5秒)指す行為が該当する。予め定められた位置に、例えば、ポインタ52等の目印となる対象物を仮想空間に表示するよう制御してもよい。なお、テンプレート集5は、例えば、SmartArt(登録商標)等が該当する。
<変形例5>
図7は、支援情報の一例を示す図である。図7に示すように、HMD装置2Aは、複数の単語候補61を含む単語リスト6を、ホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御してもよい。以下、具体的に説明する。
HMD装置2Aのジェスチャー検出部270は、プレゼンテータが手を動かして単語リスト6の表示を行うジェスチャー(第5のジェスチャー)を検出して、HMD装置2Aの送信手段200が第5のジェスチャーに対応する第5のコマンドを情報処理装置3に送信する。
HMD装置2Aの制御部20は、ジェスチャー検出部270から第5のコマンドが送信される度に、外向きカメラ23Aを制御してペン先100aの軌跡を撮影する。換言すれば、外向きカメラ23Aは、使用者の空中での手書き操作を検出する。制御部20は、外向きカメラ23Aによりペン先100aの軌跡を撮影して得られた撮像画像を取得する。
文字情報取得手段301は、この撮像画像に対して文字認識処理を実行し、撮像画像に含まれる文字情報を取得する。また、文字情報取得手段301は、認識した文字(例えば、ひらがな)から、記入の候補となる単語候補61(漢字を含んで構成される)を予測する。単語候補61の予測には、例えば、予め定められた関連する辞書に基づいて生成する方法等公知の技術を用いて行ってよい。また、単語候補61は、例えば、Deep Leaning等の学習機能により学習させておいてもよい。単語候補61は、検出された使用者の空中での手書き操作に対するものである。
表示画像生成手段302は、予測された複数の単語候補61を含む単語リスト6に係る表示画像を生成してHMD装置2Aに送信する。かかる表示画像を受信したHMD装置2Aは、単語リスト6に係る表示画像をホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する。
第5のジェスチャーは、例えば、プレゼンテータがペン100に対して予め定められた指(例えば、人差し指)を接触する行為が該当する。
<変形例6>
図8は、支援情報の一例を示す図である。図8に示すように、HMD装置2Aは、修正候補7を、ホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御してもよい。以下、具体的に説明する。
HMD装置2Aの制御部20は、外向きカメラ23Aを制御してホワイトボード4の表面4aにプレゼンテータにより記入された文字等の記入情報を撮影する。制御部20は、外向きカメラ23Aによりホワイトボード4の表面4aを撮影して得られた撮像画像を取得する。
文字情報取得手段301は、この撮像画像に対して文字認識処理を実行し、撮像画像に含まれる文字情報を取得する。また、文字情報取得手段301は、取得した文字情報に誤字脱字が含まれるか否かチェックするとともに、記入情報が誤字脱字(総称して「誤記」ともいう。)を含む場合、誤記の箇所を示す情報を取得するとともに修正候補を予測する。誤字脱字の抽出や修正候補の予測には、公知の技術を用いてもよい。
表示画像生成手段302は、予測された修正候補7を含む表示画像を生成してHMD装置2Aに送信する。かかる表示画像を受信したHMD装置2Aは、修正候補7を含む表示画像をホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する。
<変形例7>
図9は、関連情報の一例を示す図である。図9に示すように、HMD装置2Aは、ファイルリスト8及びファイル82を、ホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御してもよい。ファイル82は、例えば、文書作成プログラム、図形作成プログラム、表計算プログラム等で作成されるデータである。以下、具体的に説明する。
HMD装置2Aのジェスチャー検出部270は、プレゼンテータが手を動かしてファイルリスト8の表示を行うジェスチャー(第6のジェスチャー)を検出して、HMD装置2Aの送信手段200が第6のジェスチャーに対応する第6のコマンドを情報処理装置3に送信する。
第6のコマンドを受け付けた情報処理装置3は、ファイルリスト8に係る表示画像を生成してHMD装置2Aに送信する。かかる表示画像を受信したHMD装置2Aは、ファイルリスト8に係る表示画像をホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する。
プレゼンテータが仮想空間に表示されたファイルリスト8から特定のファイル名81を選択すると、HMD装置2Aは、当該特定のファイル名81に対応するファイル82に係る表示画像をホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する。
なお、仮想空間に表示されるファイル82は、例えば、予め情報処理装置3の記憶部31等に記憶しておくことが好ましい。
<変形例8>
情報処理装置3の制御部30は、音声データから会話情報(例えば、トピック等)等の主要な部分を文字に変換して抽出する変換手段と、関連する会話情報を統合する統合手段とをさらに備えてもよい。統合手段を備えた情報処理装置の詳細について以下具体的に説明する。
情報処理装置3の受付手段300は、音声データを受け付けたか否かを判断する。
参加者が会話すると、参加者が使用するHMD装置2Bの音声入力部25は、参加者が発生した音声を音声信号に変換して入力する。音声認識部272は、音声信号を音声データに変換する。送信手段200は、音声データを情報処理装置3に送信する。
情報処理装置3の受付手段300は、音声データを受け付ける。受付手段300が音声データを受け付けると、変換手段は、音声データから会話情報を抽出する。統合手段は、抽出された会話情報のうち、互いに関連する会話情報を統合して統合情報を生成する。
一例を示す。例えば、変換手段が、音声データから会話情報は、例えば、「締め切、明日」、「発明提案書」、「知財部」、「上司、相談」、「プログラム、実装」、「独自技術」、「高精度、高速」等の会話情報を抽出した場合、統合手段は、「締め切、明日」、「発明提案書」、「知財部」及び「上司、相談」を統合して「特許、発明」という統合情報を生成するともに、「プログラム、実装」、「独自技術」及び「高精度、高速」を統合して、「独自技術、開発」という統合情報を生成する。会話情報の抽出及び統合情報の生成には、公知の技術を用いてもよい。
また、情報処理装置3は、統合情報に係る表示画像を生成してHMD装置2Aに送信してもよい。また、かかる表示画像を受信したHMD装置2Aは、統合情報に係る表示画像をホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御してもよい。さらに、HMD装置2Aは、プレゼンテータが仮想画像として表示された統合情報を選択すると、選択された統合情報に含まれる会話情報を仮想画像としてプレゼンテータに視認されるよう表示部22を制御してもよい。
<変形例9>
図10は、関連情報の一例を示す図である。情報処理装置3は、プレゼンテータの動作に基づいて特定の処理を実行する処理手段をさらに備えてもよい。具体的には、図10に示すように、HMD装置2Aの表示制御手段202は、情報処理装置3から送信された表示画像に基づいて、Web検索画面9を、ホワイトボード4の表面4aの近傍に仮想画像としてプレゼンテータに視認されるよう表示部22を制御してもよい。以下、具体的に説明する。
HMD装置2Aのジェスチャー検出部270は、プレゼンテータが手を動かして記入情報をプレゼンテータ側に引き出す指示を行うジェスチャー(第7のジェスチャー)を検出して、HMD装置2Aの送信手段200が第7のジェスチャーに対応する第7のコマンドを情報処理装置3に送信する。
第3のコマンドを受け付けた情報処理装置3は、記入情報に係る表示画像を生成してHMD装置2Aに送信する。かかる表示画像を受信したHMD装置2Aは、記入情報に係る表示画像をホワイトボード4の表面4aのプレゼンテータ側の位置(すなわち、前方)に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する(図10の付番「A」参照)。
プレゼンテータが自身の側に仮想画面として引き出された記入情報Aの中から、Webによる検索を行いたい文字列(例えば、図10の「特許出願」)を選択すると、情報処理装置3は、選択された文字列を検索するWeb検索画面9に係る表示画像を生成してHMD装置2Aに送信する。かかる表示画像を受信したHMD装置2Aは、Web検索画面9に係る表示画像をホワイトボード4の表面4a上に仮想画像としてプレゼンテータに視認されるよう表示部22を制御する。「選択」は、使用者の動作の一例である。選択された文字列の検索に係るWeb検索画面9の表示は、使用者の動作に基づく処理の一例である。なお、図10では、説明の便宜上、プレゼンテータに選択された「特許出願」との文言を下線付きの太字で示したが、これに限られるものではなく、例えば、カラーで表示してもよい。
第7のジェスチャーは、例えば、プレゼンテータが自身の手を手前に引き寄せる行為が該当する。
以上のように、プレゼンテータは、自身の側に引き出された仮想画面において文字列を選択することにより、現実空間でホワイトボード4の表面4aに記入された文字に接触しなくとも、検索したい文字列を選択することができる。
<変形例10>
ホワイトボード4の位置情報は、次の方法で取得してもよい。
例えば、地図データを用いた方法によりホワイトボード4の位置情報を取得してもよい。すわなち、情報処理装置3の記憶部に地図データを記憶させておく。地図データは、ホワイトボード4が配置される、建物内又は部屋内の3次元図形と、ホワイトボード4を識別するホワイトボードIDに紐付けられ、建物内又は部屋内に配置されたホワイトボード4の3次元位置を示す位置情報とを含む。3次元図形は、HMD装置2の外向きカメラ23Aによって撮影されたホワイトボード4の画像と比較されるものである。HMD装置2の位置情報、HMD装置2の外向きカメラ23Aによって撮影されたホワイトボード4を含む画像、及び地図データに基づいてホワイトボード4に位置情報及びホワイトボードIDを取得する。
また、他の方法として、ホワイトボード4にホワイトボード4の位置を示す位置情報及びホワイトボードIDを暗号化したQRコード(登録商標)等のコード画像を張り付けておき、HMD装置2の外向きカメラ23Aによって撮影されたコード画像を情報処理装置3に送信し、情報処理装置3でコード画像を復号してホワイトボード4の位置情報を取得してもよい。
送信手段303は、表示画像と表示画像を仮想画像として視認させるべき位置情報をHMD装置2に送信すると、HMD装置2の表示制御手段202は、表示画像が仮想画像として位置情報に表示するよう制御する。
以上、本発明の実施の形態を説明したが、本発明の実施の形態は上記実施の形態に限定されるものではなく、本発明の要旨を変更しない範囲内で種々の変形、実施が可能である。
制御部20、30の各手段は、それぞれ一部又は全部を再構成可能回路(FPGA:Field Programmable Gate Array)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)等のハードウエア回路によって構成してもよい。
また、本発明の要旨を変更しない範囲内で、上記実施の形態の構成要素の一部を省くことや変更することが可能である。また、本発明の要旨を変更しない範囲内で、上記実施の形態のフローにおいて、ステップの追加、削除、変更、入替え等が可能である。また、上記実施の形態で用いたプログラムをCD−ROM等のコンピュータ読み取り可能な記録媒体に記録して提供することができる。また、上記実施の形態で用いたプログラムをクラウドサーバ等の外部サーバに格納しておき、ネットワークを介して利用することができる。
1…情報処理システム、2、2A、2B…HMD装置、3…情報処理装置、4…ホワイトボード、4a…表面、5…テンプレート集、6…単語リスト、7…修正候補、8…ファイルリスト、9…検索画面、20…制御部、21…記憶部、22…表示部、23A…外向きカメラ、23B…内向きカメラ、24…センサ部、25…音声入力部、26…位置検出部、27…処理部、28…無線通信部、30…制御部、31…記憶部、32…無線通信部、33…ネットワーク通信部、40A,40B,40C…罫線、51…テンプレート、52…ポインタ、61…単語候補、81…ファイル名、82…ファイル、100…ペン、100a…ペン先、200…送信手段、201…受信手段、202…表示制御手段、210…プログラム、220…フレーム、221…透過型ディスプレイ、221…透過型ディスプレイ、221a…右側透過型ディスプレイ、221b…左側透過型ディスプレイ、270…ジェスチャー検出部、271…視線検出部、272…音声認識部、300…受信手段、301…文字情報取得手段、302…表示画像生成手段、303…送信手段、310…プログラム、311…罫線情報、330…ネットワーク、331…外部装置

Claims (13)

  1. 現実空間に仮想空間の画像が重なるように表示するとともに撮影機能を有する表示装置により撮影された画像に基づいて、前記表示装置の使用者の動きを検出する検出手段と、
    検出された前記使用者の動きに基づいて、記入対象に記入される記入情報に関連する関連情報を前記仮想空間の画像として前記記入対象の近傍に表示するよう前記表示装置に指示する指示手段と、
    を備えた情報処理装置。
  2. 前記関連情報は、罫線である、
    請求項1に記載の情報処理装置。
  3. 前記指示手段は、前記罫線を前記記入情報の大きさに応じて変更するよう指示する、
    請求項2に記載の情報処理装置。
  4. 前記検出手段は、前記記入対象に記入するための筆記手段を持つ前記使用者の手指の動きを検出し、
    前記指示手段は、前記使用者の手指の動きに応じた前記関連情報を表示するよう指示する、
    請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記指示手段は、前記関連情報を前記記入対象の表面、前方又は隣接位置に表示するよう指示する、
    請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記関連情報は、前記記入対象への前記記入情報の記入を支援する支援情報である、
    請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記支援情報は、検出された前記使用者の空中での手書き操作に対する単語候補である、
    請求項6に記載の情報処理装置。
  8. 前記支援情報は、前記記入情報が誤記を含む場合に前記誤記の箇所を示す情報である、
    請求項6に記載の情報処理装置。
  9. 前記支援情報は、前記記入情報に関連するファイルリスト又はWeb検索結果である、
    請求項1から5のいずれか1項に記載の情報処理装置。
  10. 前記指示手段は、前記記入情報を含む前記関連情報を前記記入対象の前方の位置に表示するよう指示し、
    前記記入情報に対する前記使用者の動作に基づいて処理を実行する処理手段をさらに備えた、
    請求項1から9のいずれか1項に記載の情報処理装置。
  11. 前記表示装置は、音声入力部を備え、
    前記音声入力部から取得した音声の内容から主要な部分を抽出して文字に変換する変換手段と、をさらに備え、
    前記指示手段は、前記変換された文字を前記関連情報として表示するよう指示する、
    請求項1から10のいずれか1項に記載の情報処理装置。
  12. 現実空間に仮想空間の画像が重なるように表示するとともに撮影機能を有する表示装置と、
    前記表示装置により撮影された画像に基づいて、前記表示装置の使用者の動きを検出する検出手段と、
    検出された前記使用者の動きに基づいて、記入対象に記入される記入情報に関連する関連情報を前記仮想空間の画像として前記記入対象の近傍に表示するよう前記表示装置に指示する指示手段と、
    を備えた情報処理システム。
  13. コンピュータを
    現実空間に仮想空間の画像が重なるように表示するとともに撮影機能を有する表示装置により撮影された画像に基づいて、前記表示装置の使用者の動きを検出する検出手段と、
    検出された前記使用者の動きに基づいて 、記入対象に記入される記入情報に関連する関連情報を前記仮想空間の画像として前記記入対象の近傍に表示するよう前記表示装置に指示する指示手段、
    として機能させるためのプログラム。
JP2017187305A 2017-09-28 2017-09-28 情報処理装置、情報処理システム及びプログラム Pending JP2019061590A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017187305A JP2019061590A (ja) 2017-09-28 2017-09-28 情報処理装置、情報処理システム及びプログラム
CN201810431550.7A CN109582123B (zh) 2017-09-28 2018-05-08 信息处理设备、信息处理系统和信息处理方法
US16/130,195 US11397320B2 (en) 2017-09-28 2018-09-13 Information processing apparatus, information processing system, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017187305A JP2019061590A (ja) 2017-09-28 2017-09-28 情報処理装置、情報処理システム及びプログラム

Publications (1)

Publication Number Publication Date
JP2019061590A true JP2019061590A (ja) 2019-04-18

Family

ID=65808995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017187305A Pending JP2019061590A (ja) 2017-09-28 2017-09-28 情報処理装置、情報処理システム及びプログラム

Country Status (3)

Country Link
US (1) US11397320B2 (ja)
JP (1) JP2019061590A (ja)
CN (1) CN109582123B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021005052A (ja) * 2019-06-27 2021-01-14 株式会社ドワンゴ 授業コンテンツの配信方法、授業コンテンツの配信システム、端末及びプログラム
JP2021006890A (ja) * 2019-06-27 2021-01-21 株式会社ドワンゴ 授業コンテンツの配信方法、授業コンテンツの配信システム、端末及びプログラム
WO2022038809A1 (ja) * 2020-08-18 2022-02-24 株式会社日立製作所 情報表現作成支援装置、情報表現作成支援方法およびコンピュータプログラム
WO2022216082A1 (ko) * 2021-04-07 2022-10-13 한국과학기술원 가상 공간 내 메모 객체를 제어하는 전자 시스템 및 그 동작 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6440910B2 (ja) * 2016-07-29 2018-12-19 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
JP7567555B2 (ja) * 2021-03-01 2024-10-16 トヨタ自動車株式会社 仮想空間共有システム、仮想空間共有方法及び仮想空間共有プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045371A (ja) * 2011-08-25 2013-03-04 Sharp Corp 表示装置および表示プログラム
WO2014054716A1 (ja) * 2012-10-03 2014-04-10 楽天株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
WO2014073346A1 (ja) * 2012-11-09 2014-05-15 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
JP2015180988A (ja) * 2014-03-03 2015-10-15 カシオ計算機株式会社 記入ガイド表示装置、記入ガイド表示方法、およびプログラム
JP2015200951A (ja) * 2014-04-04 2015-11-12 株式会社日本総合研究所 表示システム及びプログラム
JP2015228256A (ja) * 2011-03-29 2015-12-17 クアルコム,インコーポレイテッド 各ユーザの視点に対する共有デジタルインターフェースのレンダリングのためのシステム
US20160025974A1 (en) * 2014-07-22 2016-01-28 Osterhout Group, Inc. External user interface for head worn computing
JP2016045724A (ja) * 2014-08-22 2016-04-04 株式会社ニコン 電子機器
US20160253992A1 (en) * 2015-02-27 2016-09-01 Lenovo (Singapore) Pte. Ltd. Ocr through voice recognition

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7440909B2 (en) * 1999-01-21 2008-10-21 Oracle International Corporation Methods and systems enabling the identification of actual costs in a transaction based financial and manufacturing environment
TWI301590B (en) * 2005-12-30 2008-10-01 Ibm Handwriting input method, apparatus, system and computer recording medium with a program recorded thereon of capturing video data of real-time handwriting strokes for recognition
US20090015567A1 (en) * 2006-03-20 2009-01-15 Marwa Abdelbaki Digital Stand Alone Device For Processing Handwritten Input
JP5061696B2 (ja) 2007-04-10 2012-10-31 カシオ計算機株式会社 投影装置、投影制御方法及びプログラム
US8645842B2 (en) * 2007-11-05 2014-02-04 Verizon Patent And Licensing Inc. Interactive group content systems and methods
CN101923809A (zh) * 2010-02-12 2010-12-22 黄振强 交互式增强现实点播机
JP5488082B2 (ja) 2010-03-17 2014-05-14 セイコーエプソン株式会社 情報認識システム及びその制御方法
JP5674450B2 (ja) * 2010-12-22 2015-02-25 富士フイルム株式会社 電子コミックのビューワ装置、電子コミックの閲覧システム、ビューワプログラム、該ビューワプログラムが記録された記録媒体ならびに電子コミックの表示方法
JP2013101528A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
JP5912059B2 (ja) * 2012-04-06 2016-04-27 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
US20140160157A1 (en) 2012-12-11 2014-06-12 Adam G. Poulos People-triggered holographic reminders
US20150145887A1 (en) * 2013-11-25 2015-05-28 Qualcomm Incorporated Persistent head-mounted content display
US9881224B2 (en) * 2013-12-17 2018-01-30 Microsoft Technology Licensing, Llc User interface for overlapping handwritten text input
US20150199780A1 (en) * 2014-01-16 2015-07-16 Alex Beyk Methods and systems for digital agreement establishment, signing, centralized management, and a storefront using head mounted displays and networks
US20160025977A1 (en) * 2014-07-22 2016-01-28 Osterhout Group, Inc. External user interface for head worn computing
US10462406B2 (en) * 2014-08-01 2019-10-29 Sony Corporation Information processing apparatus and information processing method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228256A (ja) * 2011-03-29 2015-12-17 クアルコム,インコーポレイテッド 各ユーザの視点に対する共有デジタルインターフェースのレンダリングのためのシステム
JP2013045371A (ja) * 2011-08-25 2013-03-04 Sharp Corp 表示装置および表示プログラム
WO2014054716A1 (ja) * 2012-10-03 2014-04-10 楽天株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
WO2014073346A1 (ja) * 2012-11-09 2014-05-15 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
JP2015180988A (ja) * 2014-03-03 2015-10-15 カシオ計算機株式会社 記入ガイド表示装置、記入ガイド表示方法、およびプログラム
JP2015200951A (ja) * 2014-04-04 2015-11-12 株式会社日本総合研究所 表示システム及びプログラム
US20160025974A1 (en) * 2014-07-22 2016-01-28 Osterhout Group, Inc. External user interface for head worn computing
JP2016045724A (ja) * 2014-08-22 2016-04-04 株式会社ニコン 電子機器
US20160253992A1 (en) * 2015-02-27 2016-09-01 Lenovo (Singapore) Pte. Ltd. Ocr through voice recognition

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021005052A (ja) * 2019-06-27 2021-01-14 株式会社ドワンゴ 授業コンテンツの配信方法、授業コンテンツの配信システム、端末及びプログラム
JP2021006890A (ja) * 2019-06-27 2021-01-21 株式会社ドワンゴ 授業コンテンツの配信方法、授業コンテンツの配信システム、端末及びプログラム
JP7361612B2 (ja) 2019-06-27 2023-10-16 株式会社ドワンゴ 情報処理方法、情報処理装置、およびプログラム
WO2022038809A1 (ja) * 2020-08-18 2022-02-24 株式会社日立製作所 情報表現作成支援装置、情報表現作成支援方法およびコンピュータプログラム
WO2022216082A1 (ko) * 2021-04-07 2022-10-13 한국과학기술원 가상 공간 내 메모 객체를 제어하는 전자 시스템 및 그 동작 방법

Also Published As

Publication number Publication date
CN109582123B (zh) 2023-07-14
CN109582123A (zh) 2019-04-05
US11397320B2 (en) 2022-07-26
US20190094534A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
US10082940B2 (en) Text functions in augmented reality
JP2019061590A (ja) 情報処理装置、情報処理システム及びプログラム
CN109923462B (zh) 感测眼镜
CN102693047B (zh) 在协同环境中显示数字信息和图像的方法
US11663784B2 (en) Content creation in augmented reality environment
JP7583888B2 (ja) 映像表示装置
US20130063345A1 (en) Gesture input device and gesture input method
US11107287B2 (en) Information processing apparatus and information processing method
US20160147307A1 (en) User interface device, user interface method, program, and computer-readable information storage medium
WO2012119371A1 (zh) 一种用户交互系统和方法
US20190089930A1 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
US11670157B2 (en) Augmented reality system
US20200143774A1 (en) Information processing device, information processing method, and computer program
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
JP6805524B2 (ja) 入力装置、入力プログラム、及び入力方法
CN111580677B (zh) 一种人机交互方法及人机交互系统
JP2017211430A (ja) 情報処理装置および情報処理方法
JP5413315B2 (ja) 情報処理システム及び表示処理プログラム
JP6374203B2 (ja) 表示システム及びプログラム
KR20240096625A (ko) Ar 디바이스 및 ar 디바이스 제어 방법
KR101499044B1 (ko) 사용자의 손동작 및 음성에 기초하여 사용자가 의도한 텍스트를 취득하는 웨어러블 컴퓨터 및 사용자가 의도한 텍스트를 취득하는 방법
AlKassim et al. Sixth sense technology: Comparisons and future predictions
JP2011048421A (ja) 情報処理システム及びそのプログラム
JP2018106481A (ja) 表示装置、表示制御装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230314