JP7087364B2 - 情報処理装置、情報処理システムおよびプログラム - Google Patents

情報処理装置、情報処理システムおよびプログラム Download PDF

Info

Publication number
JP7087364B2
JP7087364B2 JP2017232518A JP2017232518A JP7087364B2 JP 7087364 B2 JP7087364 B2 JP 7087364B2 JP 2017232518 A JP2017232518 A JP 2017232518A JP 2017232518 A JP2017232518 A JP 2017232518A JP 7087364 B2 JP7087364 B2 JP 7087364B2
Authority
JP
Japan
Prior art keywords
input means
information
user
input
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017232518A
Other languages
English (en)
Other versions
JP2019101796A (ja
Inventor
裕丈 佐々木
博仁 柴田
直樹 氷治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017232518A priority Critical patent/JP7087364B2/ja
Priority to CN201810567708.3A priority patent/CN109871117A/zh
Priority to US16/198,893 priority patent/US20190171299A1/en
Publication of JP2019101796A publication Critical patent/JP2019101796A/ja
Application granted granted Critical
Publication of JP7087364B2 publication Critical patent/JP7087364B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、表示装置、情報処理システム、プログラムに関する。
従来より、紙媒体を利用して文書の作成等をする作業が一般的に行われている。またこの作業を支援または代替するために、仮想空間を利用する試みや、紙への電子手書きデータを電子的に取り込み可能とする電子ペンを利用する試みなどがなされている。
特許文献1には、仮想現実の分野において、仮想道具操作システム及び関連方法並びにソフトウェアを本開示において説明することが記載されている。ここで、仮想道具操作システムの一実施態様は、中でも、ユーザの身体の一部分の位置に関連する動き情報を生成するように構成される動き追跡システムを備える。そして仮想道具操作システムは、動き情報、仮想道具の位置、及び仮想道具の特性に基づいてユーザに触感を提供するように構成される触覚フィードバックシステムも備える。
また特許文献2には、文書上に筆記可能なペン先を備え、筆記動作に伴う自らの動きを電気信号に変換し生成するペン装置を設けることが記載されている。そして、このペン装置で生成された電気信号を通信チャンネルを介して親機処理ユニットに送信し、親機処理ユニットでペン装置の筆記内容を認識し記憶する。
特表2011-509488号公報 特開2004-303254号公報
また昨今は、形のない情報を直接触れることができる(触知可能、タンジブル)ようにしたタンジブルユーザインタフェースが提唱されている。
しかしながら紙媒体の操作性と触知性(タンジビリティ)を電子的に再現することは、従来は困難であった。また紙媒体を利用すると、他の機器との連携が困難であるなど、紙媒体ではできない処理も存在する。
本発明は、紙媒体の操作性と触知性(タンジビリティ)を電子的に再現しつつ、紙媒体では困難であった処理についても実現可能な情報処理装置等を提供する。
請求項1に記載の発明は、情報の入力を行なう入力手段を撮影する撮影装置から当該入力手段の画像情報を取得する画像情報取得手段と、前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成手段と、を備え、前記作成手段は、前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成する情報処理装置である。
請求項2に記載の発明は、前記入力手段は、当該入力手段の位置および姿勢を決定するためのマーカーを備え、前記撮影装置により撮影された前記マーカーの画像情報を基に、前記入力手段の位置および姿勢を決定する決定手段をさらに備えることを特徴とする請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記作成手段は、前記決定手段が決定した前記入力手段の位置および姿勢に基づき、実際の当該入力手段の大きさおよび形状に合わせ当該入力手段の画像を表示する表示情報を作成することを特徴とする請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記決定手段は、ユーザの手の位置および姿勢をさらに決定し、前記作成手段は、前記決定手段が決定した前記ユーザの手の位置および姿勢に基づき、実際の当該ユーザの手の大きさおよび形状に合わせ当該ユーザの手の画像を表示する表示情報を作成することを特徴とする請求項3に記載の情報処理装置である。
請求項5に記載の発明は、複数の前記入力手段同士または当該入力手段とユーザの手とが互いに接触したことを検知する接触検知手段をさらに備えることを特徴とする請求項1に記載の情報処理装置である。
請求項6に記載の発明は、前記作成手段は、複数の前記入力手段が互いに接触することで入力される情報を追記情報として表示する表示情報を作成することを特徴とする請求項5に記載の情報処理装置である。
請求項7に記載の発明は、前記追記情報を保存する保存手段をさらに備えることを特徴とする請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記作成手段は、実空間中で存在する前記入力手段を、仮想空間中で仮想的に表示する表示情報を作成することを特徴とする請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記作成手段は、前記触知領域に、前記入力手段を表示することを特徴とする請求項に記載の情報処理装置である。
請求項10に記載の発明は、前記作成手段は、前記非触知領域に、仮想空間中で常時表示する文書を表示する表示情報を作成することを特徴とする請求項に記載の情報処理装置である。
請求項11に記載の発明は、前記表示装置は、ヘッドマウントディスプレイであることを特徴とする請求項に記載の情報処理装置である。
請求項12に記載の発明は、前記作成手段は、仮想空間中で前記入力手段を実際の当該入力手段に合わせ仮想的に表示することを特徴とする請求項10に記載の情報処理装置である。
請求項13に記載の発明は、情報の入力を行なう入力手段を撮影する撮影装置と、表示情報を基に画像を表示する表示装置と、前記表示情報を作成する情報処理装置と、を備え、前記情報処理装置は、前記撮影装置から前記入力手段の画像情報を取得する画像情報取得手段と、前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成手段と、を備え、前記作成手段は、前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成する情報処理システムである。
請求項14に記載の発明は、前記入力手段は、形状として、シート型およびペン型のものを含むことを特徴とする請求項13に記載の情報処理システムである。
請求項15に記載の発明は、コンピュータに、情報の入力を行なう入力手段を撮影する撮影装置から当該入力手段の画像情報を取得する画像情報取得機能と、前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成機能と、前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえる領域設定シートの領域を触知領域として決定する機能と、を実現させ、前記作成機能は、前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成するプログラムである。
請求項1の発明によれば、紙媒体の操作性と触知性(タンジビリティ)を電子的に再現しつつ、紙媒体では困難であった処理についても実現可能な情報処理装置を提供することができる。また、擬似的に広い作業スペースを得ることができる。さらに、入力手段を使用して作業を行なう領域を規定することができる。
請求項2の発明によれば、入力手段の位置や姿勢を再現して表示を行なうことができる。
請求項3の発明によれば、ユーザが視覚と触覚の間に感覚的な矛盾を感じにくくなる。
請求項4の発明によれば、ユーザが視覚と触覚の間に感覚的な矛盾を感じにくくなる。
請求項5の発明によれば、ユーザが文字や図形等を入力することができる。
請求項6の発明によれば、ユーザが入力を行なった文字や図形等を表示することができる。
請求項7の発明によれば、ユーザが入力を行なった状態を再現することができる。
請求項8の発明によれば、ユーザに作業しやすい環境を提供することができる。
請求項9の発明によれば、触知可能(タンジブル)なユーザインタフェースが実現できる。
請求項10の発明によれば、使用頻度の高い情報を常時表示させることができる。
請求項11の発明によれば、入力手段の位置、姿勢にかかわらず、情報を重畳的に表示することができる。
請求項12の発明によれば、ユーザが視覚と触覚の間に感覚的な矛盾を感じにくくなる。
請求項13の発明によれば、紙媒体の操作性と触知性(タンジビリティ)を電子的に再現しつつ、紙媒体では困難であった処理についても実現可能な情報処理システムを提供することができる。また、擬似的に広い作業スペースを得ることができる。さらに、入力手段を使用して作業を行なう領域を規定することができる。
請求項14の発明によれば、紙とペンの操作性を再現できる。
請求項15の発明によれば、紙媒体の操作性と触知性(タンジビリティ)を電子的に再現しつつ、紙媒体では困難であった処理についても実現可能とする機能をコンピュータにより実現できる。また、擬似的に広い作業スペースを得ることができる。さらに、入力手段を使用して作業を行なう領域を規定することができる。
本実施の形態における情報処理システムの構成例を示す図である。 本実施の形態における情報処理装置および表示装置の機能構成例を表すブロック図である。 (a)~(b)は、マーカーの画像情報を基に、入力手段の位置および姿勢を決定する方法について示した図である。 (a)は、シートとペンのペン先3とが接触した場合を示す図である。(b)は、シートとユーザの手とが接触した場合を示す図である。 (a)~(b)は、追記情報について示した図である。 情報処理システムの動作について説明したフローチャートである。 決定手段が、マーカーの位置により入力手段等の位置および姿勢を決定する処理について説明したフローチャートである。 複数の入力手段同士として、シートとペンとが接触したことを検知する処理について説明したフローチャートである。 入力手段とユーザの手とが接触したことを検知する処理について説明したフローチャートである。 ペン先に接触判定用のセンサを設け、シートとペンとが接触したことを検知する処理について説明したフローチャートである。 シートに接触判定用のセンサを設け、シートとペンとが接触したことを検知する処理について説明したフローチャートである。 (a)~(b)は、本実施の形態で、実空間においてユーザが視認する机上の状態と、仮想空間でユーザが視認する机上の状態とを比較した図である。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<情報処理システム全体の説明>
図1は、本実施の形態における情報処理システム1の構成例を示す図である。
図示するように本実施の形態の情報処理システム1は、表示情報を作成する情報処理装置10と、表示情報を基に画像を表示する表示装置20と、情報の入力を行なう入力手段30と、入力手段30を撮影するカメラ40と、入力手段30を使用してユーザが作業を行なう範囲を示す領域設定シート50とを備える。
情報処理装置10は、例えば、所謂汎用のパーソナルコンピュータ(PC)である。そして、情報処理装置10は、OS(Operating System)による管理下において、各種アプリケーションソフトウェアを動作させることで、本実施の形態の情報の処理等が行われるようになっている。
情報処理装置10は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメインメモリ及びHDD(Hard Disk Drive)とを備える。ここで、CPUは、OS(Operating System、基本ソフトウェア)やアプリケーションプログラム(応用ソフトウェア)等の各種ソフトウェアを実行する。また、メインメモリは、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、HDDは、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域である。
また情報処理装置10は、外部との通信を行なうための通信インタフェースを備える。
表示装置20は、例えば、ヘッドマウントディスプレイ(HMD:Head Mounted Display)である。つまりユーザは、頭部にこのヘッドマウントディスプレイを装着し、そしてヘッドマウントディスプレイ内部においてユーザの目前に配される表示画面20aにて表示される画像を見る。表示画面20aは、例えば液晶ディスプレイ、有機ELディスプレイ(OELD:organic electroluminescence display)など、画像を表示する機能を備えたもので構成される。
入力手段30は、詳しくは後述するが、情報の入力を行なえるものであれば、特に限られるものではない。本実施の形態では、入力手段30は、形状として、シート型およびペン型のものを含む。
シート型の入力手段30は、ユーザが手に持ち、紙のように操作する入力装置である。形状はシート状であり、矩形形状である。またサイズは、特に限られるものではなく、一般的に流通している各種用紙サイズと同じであってもよく、異なっていてもよい。また可撓性がなく、変形しにくい板状のものが好ましい。シート型の入力手段30は、表面と裏面が定義される。そして机等の平面に安定的に置くことができ、その状態で表面または裏面を見ることができる。シート型の入力手段30は、例えば、樹脂等からなる長方形の板である。なお以後、シート型の入力手段30を、「シート31」と言うことがある。
ペン型の入力手段30は、ユーザが手に持ち、ペンのように操作し、書き込みを行なうための入力装置である。形状は、ペン状であり、先端にシート型の入力手段30と接触を行なうペン先32aを有している。つまりペン型の入力手段30のペン先32aをシート型の入力手段30に接触させ、文字や図形を書くなどの情報の入力を行なうことができる。ペン型の入力手段30は、スタイラスペンなどであってもよく、ボールペン、鉛筆、万年筆など実際に筆記可能なペンであってもよい。なお以後、ペン型の入力手段30を、「ペン32」と言うことがある。
また入力手段30は、シート型およびペン型に限られるものではない。例えば、キーボード型、マウス型、マグカップ型、ペットボトル型のものであってもよい。キーボード型の入力手段30は、押下することで情報の入力を行なう複数のキーを有する。よってキーボード型の入力手段30は、実際のキーボードであってもよい。マウス型の入力手段30は、移動することで、カーソルの移動やボタンの選択などを行なう。よってマウス型の入力手段30は、実際のマウスであってもよい。マグカップ型の入力手段30は、飲料を入れることができ、ユーザが実際に飲料を飲むことができる。よってマグカップ型の入力手段30は、実際のマグカップであってもよい。ペットボトル型の入力手段30は、飲料が充填され、ユーザが実際に飲料を飲むことができる。よってペットボトル型の入力手段30は、実際のペットボトルであってもよい。
本実施の形態では、これらの入力手段30は、入力手段30の位置および姿勢を決定するためのマーカーを備える。「マーカー」は、何からの標識である。本実施の形態では、「マーカー」は、入力手段30等に配され、カメラ40により撮影された画像から入力手段30等の位置および姿勢を決定することができる標識である。さらに具体的には、「マーカー」は、例えば、1次元バーコードや2次元バーコードのように平面に印刷されたものである。またLED等の発光装置を規定の3次元形状に配置したものであってもよい。マーカーの取り付け位置は予め定められており、情報処理装置10が保持している。マーカーは、固有のID番号の情報を持ち、各入力手段30のそれぞれを区別することができる。
カメラ40は、撮影装置の一例であり、例えば、入射した光を収束する光学系と、光学系により収束された光を検出する撮像手段であるイメージセンサとを備える。
光学系は、単一のレンズまたは複数のレンズを組み合わせて構成される。光学系は、レンズの組み合わせおよびレンズ表面に施されたコーティング等により、各種の収差が除去されている。イメージセンサは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を配列して構成される。
領域設定シート50は、領域設定手段の一例であり、入力手段30を使用して作業が行なえる領域を決定するためのシートである。領域設定シート50は、例えば、ユーザが作業を行なう机上に置かれ、さらに入力手段30が、領域設定シート50上に置かれる。また詳しくは後述するが、領域設定シート50が置かれる領域は、入力手段30を実際に触知しつつ使用して作業が行なえる触知領域となる。
情報処理装置10および表示装置20は、例えば、DVI(Digital Visual Interface)を介して接続されている。なお、DVIに代えて、HDMI(登録商標)(High-Definition Multimedia Interface)やDisplayPort等を介して接続するようにしてもかまわない。
また情報処理装置10と入力手段30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS-232C等を介して接続されていてもよい。ただしこれに限られるものではなく、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)等の無線接続であってもよい。
さらに情報処理装置10およびカメラ40とは、図示する例では、有線で接続されており、例えば、USB、IEEE1394、RS-232Cを介して接続されている。これによりカメラ40で撮影された画像の画像情報が、有線により情報処理装置10に送られる。ただしこれに限られるものではなく、上述した無線接続であってもよい。
このような情報処理システム1の概略動作を説明する。
まずユーザが、領域設定シート50上に置かれた入力手段30を使用して、情報の入力を行なう。このときユーザは、入力手段30を実際にユーザの手を用いて操作する。そして入力手段30は、カメラ40により撮影され、撮影された画像情報は、情報処理装置10に送られる。情報処理装置10では、表示装置20で表示する画面の表示情報を作成する。そして表示装置20では、実空間と同様の画像が仮想空間中に表示される。つまり仮想空間中で、入力手段30が仮想的に表示される。また入力手段が配される机面が仮想的に表示される。さらに入力手段30を操作するユーザの手についても仮想的に表示される。また詳しくは後述するが、実空間には存在しないものについても仮想空間中に表示されるようにしてもよい。そしてユーザが入力手段30を使用して入力した情報は、この仮想空間中に表示され、逐次更新される。
なおここで、「実空間」とは、現実の世界における空間であり、「仮想空間」とは、コンピュータ上に構築された実世界を模した世界を表した空間である。
<情報処理装置10および表示装置20の説明>
図2は、本実施の形態における情報処理装置10および表示装置20の機能構成例を表すブロック図である。なお図2では、情報処理装置10および表示装置20が有する種々の機能のうち本実施の形態に関係するものを選択して図示している。
図示するように本実施の形態の情報処理装置10は、カメラ40から画像情報を取得する画像情報取得手段110と、入力手段30やユーザの手の位置および姿勢を決定する決定手段120と、入力手段30の大きさ・形状等を保持する保持手段130と、入力手段30同士またはユーザの手と入力手段30との接触を検知する接触検知手段140と、入力手段30により入力された情報を保存する保存手段150と、表示装置20で表示する表示情報を作成する作成手段160とを備える。
画像情報取得手段110は、入力手段30を撮影するカメラ40から入力手段30の画像情報を取得する。また画像情報取得手段110は、表示装置20、領域設定シート50、ユーザの手についても、カメラ40が撮影した画像の画像情報を取得する。
この場合、カメラ40は、図1に示すように実空間に存在する入力手段30を撮影する。そして、撮影した画像情報は、カメラ40から情報処理装置10に送られ、画像情報取得手段110が取得する。この場合、画像情報は、動画の画像情報であるが、例えば、1s毎など予め定められた短い時間間隔で撮影された複数の静止画の画像情報であってもよい。
決定手段120は、入力手段30の位置および姿勢を決定する。このとき決定手段120は、カメラ40により撮影されたマーカーの画像情報を基に、入力手段30の位置および姿勢を決定する。なおペン32については、決定手段120は、ペン先32aの位置をさらに決定する。
図3(a)~(b)は、マーカーの画像情報を基に、入力手段30の位置および姿勢を決定する方法について示した図である。ここで図3(a)は、実際のマーカーMa1を示す。さらに図3(b)は、カメラ40により撮影された画像G0中のマーカーMa2を示す。ここでは、マーカーMa1、Ma2が2次元バーコードである場合について示している。
決定手段120は、図3(a)に示すマーカーMa1の実際の大きさと、図3(b)に示すカメラ40により撮影された画像G0中のマーカーMa2の大きさや変形状態を比較し、カメラ40からマーカーMa2までの距離とマーカーMa2の姿勢とを算出する。これにより決定手段120は、入力手段30の位置および姿勢を決定する。
また決定手段120は、表示装置20や領域設定シート50についても、位置および姿勢を決定する。この場合、表示装置20や領域設定シート50についてもマーカーが備えられ、決定手段は、カメラ40により撮影されたマーカーの画像情報を基に、表示装置20や領域設定シート50の位置および姿勢を決定する。またこのマーカーは、固有のID番号の情報を持ち、表示装置20や領域設定シート50であることを認識することができる。
さらに決定手段120は、ユーザの手の位置および姿勢をさらに決定する。この場合、入力手段30と同様に、ユーザの手にもマーカーを取り付けてもよいが、実際には困難であるときがある。よってここでは、3次元測定装置などを用いて手の形状をセンシングし、これにより決定手段120が、ユーザの手の位置および姿勢を算出するようにすることが好ましい。またこの場合、例えば、右手または左手の判別結果、指の関節角度等を併せて決定することが好ましい。そしてユーザの手についてもID番号を付与し、認識できるようにする。3次元測定装置としては、特に限られるものではなく、市販のものを使用することができる。例えば、Leap Motion社のLeap Motion、Intel社のRealSense、Microsoft社のKinect等を使用することができる。
保持手段130は、入力手段30のID番号やマーカーの取り付け位置の他に入力手段30の大きさ・形状等を保持する。また表示装置20や領域設定シート50についても同様に、これらのID番号、マーカーの取り付け位置、および大きさ・形状等を保持する。さらに保持手段130は、ユーザの手のID番号、大きさ・形状等を保持する。なお大きさ・形状については、保持手段130は、3Dモデルとして保持している。またペン32については、保持手段130は、ペン先32aの範囲情報を3Dモデル内に保持している。
接触検知手段140は、複数の入力手段30同士または入力手段30とユーザの手とが互いに接触したことを検知する。
接触検知手段140は、例えば、図4(a)のように、シート31とペン32のペン先32aとが接触したことを検知する。この場合、接触検知手段140は、決定手段120により決定されたシート31およびペン32の位置および姿勢と、保持手段130に保持されているシート31およびペン32の大きさ・形状からペン先32aの位置とシート31の範囲を決定する。そして接触検知手段140は、ペン先32aの位置と、シート31の範囲とが、予め定められた距離以下の場合に、双方が接触したと判断する。なおシート31およびペン32の何れかが複数存在する場合は、これらの全ての組み合わせについて同様の処理を行なう。
また接触検知手段140は、例えば、図4(b)のように、シート31とユーザの手Hdとが接触したことを検知する。この場合、接触検知手段140は、決定手段120により決定されたユーザの手Hdの位置および姿勢と、保持手段130に保持されているユーザの手Hdの大きさ・形状とから、指による入力範囲を決定する。また接触検知手段140は、決定手段120により決定されたシート31の位置および姿勢と、保持手段130に保持されているシート31の大きさ・形状とからシート31の範囲を決定する。そして接触検知手段140は、指による入力範囲と、シート31の範囲とが、予め定められた距離以下の場合に、双方が接触したと判断する。なおシート31が複数存在する場合は、ユーザの手Hdとこれらの全ての組み合わせについて同様の処理を行なう。なおこの指による入力範囲は、ユーザの人差し指の先端部分など予め定めた範囲として規定される。
なおユーザが手による入力をするかどうかを、選択することもできる。つまりユーザが手による入力モードのON/OFFの切り換えを行なうようにする。そして入力モードがONのときは、接触検知手段140は、上述したようにシート31とユーザの手Hdとが接触したことを検知する。一方、入力モードがOFFのときは、シート31とユーザの手Hdとが接触したことを検知しないようにする。
保存手段150は、接触検知手段140で接触を検知したときに、入力手段30やユーザの手Hdにより入力された情報を追記情報として保存する。これは、例えば、ユーザにより入力された筆跡の情報である。この「追記情報」は、複数の入力手段30が互いに接触することで入力される情報である。また「追記情報」には、シート31とユーザの手Hdとが接触することで入力される情報を含む。この追記情報は、画像情報取得手段110で取得した画像情報のメタ情報として紐付けが行われる。
図5(a)~(b)は、追記情報について示した図である。
追記情報は、図5(a)に示すように、使用されたシート31のID番号、位置の情報、姿勢の情報が含まれる。また使用されたペン32またはユーザの手のID番号、位置の情報、姿勢の情報が含まれる。さらに接触した位置の情報である接触位置情報および接触の時刻の情報が含まれる。このうち接触位置情報は、図5(b)に示すように、x、yからなる座標データであり、シート31の中心位置を基準とし、シート31の面上での座標を表す。このような追記情報により、ユーザがペン32により入力を行なった状態を再現することもできる。
図2に戻り、作成手段160は、画像情報取得手段110で取得した画像情報を基に入力手段30の画像を表示する表示装置20に対する表示情報を作成する。またこのとき作成手段160は、表示装置20で表示された入力手段30を使用して入力した情報に応じて、表示装置20に対する表示情報を更新する。このとき作成手段160は、入力手段30を、仮想空間中で仮想的に表示する表示情報を作成する。
また作成手段160は、表示装置20やユーザの手についても仮想空間中で仮想的に表示する表示情報を作成する。つまり作成手段160は、実空間中に存在するものを、仮想空間中でも同様に表示するための表示情報を作成する。そのために、作成手段160は、決定手段120が決定した入力手段30の位置および姿勢に基づき、実際の入力手段30の大きさおよび形状に合わせ入力手段30の画像を表示する表示情報を作成する。さらに作成手段160は、決定手段120が決定したユーザの手の位置および姿勢に基づき、実際のユーザの手の大きさおよび形状に合わせユーザの手の画像を表示する表示情報を作成する。つまり入力手段30やユーザの手は、実空間と同様の大きさ・形状で仮想空間中で表示される。
つまり作成手段160は、仮想空間において、上記入力手段30、ユーザの手、および表示装置20の3Dモデルを配置する。このとき仮想空間において、実空間中と同様の位置および姿勢で配置する。さらに実空間と同様の大きさおよび形状で配置する。ただし色については、仮想空間と実空間で必ずしも一致させる必要はない。また追記情報があれば、これについてもシート31上に表示する。これによりユーザが入力した筆記情報がシート31上に表示される。
また図2に示すように、表示装置20は、表示情報を取得する表示情報取得手段210と、表示情報を基に画像を表示する画像表示手段220とを備える。
表示情報取得手段210は、作成手段160が作成した画像情報を取得する。また画像表示手段220は、作成手段160が作成した画像情報を基に画像を表示する。画像表示手段220は、例えば、上述した表示画面20aである。
よって表示装置20で表示される画面は、上述した仮想空間であり、画像表示手段220は、仮想空間中で入力手段30を実際の入力手段30に合わせ仮想的に表示する。またユーザの手についても同様であり、画像表示手段220は、仮想空間中でユーザの手を実際のユーザの手に合わせ仮想的に表示する。
<情報処理システム1の動作の説明>
次に情報処理システム1の動作について説明する。
図6は、情報処理システム1の動作について説明したフローチャートである。
まずカメラ40が、表示装置20、入力手段30、領域設定シート50、ユーザの手を撮影する(ステップ101)。撮影した画像の画像情報は、情報処理装置10に送られる。
この画像情報は、情報処理装置10の画像情報取得手段110が取得する(ステップ102)。
次に決定手段120が、入力手段30に配されたマーカーの位置等を基に、入力手段30の位置および姿勢を決定する。同様に、決定手段120は、表示装置20、領域設定シート50およびユーザの手についても、位置および姿勢を決定する(ステップ103)。
図7は、決定手段120が、マーカーの位置により入力手段30等の位置および姿勢を決定する処理について説明したフローチャートである。図7は、ステップ103の処理についてより詳しく説明した図である。
ここでは、まず画像からマーカーを抽出する(ステップ201)。このときマーカーが複数ある場合は、各マーカーの画像を抽出する。
そして抽出したマーカーからID番号を取得する(ステップ202)。
さらに撮影した画像中のマーカーの大きさや変形状態を基に、入力手段30等の位置および姿勢を決定する(ステップ203)。
そしてID番号に対応する入力手段30等の位置および姿勢の情報を更新する(ステップ204)。
図6に戻り、接触検知手段140は、ID番号から撮影した画像中に入力手段30が含まれるか否かを判断する(ステップ104)。
そして含まれない場合(ステップ104でNo)、ステップ107に移行する。
対して含まれる場合(ステップ104でYes)、接触検知手段140は、複数の入力手段30同士または入力手段30とユーザの手とが互いに接触したことを検知する(ステップ105)。
以下、図8~図11を使用して、接触検知手段140が行なう接触検知処理について説明する。この図8~図11は、ステップ104の処理についてより詳しく説明した図である。
図8は、複数の入力手段30同士として、シート31とペン32とが接触したことを検知する処理について説明したフローチャートである。
接触検知手段140は、ペン32の位置および姿勢と、保持手段130に保持されているペン32の大きさ・形状とから、ペン先32aの位置を算出する(ステップ301)。
次に接触検知手段140は、決定手段120により決定されたシート31の位置および姿勢と、保持手段130に保持されているシート31の大きさ・形状とから、シート31の範囲を算出する(ステップ302)。
そして接触検知手段140は、ペン先32aの位置と、シート31の範囲とが、予め定められた距離以下であるか否かを判断する(ステップ303)。
その結果、予め定められた距離以下でない場合(ステップ303でNo)、接触検知手段140は、シート31とペン32とは、接触していないと判断する(ステップ304)。
対して、予め定められた距離以下である場合(ステップ303でYes)、接触検知手段140は、シート31とペン32とは、接触したと判断する(ステップ305)。
また図9は、入力手段30とユーザの手とが接触したことを検知する処理について説明したフローチャートである。
接触検知手段140は、ユーザの手の位置および姿勢と、保持手段130に保持されているユーザの手の大きさ・形状とから、指による入力範囲を算出する(ステップ401)。
次に接触検知手段140は、シート31の位置および姿勢と、保持手段130に保持されているシート31の大きさ・形状からシート31の範囲を算出する(ステップ402)。
そして接触検知手段140は、指による入力範囲と、シート31の範囲とが、予め定められた距離以下であるか否かを判断する(ステップ403)。
その結果、予め定められた距離以下でない場合(ステップ403でNo)、接触検知手段140は、シート31とユーザの手とは、接触していないと判断する(ステップ404)。
対して、予め定められた距離以下である場合(ステップ403でYes)、接触検知手段140は、シート31とユーザの手とは、接触したと判断する(ステップ405)。
また他にもペン32のペン先32aに、圧力センサや光センサなどの接触判定用のセンサを設け、これを利用することで、接触を検知する方法もある。
図10は、ペン先32aに接触判定用のセンサを設け、シート31とペン32とが接触したことを検知する処理について説明したフローチャートである。
接触検知手段140は、ペン32の位置および姿勢と、保持手段130に保持されているペン32の大きさ・形状とから、ペン先32aの位置を算出する(ステップ501)。
次に接触検知手段140は、決定手段120により決定されたシート31の位置および姿勢と、保持手段130に保持されているシート31の大きさ・形状とから、シート31の範囲を算出し、対象となるシート31を特定する(ステップ502)。
そして接触検知手段140は、ペン先32aに設けられた接触判定用のセンサが反応しているか否かを判断する(ステップ503)。
その結果、反応していない場合(ステップ503でNo)、接触検知手段140は、シート31とペン32とは、接触していないと判断する(ステップ504)。
対して、反応している場合(ステップ503でYes)、接触検知手段140は、シート31とペン32とは、接触したと判断する(ステップ505)。
なおこの方法では、接触検知手段140は、シート31とユーザの手とが接触したことを検知することはできない。
また他にもシート31に、圧力センサや光センサなどの接触判定用のセンサを設け、これを利用することで、接触を検知する方法もある。
図11は、シート31に接触判定用のセンサを設け、シート31とペン32とが接触したことを検知する処理について説明したフローチャートである。
接触検知手段140は、ペン32や手の位置および姿勢と、保持手段130に保持されているペン32や手の大きさ・形状とから、ペン先32aの位置や指による入力範囲を算出する(ステップ601)。
次に接触検知手段140は、シート31の位置および姿勢と、保持手段130に保持されているシート31の大きさ・形状からシート31の範囲を算出する(ステップ602)。
そして接触検知手段140は、シート31に設けられた接触判定用のセンサが反応しているか否かを判断する(ステップ603)。
その結果、反応していない場合(ステップ603でNo)、接触検知手段140は、シート31と、ペン32または手とは、接触していないと判断する(ステップ604)。
対して、反応している場合(ステップ603でYes)、接触検知手段140は、シート31と、ペン32または手とは、接触したと判断し、双方のID番号を保持する(ステップ605)。
再び図6に戻り、接触検知手段140が、接触していないと判断した場合(ステップ105でNo)、ステップ107に移行する。
対して、接触検知手段140が、接触したと判断した場合(ステップ105でYes)、保存手段150は、入力手段30やユーザの手により入力された情報を追記情報として保存する(ステップ106)。
次に、作成手段160が、空間計算を行ない、仮想空間中において、表示装置20、入力手段30、ユーザの手、デスク領域、シート31上の画像、追記情報を、3Dモデルとして配置する(ステップ107)。このうちデスク領域は、領域設定シート50により設定される領域である。またシート31上の画像は、例えば、ユーザが入力を行なうためのフォーマットであり、シート31上に重畳して配置される。さらに追記情報は、この場合、フォーマットにユーザが入力した情報であり、シート31上の画像に対しさらに重畳して配置される。つまりシート31上には、予め用意された画像、およびそれに加え追記情報の画像が配置される。
さらに作成手段160は、表示装置20の位置および姿勢に応じ、表示装置20にて表示し、ユーザに提示する画像の表示情報を作成する(ステップ108)。
作成手段160で作成された表示情報は、表示装置20に送られ、表示装置20の表示情報取得手段210が取得する(ステップ109)。
そして画像表示手段220が、表示情報を基に表示画面20aに画像を表示する(ステップ110)。
図12(a)~(b)は、本実施の形態で、実空間においてユーザが視認する机上の状態と、仮想空間でユーザが視認する机上の状態とを比較した図である。
ここで、図12(a)は、実空間で、入力手段30、ユーザの手Hd、領域設定シート50を見た図である。
図12(a)では、入力手段30として、上述したシート31およびペン32の他に、キーボード33およびマウス34を使用している。そして実空間では、シート31上には、情報が何も記載されていないことを示している。そしてカメラ40により、これらを撮影する。
また図12(b)は、表示装置20で表示される画像を示した図である。ここでは仮想空間中に、入力手段30、ユーザの手Hd、デスク領域Drが表示された場合を示している。
図12(b)では、入力手段30として、シート31、ペン32、キーボード33およびマウス34が表示される。また領域設定シート50により設定されるデスク領域Drとユーザの手Hdとが表示される。入力手段30は、実空間では、領域設定シート50に置かれ、そのため仮想空間では、デスク領域Dr中に表示される。この場合、デスク領域Drは、ユーザが入力手段30を使用できる触知領域として機能する。さらにこの場合、シート31上に、ユーザが入力を行なうためのフォーマットの画像G1に加え、追記情報の画像G2が重畳して表示されることを示している。
また図12(b)では、デスク領域Drの周囲に、入力手段30を使用できない非触知領域Hrが配される。ここでは、デスク領域Drの左右に、仮想空間中で常時表示する文書61を表示する。この常時表示する文書61は、例えば、カレンダー、スケジュール表等である。またデスク領域Drの正面には、仮想的なディスプレイ62が表示される。このディスプレイ62には、キーボード33およびマウス34を使用してユーザが入力した情報が追記情報として表示される。実世界では、狭い作業スペースしかない場合でも、非触知領域Hrを設けることで、擬似的に広い作業スペースを得ることができる。
<効果の説明>
文書の整理、書き込み、校正等の作業を行なう上で、紙媒体を利用する利点は、その扱いやすい操作性にある。一方、形のない情報を直接触れることができる(触知可能、タンジブル)ようにしたタンジブルユーザインタフェースでは、従来は、この紙媒体の操作性、および触知性(タンジビリティ)を再現することは、困難である。またPCで文書の作業を行なう場合、特に外出先での作業効率や作業の質が低下しやすい問題がある。つまり文書間の移動に時間を要したり、必要な文書のシミュレーションが必要になったりすることで、作業効率や作業の質が低下しやすい。
一方、紙媒体の場合、PC等では可能な、コピー&ペースト・検索など他の機器との連携、作業状況の把握、表示を可変とする、等が困難であるなど、ユーザの知性の発揮を妨げる面もある。
ここで本実施の形態によれば、実空間に存在する入力手段30を、仮想空間でも表示し、そして実際に存在する入力手段30を使用することで、文書作業等を行なう。これにより、仮想空間においても物理的なフィードバックを得ることができることで触知可能(タンジブル)なユーザインタフェースが実現できる。その結果、ユーザにとっては、より自然に作業を行なうことができる。また仮想空間で表示される入力手段30は、その大きさ、形状が実空間のものとほぼ同様に再現される。そのため、ユーザにとって、仮想空間で表示される入力手段30を操作するときの触覚と、実際に存在する入力手段30を操作するときの触覚とは、感覚的に矛盾がほとんどない状態となり得る。よってユーザは、違和感なく入力手段30を扱うことができる。さらに従来からある入力手段30を選択できるため、新たな操作方法を習得する必要がない。
またユーザの手を表示する場合は、これが視覚として追加されるため、触覚と視覚とがより一致しやすくなる。またこのとき指の関節角度等を併せて再現することにより、手の形状の表示がより正確になり、ユーザが見たときの視覚と入力手段30を操作するときの触覚とがさらに矛盾しにくくなる。
そしてユーザが自らの体を使用して操作を行なうため、より柔軟で迅速な作業が可能となり、入力手段30に対する位置記憶なども活用しやすくなる。
また本実施の形態では、シート型の入力手段30であるシート31と、ペン型の入力手段30であるペン32とを使用し、ユーザが情報の入力を行なう。この組み合わせにより、現実での紙とペンの操作性を再現できる。これにより、机の上に紙を広げて使う、ペンで紙にすばやく追記ができる等の操作性が再現できる。また従来技術にある振動等により疑似的に触覚を提示する入力装置に比較して、本実施の形態では、実際に存在する入力手段30を使用することで、反力も含めより正確な触覚を提示可能であり、そのため文字を書くなどの作業に必要な細かな操作も行ないやすくなる。さらに本実施の形態では、情報の更新、変更がすばやく行えるなど、電子的情報を扱う利点も享受できる。
そして表示装置20をヘッドマウントディスプレイとすることで、入力手段30の位置、姿勢にかかわらず、シート31等に情報を重畳的に表示することができる。さらにこの場合、視覚的外乱や雑音が少なくなる等の効果も得られ、ユーザが作業に集中しやすくなる。
さらに本実施の形態では、外出先でも自席と変らないパフォーマンスで、作業を行ないやすく、狭いスペースでも作業を行なうことができる。
また仮想空間中で、シート31やディスプレイ62に表示される情報は、実空間では表示されないため、よりセキュアである。
さらにペーパーレス化を実現できるため、業務のログを完全にとることができる、在宅勤務が可能である、コピー&ペースト等の他の機器との連携ができる、等が容易になる。
またさらにオフィスレス化もより容易であるため、会社資産の軽減、企業のスタートアップ、新規プロジェクトの立ち上げがより容易になる、遠隔地の人材の雇用など多様な人材の活用見込めるなどの利点も生じる。
なお以上説明した形態では、領域設定シート50を用意し、これによりデスク領域Drを設定したが、これに限られるものでなく、例えば、デスク領域Drの四隅を規定するLED等を配するなどの方法でもよい。
また以上説明した形態では、表示装置20により仮想空間の表示、即ち、VR(Virtual Reality、仮想現実)を利用した表示を行なったが、これに限られるものではなく、AR(Augmented Reality、拡張現実)やMR(Mixed Reality、複合現実)を利用してもよい。
さらに以上説明した形態では、文書作業について例示したが、これに限られるものではなく、例えば、シミュレーションやゲーム等に適用してもよい。
さらに入力手段30は、上述したものに限られるものではなく、例えば、入力手段30として、文書を立てる譜面台、暦を表示するカレンダー、時間を表示する時計、文書を束ねるクリップやバインダ、定規、コンパス、マグカップの下に敷くコースター、タブレット端末、スマートフォン端末等を用意してもよい。
<プログラムの説明>
ここで以上説明を行った本実施の形態における情報処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
よって本実施の形態で情報処理装置10が行なう処理は、コンピュータに、情報の入力を行なう入力手段30を撮影するカメラ40から入力手段30の画像情報を取得する画像情報取得機能と、画像情報を基に入力手段30の画像を表示する表示装置20に対する表示情報を作成する作成機能と、を実現させ、作成機能は、表示装置20で表示された入力手段30を使用して入力した情報に応じて、表示装置20に対する表示情報を更新するプログラムとして捉えることができる。
なお、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD-ROM等の記録媒体に格納して提供することも可能である。
以上、本実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
1…情報処理システム、10…情報処理装置、20…表示装置、20a…表示画面、30…入力手段、31…シート、32…ペン、40…カメラ、110…画像情報取得手段、120…決定手段、130…保持手段、140…接触検知手段、150…保存手段、160…作成手段、210…表示情報取得手段、220…画像表示手段、Hd…ユーザの手、Dr…デスク領域、Hr…非触知領域

Claims (15)

  1. 情報の入力を行なう入力手段を撮影する撮影装置から当該入力手段の画像情報を取得する画像情報取得手段と、
    前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成手段と、
    を備え、
    前記作成手段は、
    前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、
    前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成する情報処理装置。
  2. 前記入力手段は、当該入力手段の位置および姿勢を決定するためのマーカーを備え、
    前記撮影装置により撮影された前記マーカーの画像情報を基に、前記入力手段の位置および姿勢を決定する決定手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記作成手段は、前記決定手段が決定した前記入力手段の位置および姿勢に基づき、実際の当該入力手段の大きさおよび形状に合わせ当該入力手段の画像を表示する表示情報を作成することを特徴とする請求項2に記載の情報処理装置。
  4. 前記決定手段は、ユーザの手の位置および姿勢をさらに決定し、
    前記作成手段は、前記決定手段が決定した前記ユーザの手の位置および姿勢に基づき、実際の当該ユーザの手の大きさおよび形状に合わせ当該ユーザの手の画像を表示する表示情報を作成することを特徴とする請求項3に記載の情報処理装置。
  5. 複数の前記入力手段同士または当該入力手段とユーザの手とが互いに接触したことを検知する接触検知手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
  6. 前記作成手段は、複数の前記入力手段が互いに接触することで入力される情報を追記情報として表示する表示情報を作成することを特徴とする請求項5に記載の情報処理装置。
  7. 前記追記情報を保存する保存手段をさらに備えることを特徴とする請求項6に記載の情報処理装置。
  8. 前記作成手段は、実空間中で存在する前記入力手段を、仮想空間中で仮想的に表示する表示情報を作成することを特徴とする請求項1に記載の情報処理装置。
  9. 前記作成手段は、前記触知領域に、前記入力手段を表示することを特徴とする請求項に記載の情報処理装置。
  10. 前記作成手段は、前記非触知領域に、仮想空間中で常時表示する文書を表示する表示情報を作成することを特徴とする請求項に記載の情報処理装置。
  11. 前記表示装置は、ヘッドマウントディスプレイであることを特徴とする請求項に記載の情報処理装置
  12. 前記作成手段は、仮想空間中で前記入力手段を実際の当該入力手段に合わせ仮想的に表示することを特徴とする請求項10に記載の情報処理装置
  13. 情報の入力を行なう入力手段を撮影する撮影装置と、
    表示情報を基に画像を表示する表示装置と、
    前記表示情報を作成する情報処理装置と、
    を備え、
    前記情報処理装置は、
    前記撮影装置から前記入力手段の画像情報を取得する画像情報取得手段と、
    前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成手段と、
    を備え、
    前記作成手段は、
    前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、
    前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成する情報処理システム。
  14. 前記入力手段は、形状として、シート型およびペン型のものを含むことを特徴とする請求項13に記載の情報処理システム。
  15. コンピュータに、
    情報の入力を行なう入力手段を撮影する撮影装置から当該入力手段の画像情報を取得する画像情報取得機能と、
    前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成機能と、
    前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえる領域設定シートの領域を触知領域として決定する機能と、
    を実現させ、
    前記作成機能は、
    前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、
    前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成するプログラム。
JP2017232518A 2017-12-04 2017-12-04 情報処理装置、情報処理システムおよびプログラム Active JP7087364B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017232518A JP7087364B2 (ja) 2017-12-04 2017-12-04 情報処理装置、情報処理システムおよびプログラム
CN201810567708.3A CN109871117A (zh) 2017-12-04 2018-06-04 信息处理装置、显示装置及信息处理系统
US16/198,893 US20190171299A1 (en) 2017-12-04 2018-11-23 Information processing apparatus, display apparatus, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017232518A JP7087364B2 (ja) 2017-12-04 2017-12-04 情報処理装置、情報処理システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2019101796A JP2019101796A (ja) 2019-06-24
JP7087364B2 true JP7087364B2 (ja) 2022-06-21

Family

ID=66657999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017232518A Active JP7087364B2 (ja) 2017-12-04 2017-12-04 情報処理装置、情報処理システムおよびプログラム

Country Status (3)

Country Link
US (1) US20190171299A1 (ja)
JP (1) JP7087364B2 (ja)
CN (1) CN109871117A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11487353B2 (en) * 2016-11-14 2022-11-01 Logitech Europe S.A. Systems and methods for configuring a hub-centric virtual/augmented reality environment
JP6903999B2 (ja) * 2017-03-29 2021-07-14 富士フイルムビジネスイノベーション株式会社 コンテンツ表示装置およびコンテンツ表示プログラム
US10593128B1 (en) 2019-08-20 2020-03-17 Capital One Services, Llc Using augmented reality markers for local positioning in a computing environment
US10614636B1 (en) * 2019-08-20 2020-04-07 Capital One Services, Llc Using three-dimensional augmented reality markers for local geo-positioning in a computing environment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
JP2014157482A (ja) 2013-02-15 2014-08-28 Konica Minolta Inc 操作表示システム
WO2016051429A1 (ja) 2014-09-30 2016-04-07 株式会社ブリリアントサービス 入出力装置、入出力プログラム、および入出力方法
WO2017145423A1 (ja) 2016-02-25 2017-08-31 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
US20170278304A1 (en) 2016-03-24 2017-09-28 Qualcomm Incorporated Spatial relationships for integration of visual images of physical environment into virtual reality
JP2017528834A (ja) 2014-09-11 2017-09-28 ノキア テクノロジーズ オサケユイチア 画像を表示するための方法、装置およびコンピュータ・プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980042016A (ko) * 1996-11-01 1998-08-17 모리시다요이치 화상 합성장치, 화상 합성방법 및 매체
US20120044140A1 (en) * 2010-08-19 2012-02-23 Sanyo Electric Co., Ltd. Information display system and program, and optical input system, projection-type images and display apparatus
US9965107B2 (en) * 2011-10-28 2018-05-08 Atmel Corporation Authenticating with active stylus
US9632593B2 (en) * 2012-11-09 2017-04-25 Sony Corporation Information processing apparatus, information processing method, and computer-readable recording medium
US10001857B2 (en) * 2015-05-13 2018-06-19 Seiko Epson Corporation Display apparatus and method of controlling display apparatus
JP6502781B2 (ja) * 2015-07-31 2019-04-17 富士通株式会社 情報提示方法及び情報提示装置
CN108475134A (zh) * 2015-12-21 2018-08-31 索尼公司 信息处理装置和信息处理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
JP2014157482A (ja) 2013-02-15 2014-08-28 Konica Minolta Inc 操作表示システム
JP2017528834A (ja) 2014-09-11 2017-09-28 ノキア テクノロジーズ オサケユイチア 画像を表示するための方法、装置およびコンピュータ・プログラム
WO2016051429A1 (ja) 2014-09-30 2016-04-07 株式会社ブリリアントサービス 入出力装置、入出力プログラム、および入出力方法
WO2017145423A1 (ja) 2016-02-25 2017-08-31 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
US20170278304A1 (en) 2016-03-24 2017-09-28 Qualcomm Incorporated Spatial relationships for integration of visual images of physical environment into virtual reality

Also Published As

Publication number Publication date
CN109871117A (zh) 2019-06-11
US20190171299A1 (en) 2019-06-06
JP2019101796A (ja) 2019-06-24

Similar Documents

Publication Publication Date Title
JP7087364B2 (ja) 情報処理装置、情報処理システムおよびプログラム
EP2919104B1 (en) Information processing device, information processing method, and computer-readable recording medium
KR101108743B1 (ko) 홀로그래픽 사용자 인터페이스 통신을 위한 방법 및 장치
US9128537B2 (en) Bimanual interactions on digital paper using a pen and a spatially-aware mobile projector
EP2498237B1 (en) Providing position information in a collaborative environment
US20100103178A1 (en) Spatially-aware projection pen
US20090213070A1 (en) Processor control and display system
EP2325727A2 (en) Drawing, writing and pointing device for human-computer interaction
US20130033461A1 (en) System for notetaking with source document referencing
US20190050132A1 (en) Visual cue system
JP5524951B2 (ja) 印刷物用の分離型アプリケーション
US7922099B1 (en) System and method for associating content with an image bearing surface
US20130033460A1 (en) Method of notetaking using optically imaging pen with source document referencing
JP6044198B2 (ja) コンピュータ装置、プログラム及び情報処理システム
Tong et al. Exploring interactions with printed data visualizations in augmented reality
JP4301524B2 (ja) 印刷システム及び情報処理装置
US20080240565A1 (en) Document generating apparatus, display control apparatus, document generating method, display control method and computer readable medium
US20070177806A1 (en) System, device, method and computer program product for using a mobile camera for controlling a computer
US20130033429A1 (en) Method of notetaking with source document referencing
Hachet et al. The interaction table: a new input device designed for interaction in immersive large display environments
JP6048165B2 (ja) コンピュータ装置、電子ペンシステム、及びプログラム
US20220084287A1 (en) Information processing apparatus, display device, information processing system, and non-transitory computer readable medium storing program
KR101775080B1 (ko) Nui/nux에 기반하여 드로잉 영상을 처리하는 장치 및 방법
JP2014021689A (ja) 広告表示装置、広告表示システム、コンピュータおよびそのプログラム
Signer Pen-based interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R150 Certificate of patent or registration of utility model

Ref document number: 7087364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150