JP6354653B2 - 拡張現実操作システムおよび拡張現実操作プログラム - Google Patents

拡張現実操作システムおよび拡張現実操作プログラム Download PDF

Info

Publication number
JP6354653B2
JP6354653B2 JP2015089901A JP2015089901A JP6354653B2 JP 6354653 B2 JP6354653 B2 JP 6354653B2 JP 2015089901 A JP2015089901 A JP 2015089901A JP 2015089901 A JP2015089901 A JP 2015089901A JP 6354653 B2 JP6354653 B2 JP 6354653B2
Authority
JP
Japan
Prior art keywords
image
augmented reality
hand
composite image
composite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015089901A
Other languages
English (en)
Other versions
JP2016207048A (ja
Inventor
良臣 松木
良臣 松木
智広 川▲崎▼
智広 川▲崎▼
邦彦 島本
邦彦 島本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2015089901A priority Critical patent/JP6354653B2/ja
Priority to US15/135,853 priority patent/US9628646B2/en
Publication of JP2016207048A publication Critical patent/JP2016207048A/ja
Application granted granted Critical
Publication of JP6354653B2 publication Critical patent/JP6354653B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00413Display of information to the user, e.g. menus using menus, i.e. presenting the user with a plurality of selectable options
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1205Improving or facilitating administration, e.g. print management resulting in increased flexibility in print job configuration, e.g. job settings, print requirements, job tickets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1253Configuration of print job parameters, e.g. using UI at the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00493Particular location of the interface or console

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Position Input By Displaying (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、電子機器を操作するための操作用画像を撮影画像に合成した合成画像を表示して、操作用画像中の操作部に対する操作を受け付ける拡張現実操作システムおよび拡張現実操作プログラムに関する。
従来、画像形成装置を操作するための操作用画像を撮影画像に合成した合成画像をタッチパネルに表示して、操作用画像中の操作部に対する操作をタッチパネルで受け付ける画像形成システムが知られている(特許文献1参照。)。
特開2012−029164号公報
しかしながら、従来の画像形成システムにおいては、利用者が直接触れることによって操作するタッチパネルが必要であるという問題がある。
そこで、本発明は、利用者が直接触れることによって操作する入力デバイスを備えていなくても、撮影画像に合成した操作用画像中の操作部に対する操作を受け付けることができる拡張現実操作システムおよび拡張現実操作プログラムを提供することを目的とする。
本発明の拡張現実操作システムは、撮像デバイスと、表示デバイスと、電子機器と、前記電子機器を操作するための操作用画像を前記撮像デバイスによる撮影画像に合成した合成画像を前記表示デバイスに表示させる拡張現実手段と、前記操作用画像中の操作部に対する操作を受け付ける操作受付手段とを備え、前記操作受付手段は、前記撮像デバイスによって撮影された手の前記合成画像における位置と、前記合成画像における前記操作部の位置とに基づいて、前記操作部に対する操作を受け付けることを特徴とする。
この構成により、本発明の拡張現実操作システムは、撮像デバイスによって撮影された手の合成画像における位置と、合成画像における操作部の位置とに基づいて操作部に対する操作を受け付けるので、利用者が直接触れることによって操作する入力デバイスを備えていなくても、撮影画像に合成した操作用画像中の操作部に対する操作を受け付けることができる。
また、本発明の拡張現実操作システムは、音出力デバイスと、前記合成画像における前記操作部の位置に対応する現実空間における位置で前記操作部に対する操作音が出力させられているように前記音出力デバイスに立体音響で前記操作音を出力させる立体音響手段とを備えても良い。
この構成により、本発明の拡張現実操作システムは、合成画像における操作部の位置に対応する現実空間における位置で出力させられているように立体音響で出力させる操作音によって、現実空間に存在しない操作部に対する操作への違和感を抑えることができるので、操作部に対する操作感を向上することができる。
また、本発明の拡張現実操作システムにおいて、前記拡張現実手段は、前記撮像デバイスによって撮影された手の前記撮影画像における位置に応じて、仮想の手の画像を前記操作用画像に対して配置することによって、前記合成画像を生成しても良い。
この構成により、本発明の拡張現実操作システムは、合成画像における操作用画像に対して配置した仮想の手の画像と、合成画像における操作部の位置に対応する現実空間における位置で出力させられているように立体音響で出力させる操作音との相互作用によって、現実空間に存在しない操作部に対する操作への違和感を抑えることができるので、操作部に対する操作感を更に向上することができる。
また、本発明の拡張現実操作システムにおいて、前記拡張現実手段は、前記撮影画像に含まれる現実の手の画像を画像処理によって前記合成画像から消去しても良い。
この構成により、本発明の拡張現実操作システムは、現実の手の画像を合成画像に含めないことによって仮想の手の画像を目立たせることができるので、仮想の手による操作への違和感を更に抑えることができる。
また、本発明の拡張現実操作システムにおいて、前記拡張現実手段は、前記撮影画像に含まれる現実の手の画像の少なくとも一部の形状を前記仮想の手の画像の形状として使用しても良い。
この構成により、本発明の拡張現実操作システムは、仮想の手の画像の形状として利用者自身の現実の手の画像の少なくとも一部の形状を使用するので、現実空間に存在しない操作部に対する、仮想の手による操作への違和感を更に抑えることができる。
本発明の拡張現実操作プログラムは、電子機器を操作するための操作用画像を撮像デバイスによる撮影画像に合成した合成画像を表示デバイスに表示させる拡張現実手段、および、前記操作用画像中の操作部に対する操作を受け付ける操作受付手段として、コンピューターを機能させ、前記操作受付手段は、前記撮像デバイスによって撮影された手の前記合成画像における位置と、前記合成画像における前記操作部の位置とに基づいて、前記操作部に対する操作を受け付けることを特徴とする。
この構成により、本発明の拡張現実操作プログラムを実行するコンピューターは、撮像デバイスによって撮影された手の合成画像における位置と、合成画像における操作部の位置とに基づいて操作部に対する操作を受け付けるので、利用者が直接触れることによって操作する入力デバイスを備えていなくても、撮影画像に合成した操作用画像中の操作部に対する操作を受け付けることができる。
本発明の拡張現実操作システムおよび拡張現実操作プログラムは、利用者が直接触れることによって操作する入力デバイスを備えていなくても、撮影画像に合成した操作用画像中の操作部に対する操作を受け付けることができる。
本発明の一実施の形態に係る拡張現実操作システムのブロック図である。 図1に示すMFPのブロック図である。 図1に示す拡張現実サーバーのブロック図である。 MFPを操作する場合の図3に示す拡張現実サーバーの動作のフローチャートである。 図1に示す表示デバイスに表示される合成画像の一例を示す図である。 表示デバイスが図5に示す合成画像を表示している場合に撮像デバイスによる撮影方向と直交する方向から観察したときのMFP、操作用画像、撮像デバイスおよび表示デバイスの位置関係を示す図である。 利用者の手が操作用画像よりも表示デバイス側に存在する場合に図1に示す表示デバイスに表示される合成画像の一例を示す図である。 表示デバイスが図7に示す合成画像を表示している場合に撮像デバイスによる撮影方向と直交する方向から観察したときのMFP、操作用画像、手、撮像デバイスおよび表示デバイスの位置関係を示す図である。 利用者の手が操作用画像よりもMFP側に存在する場合に図1に示す表示デバイスに表示される合成画像の一例を示す図である。 表示デバイスが図9に示す合成画像を表示している場合に撮像デバイスによる撮影方向と直交する方向から観察したときのMFP、操作用画像、手、撮像デバイスおよび表示デバイスの位置関係を示す図である。 仮想の手の画像を操作用画像に対して配置している場合に図1に示す表示デバイスに表示される合成画像の一例を示す図である。 表示デバイスが図11に示す合成画像を表示している場合に撮像デバイスによる撮影方向と直交する方向から観察したときのMFP、操作用画像、手、撮像デバイスおよび表示デバイスの位置関係を示す図である。 図12に示すMFP、操作用画像、手および表示デバイスの斜視図である。 利用者の手が操作用画像よりもMFP側に存在する場合であって、仮想の手の画像を操作用画像に対して配置している場合に図1に示す表示デバイスに表示される合成画像の一例を示す図である。 仮想の手の画像を操作用画像に対して配置している場合に図1に示す表示デバイスに表示される合成画像の一例であって図11および図14に示す例とは異なる例を示す図である。
以下、本発明の一実施の形態について、図面を用いて説明する。
まず、本実施の形態に係る拡張現実操作システムの構成について説明する。
図1は、本実施の形態に係る拡張現実操作システム10のブロック図である。
図1に示すように、拡張現実操作システム10は、本発明の電子機器としてのMFP(Multifunction Peripheral)20と、拡張現実(AR:Augmented Reality)を実現する例えばPC(Personal Computer)などの拡張現実サーバー30と、カメラなどの撮像デバイス41と、LCD(Liquid Crystal Display)などの表示デバイス42と、スピーカーなどの音出力デバイス43とを備えている。MFP20と、拡張現実サーバー30と、撮像デバイス41と、表示デバイス42と、音出力デバイス43とは、LAN(Local Area Network)、インターネットなどのネットワーク11を介して互いに通信可能に接続されている。
図2は、MFP20のブロック図である。
図2に示すように、MFP20は、利用者による種々の操作が入力されるボタンなどの入力デバイスである操作部21と、種々の情報を表示するLCDなどの表示デバイスである表示部22と、原稿から画像を読み取る読取デバイスであるスキャナー23と、用紙などの記録媒体に印刷を実行する印刷デバイスであるプリンター24と、図示していない外部のファクシミリ装置と公衆電話回線などの通信回線経由でファックス通信を行うファックスデバイスであるファックス通信部25と、ネットワーク11(図1参照。)経由で外部の装置と通信を行う通信デバイスである通信部26と、各種のデータを記憶しているEEPROM(Electrically Erasable Programmable Read Only Memory、登録商標)、HDD(Hard Disk Drive)などの不揮発性の記憶デバイスである記憶部27と、MFP20全体を制御する制御部28とを備えている。
制御部28は、例えば、CPU(Central Processing Unit)と、プログラムおよび各種のデータを記憶しているROM(Read Only Memory)と、CPUの作業領域として用いられるRAM(Random Access Memory)とを備えている。CPUは、ROMまたは記憶部27に記憶されているプログラムを実行することができる。
図3は、拡張現実サーバー30のブロック図である。
図3に示すように、拡張現実サーバー30は、利用者による種々の操作が入力されるマウス、キーボードなどの入力デバイスである操作部31と、種々の情報を表示するLCDなどの表示デバイスである表示部32と、ネットワーク11(図1参照。)経由で外部の装置と通信を行う通信デバイスである通信部33と、各種のデータを記憶しているHDDなどの不揮発性の記憶デバイスである記憶部34と、拡張現実サーバー30全体を制御する制御部35とを備えている。
記憶部34は、制御部35によって実行される拡張現実操作プログラム34aを記憶している。拡張現実操作プログラム34aは、拡張現実サーバー30の製造段階で拡張現実サーバー30にインストールされていても良いし、CD(Compact Disk)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリーなどの外部の記憶媒体から拡張現実サーバー30に追加でインストールされても良いし、ネットワーク11上から拡張現実サーバー30に追加でインストールされても良い。
制御部35は、例えば、CPUと、プログラムおよび各種のデータを記憶しているROMと、CPUの作業領域として用いられるRAMとを備えている。CPUは、ROMまたは記憶部34に記憶されているプログラムを実行する。
制御部35は、記憶部34に記憶されている拡張現実操作プログラム34aを実行することによって、MFP20を操作するための操作用画像を撮像デバイス41による撮影画像に合成した合成画像を表示デバイス42に表示させる拡張現実手段35a、操作用画像中の操作部に対する操作を受け付ける操作受付手段35b、および、合成画像における操作部の位置に対応する現実空間における位置で操作部に対する操作音が出力させられているように音出力デバイス43に立体音響で操作音を出力させる立体音響手段35cとして機能する。
次に、拡張現実操作システム10の動作について説明する。
図4は、MFP20を操作する場合の拡張現実サーバー30の動作のフローチャートである。
図4に示すように、拡張現実サーバー30の拡張現実手段35aは、位置情報に基づいたロケーションベースARと、画像処理に基づいたビジョンベースARとの何れかによって、図5に示すように、MFP20を操作するための操作用画像50を撮像デバイス41による撮影画像60に合成した合成画像70の表示デバイス42への表示を開始する(S101)。
図5は、表示デバイス42に表示される合成画像70の一例を示す図である。
図5に示す操作用画像50は、MFP20のスキャナー23によって原稿から読み取った画像をMFP20のプリンター24によって記録媒体に印刷する機能、すなわち、コピー機能の設定の画面の例である。例えば、図5に示す操作用画像50には、コピーによって生成する部数を設定するための操作部51と、MFP20に記録媒体の供給元が複数存在する場合に何れの供給元から記録媒体を供給するかを設定するための操作部52と、コピーの倍率を設定するための操作部53と、コピーの濃度を設定するための操作部54と、原稿の両面を読み取るか否かおよび記録媒体の両面に印刷するか否かを設定するための操作部55と、記録媒体1枚当たりに何枚分の原稿の画像を印刷するかを設定するための操作部56と、原稿のページ順に記録媒体に印刷を実行するか否かおよび印刷した記録媒体を1部毎に分けて出力するか否かを設定するための操作部57とが含まれている。操作用画像50は、半透明であっても良い。
また、図5に示す撮影画像60には、撮像デバイス41によって撮影されたMFP20の画像61が含まれている。
図6は、表示デバイス42が図5に示す合成画像70を表示している場合に撮像デバイス41による撮影方向と直交する方向から観察したときのMFP20、操作用画像50、撮像デバイス41および表示デバイス42の位置関係を示す図である。
図6に示すように、操作用画像50は、合成画像70を見ている利用者にとってMFP20と、表示デバイス42との間の空間に配置されているように見えている。なお、操作用画像50は、理解の容易のために図6において現実空間上に配置されているが、実際には現実空間上に存在していない。
図4に示すように、拡張現実手段35aは、撮像デバイス41による撮影画像60において手を検出したと判断するまで、撮像デバイス41による撮影画像60において手を検出したか否かを判断する(S102)。
例えば、拡張現実手段35aは、図7および図8に示すように利用者の手90が操作用画像50よりも表示デバイス42側に存在する場合であっても、図9および図10に示すように利用者の手が操作用画像50よりもMFP20側に存在する場合であっても、撮影画像60において手90の画像62を検出することができる。なお、図7および図9においては、操作用画像50と、画像62との重なりの上下関係の理解の容易のために合成画像70を示しているが、拡張現実手段35aは、実際には、操作用画像50が合成されていない状態の撮影画像60において手90の画像62を検出したか否かを判断する。また、図8および図10には操作用画像50が描かれているが、図6と同様に実際には操作用画像50は現実空間上に存在していない。
図4に示すように、拡張現実手段35aは、撮像デバイス41による撮影画像60において手を検出したとS102において判断すると、撮影画像60に含まれる現実の手90の画像62を画像処理によって合成画像70から消去する(S103)。したがって、図7および図9に示す合成画像70は、図5に示す合成画像70のようになる。なお、画像処理による画像62の消去の方法としては、例えば、画像62の周りの箇所から補間する方法や、撮影画像60を特定の期間記憶しておき画像62の箇所を画像62が現れる前の状態に戻す方法などが考えられる。
拡張現実手段35aは、S103の処理の後、図11に示すように、撮像デバイス41によって撮影された手90の撮影画像60における位置に応じて、仮想の手の画像80を操作用画像50に対して配置することによって、合成画像70を生成する(S104)。ここで、拡張現実手段35aは、撮影画像60に含まれる現実の手の画像62の少なくとも一部の形状を仮想の手の画像80の形状として使用する。なお、拡張現実手段35aは、図12に示すように、合成画像70を見ている利用者にとって操作用画像50と、画像80が表す手91の指先との撮像デバイス41による撮影方向における位置が一致して見えるように、画像80を配置する位置を決定する。なお、操作用画像50および手91は、理解の容易のために図12において現実空間上に配置されているが、実際には現実空間上に存在していない。
図4に示すように、拡張現実手段35aは、S104の処理の後、S104において生成した合成画像70を表示デバイス42に表示する(S105)。
拡張現実サーバー30の操作受付手段35bは、S105の処理の後、合成画像70における操作用画像50中の操作部51〜57の何れかが押されたか否かを判断する(S106)。ここで、操作受付手段35bは、撮像デバイス41によって撮影された手90の合成画像70における位置と、合成画像70における操作部51〜57の位置とに基づいて、操作部51〜57に対する操作を受け付ける。例えば、撮像デバイス41によって撮影された手90の指先の撮影画像60における位置が合成画像70において図7または図9に示すように操作部56に重なっている場合に、この指先が合成画像70において位置が変わらずに大きさが小さくなったとき、操作受付手段35bは、操作部56が押されたと判断する。
拡張現実サーバー30の立体音響手段35cは、合成画像70における操作部51〜57の何れかが押されたとS106において判断されると、合成画像70において押された操作部の位置に対応する現実空間における位置で、この操作部に対する操作音が出力させられているように音出力デバイス43に立体音響で操作音を出力させる(S107)。例えば、表示デバイス42が図11に示す合成画像70を表示している場合に、合成画像70を見ている利用者にとって図13に示すようにMFP20と、表示デバイス42との間の空間に操作用画像50が配置されているように見えているとき、立体音響手段35cは、合成画像70において押された操作部56の位置に対応する現実空間における位置92で、操作部56に対する操作音が出力させられているように音出力デバイス43に立体音響で操作音を出力させる。
操作受付手段35bは、S107の処理の後、S106において受け付けた操作をMFP20に通知する(S108)。したがって、MFP20の制御部28は、通知された操作に応じた動作を実行する。
拡張現実手段35aは、合成画像70における操作用画像50中の操作部51〜57の何れも押されていないとS106において判断されるか、S108の処理が終了すると、S102の処理を実行する。
以上に説明したように、拡張現実操作システム10は、撮像デバイス41によって撮影された手90の合成画像70における位置と、合成画像70における操作部51〜57の位置とに基づいて操作部51〜57に対する操作を受け付ける(S106)ので、利用者が直接触れることによって操作する入力デバイスを備えていなくても、撮影画像60に合成した操作用画像50中の操作部51〜57に対する操作を受け付けることができる。
人間は、五感から得られる情報を総合的に認識して操作感を判断するという特性を持っている。例えば、人間は、実際に操作した箇所が見えない状態で、少し離れたところから操作音が聞こえると、操作音が聞こえた箇所に手があるように感じる特性を持っている。すなわち、人間は、操作音が聞こえた箇所が、実際に操作した箇所と異なっていても違和感を覚えない特性を持っている。
拡張現実操作システム10は、合成画像70における操作部51〜57の位置に対応する現実空間における位置で出力させられているように立体音響で出力させる操作音によって、現実空間に存在しない操作部51〜57に対する操作への違和感を抑えることができるので、操作部51〜57に対する操作感を向上することができる。例えば、利用者は、操作部51〜57に対して容易に操作を実行することができ、操作部51〜57に対する操作を間違え難くなる。
拡張現実操作システム10は、合成画像70における操作用画像50に対して配置した仮想の手91の画像80と、合成画像70における操作部51〜57の位置に対応する現実空間における位置で出力させられているように立体音響で出力させる操作音との相互作用によって、現実空間に存在しない操作部51〜57に対する操作への違和感を抑えることができるので、操作部51〜57に対する操作感を更に向上することができる。
拡張現実操作システム10は、現実の手90の画像62を合成画像70に含めないことによって仮想の手91の画像80を目立たせることができるので、仮想の手91による操作への違和感を更に抑えることができる。なお、拡張現実操作システム10は、例えば図14に示すように、現実の手90の画像62を合成画像70に含めたままにしても良い。
拡張現実操作システム10は、仮想の手91の画像80の形状として利用者自身の現実の手90の画像62の少なくとも一部の形状を使用するので、現実空間に存在しない操作部51〜57に対する、仮想の手91による操作への違和感を更に抑えることができる。なお、拡張現実操作システム10は、例えば図15に示すように、事前に定められている画像を仮想の手91の画像80として使用しても良い。
拡張現実操作システム10は、MFP20、拡張現実サーバー30、撮像デバイス41、表示デバイス42および音出力デバイス43のうち2つ以上の装置が同一の装置として製造されても良い。例えば、拡張現実操作システム10は、拡張現実サーバー30、撮像デバイス41、表示デバイス42および音出力デバイス43のうち2つ以上の装置を備えているスマートフォン、ヘッドマウントディスプレイなどの携帯機器を備えていても良い。
拡張現実操作システム10は、拡張現実サーバー30の機能の少なくとも一部をMFP20によって実現しても良い。拡張現実操作システム10は、拡張現実サーバー30の機能の全部をMFP20によって実現する場合、拡張現実サーバー30を備えていなくても良い。
拡張現実操作システム10は、本実施の形態において、本発明の電子機器としてMFPを備えているが、プリンター専用機など、MFP以外の画像形成装置を本発明の電子機器として備えていても良いし、PCなど、画像形成装置以外の電子機器を本発明の電子機器として備えていても良い
10 拡張現実操作システム
20 MFP(電子機器)
30 拡張現実サーバー
34a 拡張現実操作プログラム
35a 拡張現実手段
35b 操作受付手段
35c 立体音響手段
41 撮像デバイス
42 表示デバイス
43 音出力デバイス
50 操作用画像
51〜57 操作部
60 撮影画像
62 画像(現実の手の画像)
70 合成画像
80 画像(仮想の手の画像)
90 手(現実の手)
91 手(仮想の手)
92 位置(現実空間における位置)

Claims (4)

  1. 撮像デバイスと、
    表示デバイスと、
    電子機器と、
    前記撮像デバイスによる撮影画像に前記電子機器の画像が含まれている場合に、前記電子機器を操作するための操作用画像を前撮影画像に合成した合成画像を、前記電子機器と、前記表示デバイスとの間の空間に前記電子機器から離れた状態で前記操作用画像が配置されているように見えるように前記表示デバイスに表示させる拡張現実手段と、
    前記操作用画像中の操作部に対する操作を受け付ける操作受付手段とを備え、
    前記拡張現実手段は、前記撮影画像に現実の手の画像が含まれる場合に、前記撮影画像に含まれる前記現実の手の画像を画像処理によって前記合成画像から消去し、前記合成画像を介して、前記操作用画像と、仮想の手の指先との前記撮像デバイスによる撮影方向における位置が一致して見えるように、前記現実の手の前記撮影画像における位置に応じて、前記仮想の手の画像を前記合成画像において前記操作用画像に対して配置し、
    前記操作受付手段は、前記仮想の手の指先の位置が、前記合成画像において前記操作部に重なっている場合に、この指先が前記合成画像において位置が変わらずに大きさが小さくなったとき、前記操作部が押されたと判断することを特徴とする拡張現実操作システム。
  2. 音出力デバイスと、
    前記合成画像における前記操作部の位置に対応する現実空間における位置で前記操作部に対する操作音が出力させられているように前記音出力デバイスに立体音響で前記操作音を出力させる立体音響手段とを備えることを特徴とする請求項1に記載の拡張現実操作システム。
  3. 前記拡張現実手段は、前記撮影画像に含まれる前記現実の手の画像の少なくとも一部の形状を前記仮想の手の画像の形状として使用することを特徴とする請求項1または請求項2に記載の拡張現実操作システム。
  4. 撮像デバイスによる撮影画像に電子機器の画像が含まれている場合に、前記電子機器を操作するための操作用画像を前記撮影画像に合成した合成画像を、前記電子機器と、表示デバイスとの間の空間に前記電子機器から離れた状態で前記操作用画像が配置されているように見えるように前記表示デバイスに表示させる拡張現実手段、および、
    前記操作用画像中の操作部に対する操作を受け付ける操作受付手段として、コンピューターを機能させ、
    前記拡張現実手段は、前記撮影画像に現実の手の画像が含まれる場合に、前記撮影画像に含まれる前記現実の手の画像を画像処理によって前記合成画像から消去し、前記合成画像を介して、前記操作用画像と、仮想の手の指先との前記撮像デバイスによる撮影方向における位置が一致して見えるように、前記現実の手の前記撮影画像における位置に応じて、前記仮想の手の画像を前記合成画像において前記操作用画像に対して配置し、
    前記操作受付手段は、前記仮想の手の指先の位置が、前記合成画像において前記操作部に重なっている場合に、この指先が前記合成画像において位置が変わらずに大きさが小さくなったとき、前記操作部が押されたと判断することを特徴とする拡張現実操作プログラム。
JP2015089901A 2015-04-25 2015-04-25 拡張現実操作システムおよび拡張現実操作プログラム Expired - Fee Related JP6354653B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015089901A JP6354653B2 (ja) 2015-04-25 2015-04-25 拡張現実操作システムおよび拡張現実操作プログラム
US15/135,853 US9628646B2 (en) 2015-04-25 2016-04-22 Augmented reality operation system and augmented reality operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015089901A JP6354653B2 (ja) 2015-04-25 2015-04-25 拡張現実操作システムおよび拡張現実操作プログラム

Publications (2)

Publication Number Publication Date
JP2016207048A JP2016207048A (ja) 2016-12-08
JP6354653B2 true JP6354653B2 (ja) 2018-07-11

Family

ID=57147090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015089901A Expired - Fee Related JP6354653B2 (ja) 2015-04-25 2015-04-25 拡張現実操作システムおよび拡張現実操作プログラム

Country Status (2)

Country Link
US (1) US9628646B2 (ja)
JP (1) JP6354653B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6676071B2 (ja) * 2015-08-04 2020-04-08 グーグル エルエルシー 仮想現実におけるオブジェクトとの手のコンテキスト依存衝突を介した入力
JP2018132824A (ja) * 2017-02-13 2018-08-23 株式会社Soken 操作装置
US20190212962A1 (en) * 2017-07-14 2019-07-11 Kyocera Document Solutions Inc. Display device and display system
WO2019032967A1 (en) * 2017-08-10 2019-02-14 Google Llc HAND INTERACTION SENSITIVE TO THE CONTEXT
JP2019149066A (ja) * 2018-02-28 2019-09-05 富士ゼロックス株式会社 情報処理装置及びプログラム
US10916065B2 (en) * 2018-05-04 2021-02-09 Facebook Technologies, Llc Prevention of user interface occlusion in a virtual reality environment
JP7135444B2 (ja) * 2018-05-29 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7155613B2 (ja) * 2018-05-29 2022-10-19 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7363399B2 (ja) * 2019-11-15 2023-10-18 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム、及び情報処理プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749744A (ja) * 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
JP2007001237A (ja) * 2005-06-27 2007-01-11 Konica Minolta Business Technologies Inc 機器、機器システム、画像形成装置、機器の制御方法及びプログラム
JP4676303B2 (ja) * 2005-10-18 2011-04-27 株式会社日立製作所 端末装置
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
JP4670860B2 (ja) * 2007-11-22 2011-04-13 ソニー株式会社 記録再生装置
US9037468B2 (en) * 2008-10-27 2015-05-19 Sony Computer Entertainment Inc. Sound localization for user in motion
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
US8928610B2 (en) * 2010-03-23 2015-01-06 Sharp Kabushiki Kaisha Information display device and document data editing method
JP2012029164A (ja) 2010-07-26 2012-02-09 Konica Minolta Business Technologies Inc 携帯端末及び装置管理方法
US8559030B2 (en) * 2010-07-27 2013-10-15 Xerox Corporation Augmented reality system and method for device management and service
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US20130142371A1 (en) * 2011-12-01 2013-06-06 Jason P. Martin Detachable Audio Speakers for Portable Devices and Methods for Manufacturing such Speakers
US9558590B2 (en) * 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
JP6079060B2 (ja) * 2012-08-29 2017-02-15 株式会社リコー 携帯端末、画像形成方法及び画像形成システム
JP5696908B2 (ja) * 2013-02-15 2015-04-08 コニカミノルタ株式会社 操作表示システム
US10295826B2 (en) * 2013-02-19 2019-05-21 Mirama Service Inc. Shape recognition device, shape recognition program, and shape recognition method
US20160217617A1 (en) * 2013-08-30 2016-07-28 Hewlett-Packard Development Company, L.P. Augmented reality device interfacing
WO2015105044A1 (ja) * 2014-01-10 2015-07-16 日本電気株式会社 インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびプログラム記憶媒体
US20160232369A1 (en) * 2015-02-11 2016-08-11 Ricoh Company, Ltd. Managing Access To Images Using Roles

Also Published As

Publication number Publication date
US20160316081A1 (en) 2016-10-27
US9628646B2 (en) 2017-04-18
JP2016207048A (ja) 2016-12-08

Similar Documents

Publication Publication Date Title
JP6354653B2 (ja) 拡張現実操作システムおよび拡張現実操作プログラム
JP4904223B2 (ja) 画像処理装置及び画像処理方法
US8358280B2 (en) Electronic device capable of showing page flip effect and method thereof
JP7042622B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及び、プログラム
JP2012194642A (ja) 画像処理装置および画像処理方法、ならびに、画像処理システム
JP6988060B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2018067261A (ja) 表示システム
US9413908B2 (en) Image forming apparatus remotely operated by external terminal, method for controlling image forming apparatus, recording medium, and image forming system including image forming apparatus
US20110141519A1 (en) Data processing system, data processing apparatus, data processing method, information processing apparatus, information processing method, and storage medium
JP5830055B2 (ja) 画像処理装置および画像処理システム
US9417771B2 (en) Information processing apparatus, information processing method, and computer readable-recording medium
KR102105492B1 (ko) 정보 처리 장치, 정보 처리 장치의 제어 방법 및 저장 매체
JP7397946B2 (ja) 画像処理装置
JP6323390B2 (ja) 電子機器及び表示制御プログラム
JP6283933B2 (ja) 操作案内システム、画像形成装置およびプログラム
JP2016208323A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2020075360A (ja) 画像処理装置
JP6805625B2 (ja) システム、電子機器、認証処理方法およびプログラム
JP5751281B2 (ja) 画像表示装置及び画像表示プログラム
US9374482B2 (en) Image processing apparatus, method for displaying preview image, and recording medium
JP2015014888A (ja) 操作装置、画像形成装置、操作装置の制御方法、及びプログラム
JP6977384B2 (ja) 情報処理装置、プログラムおよび画像出力システム
JP4798017B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2020064506A (ja) 表示装置、画像処理装置及びプログラム
JP6354696B2 (ja) 表示装置、および画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180528

R150 Certificate of patent or registration of utility model

Ref document number: 6354653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees