JP5900468B2 - Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム - Google Patents

Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム Download PDF

Info

Publication number
JP5900468B2
JP5900468B2 JP2013241222A JP2013241222A JP5900468B2 JP 5900468 B2 JP5900468 B2 JP 5900468B2 JP 2013241222 A JP2013241222 A JP 2013241222A JP 2013241222 A JP2013241222 A JP 2013241222A JP 5900468 B2 JP5900468 B2 JP 5900468B2
Authority
JP
Japan
Prior art keywords
image
predetermined
display device
setting
setting information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013241222A
Other languages
English (en)
Other versions
JP2015102909A (ja
Inventor
泰明 杉本
泰明 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2013241222A priority Critical patent/JP5900468B2/ja
Priority to US14/533,241 priority patent/US20150138232A1/en
Priority to EP14192007.4A priority patent/EP2879365A1/en
Priority to CN201410669496.1A priority patent/CN104660859B/zh
Publication of JP2015102909A publication Critical patent/JP2015102909A/ja
Application granted granted Critical
Publication of JP5900468B2 publication Critical patent/JP5900468B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1205Improving or facilitating administration, e.g. print management resulting in increased flexibility in print job configuration, e.g. job settings, print requirements, job tickets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1208Improving or facilitating administration, e.g. print management resulting in improved quality of the output result, e.g. print layout, colours, workflows, print preview
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1253Configuration of print job parameters, e.g. using UI at the client
    • G06F3/1256User feedback, e.g. print preview, test print, proofing, pre-flight checks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1278Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
    • G06F3/1285Remote printer device, e.g. being remote from client or server
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1278Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
    • G06F3/1292Mobile client, e.g. wireless printing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00381Input by recognition or interpretation of visible user gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3245Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、所定の物体に対して所定の装置で施す処理内容の設定操作をユーザから受けるAR表示装置、処理内容設定装置、処理内容設定方法およびプログラムに関する。
原稿をコピーする場合に、「極秘」などの文字をウォータマークとして合成したり、印刷後の用紙に、折り、綴じ、穴あけなどの後処理を施したりすることがある。このような付加処理を施す場合、ユーザは、その設定を、通常、印刷装置の操作パネルから行うが、自己の行った設定に従って作成される印刷物の仕上がり状態を印刷前にユーザ自身で正しくイメージすることは難しい。たとえば、ステイプルやパンチ穴と印刷される文字や画像との重なりの有無や位置関係を正しく認識することは難しい。
そこで、原稿をスキャナで読み取り、その読み取り画像が印刷された用紙にパンチ穴などの後処理を施した仕上がり状態のプレビュー画像を作成して操作パネルに表示する画像形成装置が提案されている(たとえば、特許文献1参照)。
また、サーバに登録された所定の画像を指定するAR(Augmented Reality)タグを基本原稿に付加した印刷物を出力する画像形成装置と、この印刷物を撮像する携帯端末を含み、該印刷物を撮像した携帯端末が、該印刷物に付加されているARタグに関連付けされている画像(たとえば:地図など)をサーバから取得し、その画像を、撮像画像中のARタグの付近に重畳してAR表示するシステムがある(たとえば、特許文献2参照。)
特開2008−70835号公報 特開2013−026922号公報
上記の特許文献1に開示の画像形成装置では、仕上がり状態をプレビュー表示するためには、原稿をスキャナで読み取る必要があり、手間がかかる。また、操作パネルの小さい画面上では、正確な仕上がり状態を確認し難い。
また、プレビュー表示された仕上がり状態に問題があって設定内容を変更する場合、設定画面に移行して変更操作を行った後、再度、プレビュー表示に切り換えて、変更後の内容を確認しなければならず、変更が適切か否かを仕上がり状態で確認するのに手間がかかる。
特許文献2に開示の技術では、ARタグに関連付けされている画像を撮像画像中のARタグの付近に重畳してAR表示するだけなので、この技術を応用して、仕上がり状態の画像を用紙に重畳してAR表示したとしても、設定内容を変更する場合には、設定画面に移行して変更操作を行った後、再度、AR表示を行って、変更後の内容を確認しなければならず、変更が適切か否かを仕上がり状態で確認するのに手間がかかる。
なお、印刷装置で用紙に印刷する場合に限らず、所定の物体に所定の装置で何らかの処理を施す場合には同様の問題が生じる。
本発明は、上記の問題を解決しようとするものであり、所定の物体に所定の装置で施す処理の処理結果をイメージで確認しながら処理内容の設定変更を行うことのできるAR表示装置、処理内容設定装置、処理内容設定方法およびプログラムを提供することを目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
[1]現実空間に画像を合成した拡張現実空間を表示するAR表示装置であって、
現実空間に画像を合成した拡張現実空間を表示するAR表示部と、
前記AR表示部が表示する前記拡張現実空間に対応した現実空間に関する情報を取得する取得部と、
前記取得部が取得した現実空間の情報に対応する現実空間において所定の物体を検出する物体検出部と、
前記所定の物体に対して、前記AR表示装置とは別の所定の装置が所定の処理を施した場合の処理結果を模擬的に示した模擬画像を生成し、前記物体検出部によって検出された前記所定の物体に前記模擬画像を重ね合わせた拡張現実空間を前記AR表示部に表示させるAR表示制御部と、
前記AR表示部に表示された前記拡張現実空間内の前記模擬画像に対してユーザが行った操作を検出する操作検出部と、
前記模擬画像に対応する処理結果を前記所定の装置で得るための設定情報を前記所定の装置に出力する設定情報出力部と、
を備え、
前記AR表示制御部は、前記操作検出部によって検出された前記操作に応じて前記模擬画像を変更し、
前記設定情報出力部は、前記変更後の模擬画像に対応した設定情報を前記所定の装置に出力する
ことを特徴とするAR表示装置。
上記発明および下記[13]、[25]に記載の発明では、所定の物体に対して、AR表示装置とは別の所定の装置が所定の処理を施した場合の処理結果を模擬的に示した模擬画像を生成し、現実空間の物体にその模擬画像を重ね合わせた拡張現実空間をAR表示する。そして、ユーザからAR表示している模擬画像に対してドラッグやピンチアウトなどの操作により移動や拡大などの指示を受けると、該操作に応じて模擬画像を変更し、変更後の模擬画像に対応した処理結果を所定の装置で得るための設定情報を出力する。これにより、ユーザは所定の装置で物体に施す処理内容の設定をAR表示にてその処理結果を確認しながら変更できると共に、変更後の処理内容に対応する設定情報が出力されるので、これを利用して、模擬画像に対応した処理結果を実際の装置で得ることができる。
[2]前記設定情報出力部は、前記所定の装置において、所定の第1設定情報を、前記変更後の模擬画像に対応した前記設定情報に変更させる
ことを特徴とする[1]に記載のAR表示装置。
[3]前記AR表示制御部は、前記模擬画像を用紙の姿勢に合わせて補正し、当該補正後の模擬画像を用紙に重ね合わせた拡張現実空間を前記AR表示部に表示させる
ことを特徴とする[1]または[2]に記載のAR表示装置。
[4]前記取得部は、前記現実空間を撮影するカメラである
ことを特徴とする[1]乃至[3]のいずれか1つに記載のAR表示装置。
]前記設定情報出力部は、前記変更後の模擬画像に対応した設定情報を前記所定の装置へ出力し、前記設定情報が示す設定内容を前記所定の装置に反映させる
ことを特徴とする[1]乃至[4]のいずれか1つに記載のAR表示装置。
上記発明および下記[17]、[26]に記載の発明では、変更後の模擬画像に対応する設定情報を所定の装置へ出力してこの設定情報が示す設定内容を所定の装置に反映させるので、拡張現実空間で確認した変更後の処理結果を現実の装置において容易に得ることができる。
]前記操作検出部は、前記物体にユーザの指などの指示体が触れた状態あるいは前記指示体が前記物体に近接している状態で前記ユーザが行ったあるいは開始した、前記指示体による前記模擬画像に対する操作を検出する
ことを特徴とする[1]乃至[5]のいずれか1つに記載のAR表示装置。
上記発明および下記[18]、[27]に記載の発明では、模擬画像に対する操作は、ユーザの指などの指示体が物体に触れた状態、あるいは指示体が物体に近接した状態で開始された操作に限定される。これにより、物体から離れた意図しない動作を模擬画像に対する操作と誤認することが防止される。指示体は、手や指など模擬画像に対して操作を行うものであり、ペンや棒状の物体などでもよい。
]前記模擬画像に対する操作は、前記模擬画像の、移動、サイズ調整、濃淡調整、消去のうちの少なくとも1つを指示する操作である
ことを特徴とする[1]乃至[]のいずれか1つに記載のAR表示装置。
]前記AR表示制御部は、前記操作によって前記模擬画像が前記所定の物体に重ならない位置に移動された場合は、前記模擬画像を消去する
ことを特徴とする[1]乃至[]のいずれか1つに記載のAR表示装置。
上記発明および下記[20]に記載の発明では、模擬画像を消去することにより、その消去した模擬画像に対応する設定は削除(キャンセル)される。
]前記所定の物体に対して前記所定の装置が施す処理内容を示す設定情報である設定情報を外部装置から取得する設定情報取得部を備え、
前記AR表示制御部は、前記設定情報取得部によって取得した前記設定情報に従って前記模擬画像を生成する
ことを特徴とする[1]乃至[]のいずれか1つに記載のAR表示装置。
上記発明および下記[21]に記載の発明では、外部装置から取得した設定情報に基づいて、初期の模擬画像を生成して、拡張現実空間を表示する。
10]前記物体検出部は、前記取得部が取得した現実空間の情報に対応する現実空間に存在する前記所定の物体をその姿勢を含めて検出し、
前記AR表示制御部は、前記所定の物体の姿勢に合わせて補正した前記模擬画像を、前記所定の物体に重ね合わせた拡張現実空間を前記表示部に表示させる
ことを特徴とする[1]乃至[]のいずれか1つに記載のAR表示装置。
上記発明および下記[22]に記載の発明では、現実空間の物体の姿勢を検出し、模擬画像を現実空間の物体の姿勢に合わせて補正し、補正後の模擬画像を現実空間に存在する用紙に重ね合わせた拡張現実空間をAR表示する。
11]前記所定の装置は、印刷装置であり、
前記所定の物体は、用紙である
ことを特徴とする[1]乃至[10]のいずれか1つに記載のAR表示装置。
12]前記所定の処理は、印刷対象の画像にスタンプ画像を付加する処理、本を見開いてコピーしたときに中央に生じる影を消去するセンター消去処理、印刷範囲を調整する処理、地紋画像を合成する処理、綴じ穴をあける処理、ステイプルで綴じる処理のうちの少なくとも1つを含む
ことを特徴とする[11]に記載のAR表示装置。
13]現実空間に画像を合成した拡張現実空間を表示する表示部と、前記表示部が表示する前記拡張現実空間に対応した現実空間に関する情報を取得する取得部とを備えたAR表示装置の前記取得部が取得した現実空間の情報に対応する現実空間において所定の物体を検出する物体検出部と、
前記所定の物体に対して、前記AR表示装置とは別の所定の装置が所定の処理を施した場合の処理結果を模擬的に示した模擬画像を生成し、前記物体検出部によって検出された前記所定の物体に前記模擬画像を重ね合わせた拡張現実空間を前記AR表示装置に表示させる表示制御部と、
前記AR表示装置に表示された前記拡張現実空間内の前記模擬画像に対してユーザが行った操作を検出する操作検出部と、
前記模擬画像に対応する処理結果を前記所定の装置で得るための設定情報を前記所定の装置に出力する設定情報出力部と、
を備え、
前記表示制御部は、前記操作検出部によって検出された前記操作に応じて前記模擬画像を変更し、
前記設定情報出力部は、前記変更後の模擬画像に対応した設定情報を前記所定の装置に出力する
ことを特徴とする処理内容設定装置。
[14]前記設定情報出力部は、前記所定の装置において、所定の第1設定情報を、前記変更後の模擬画像に対応した前記設定情報に変更させる
ことを特徴とする[13]に記載の処理内容設定装置。
[15]前記表示制御部は、前記模擬画像を用紙の姿勢に合わせて補正し、当該補正後の模擬画像を用紙に重ね合わせた拡張現実空間を前記AR表示装置に表示させる
ことを特徴とする[13]または[14]に記載の処理内容設定装置。
[16]前記取得部は、前記現実空間を撮影するカメラである
ことを特徴とする[13]乃至[15]のいずれか1つに記載の処理内容設定装置。
17]前記設定情報出力部は、前記変更後の模擬画像に対応した前記設定情報を前記所定の装置へ出力し、前記設定情報が示す設定内容を前記所定の装置に反映させる
ことを特徴とする[13]乃至[15]のいずれか1つに記載の処理内容設定装置。
18]前記操作検出部は、前記物体にユーザの指などの指示体が触れた状態あるいは前記指示体が前記物体に近接している状態で前記ユーザが行ったあるいは開始した、前記指示体による前記模擬画像に対する操作を検出する
ことを特徴とする[13]乃至[17]のいずれか1つに記載の処理内容設定装置。
19]前記模擬画像に対する操作は、前記模擬画像の、移動、サイズ調整、濃淡調整、消去のうちの少なくとも1つを指示する操作である
ことを特徴とする[13]乃至[18]のいずれか1つに記載の処理内容設定装置。
20]前記表示制御部は、前記操作によって前記模擬画像が前記所定の物体に重ならない位置に移動された場合は、前記模擬画像を消去する
ことを特徴とする[13]乃至[19]のいずれか1つに記載の処理内容設定装置。
21]前記所定の物体に対して前記所定の装置が施す処理内容を示す設定情報である設定情報を外部装置から取得する設定情報取得部を備え、
前記表示制御部は、前記設定情報取得部によって取得した前記設定情報に従って前記模擬画像を生成する
ことを特徴とする[13]乃至[20]のいずれか1つに記載の処理内容設定装置。
22]前記物体検出部は、前記取得部が取得した現実空間の情報に対応する現実空間に存在する前記所定の物体をその姿勢を含めて検出し、
前記表示制御部は、前記所定の物体の姿勢に合わせて補正した前記模擬画像を、前記所定の物体に重ね合わせた拡張現実空間を前記AR表示装置に表示させる
ことを特徴とする[13]乃至[21]のいずれか1つに記載の処理内容設定装置。
23]前記所定の装置は、印刷装置であり、
前記所定の物体は、用紙である
ことを特徴とする[13]乃至[22]のいずれか1つに記載の処理内容設定装置。
24]前記所定の処理は、印刷対象の画像にスタンプ画像を付加する処理、本を見開いてコピーしたときに中央に生じる影を消去するセンター消去処理、印刷範囲を調整する処理、地紋画像を合成する処理、綴じ穴をあける処理、ステイプルで綴じる処理のうちの少なくとも1つを含む
ことを特徴とする[23]に記載の処理内容設定装置。
25]現実空間に画像を合成した拡張現実空間を表示する表示部と、前記表示部が表示する前記拡張現実空間に対応した現実空間に関する情報を取得する取得部とを備えたAR表示装置にて、所定の物体に、前記AR表示装置とは別の所定の装置が施す処理内容の設定を受ける処理内容設定方法であって、
前記取得部が取得した現実空間の情報に対応する現実空間において所定の物体を検出するステップと、
前記所定の物体に対して前記所定の装置が所定の処理を施した場合の処理結果を模擬的に示した模擬画像を生成し、前記検出された前記所定の物体に前記模擬画像を重ね合わせた拡張現実空間を前記AR表示装置に表示させるステップと、
前記AR表示装置に表示された前記拡張現実空間内の前記模擬画像に対してユーザが行った操作を検出するステップと、
前記検出された前記操作に応じて前記模擬画像を変更するステップと、
前記変更後の模擬画像に対応する処理結果を前記所定の装置で得るための設定情報を前記所定の装置に出力するステップと
を有する
ことを特徴とする処理内容設定方法。
[26]前記出力するステップでは、前記所定の装置において、所定の第1設定情報を、前記変更後の模擬画像に対応した前記設定情報に変更させる
ことを特徴とする[25]に記載の処理内容設定方法。
[27]前記表示させるステップでは、前記模擬画像を用紙の姿勢に合わせて補正し、当該補正後の模擬画像を用紙に重ね合わせた拡張現実空間を前記AR表示装置に表示させる
ことを特徴とする[25]または[26]に記載の処理内容設定方法。
[28]前記取得部は、前記現実空間を撮影するカメラである
ことを特徴とする[25]乃至[27]のいずれか1つに記載の処理内容設定方法。
29]前記変更後の模擬画像に対応する処理結果を前記所定の装置で得るための設定情報を出力するステップにおいて、前記設定情報を前記所定の装置へ出力し、前記設定情報が示す設定内容を前記所定の装置に反映させる
ことを特徴とする[25]乃至[28]のいずれか1つに記載の処理内容設定方法。
30]前記検出するステップでは、前記物体にユーザの指などの指示体が触れた状態あるいは前記指示体が前記物体に近接している状態で前記ユーザが行ったあるいは開始した、前記指示体による前記模擬画像に対する操作を検出する
ことを特徴とする[25]乃至[29]のいずれか1つに記載の処理内容設定方法。
31]情報処理装置を、
[1]乃至[12]のいずれか1つに記載のAR表示装置もしくは[13]乃至[24]のいずれか1つに記載の処理内容設定装置として機能させる
ことを特徴とするプログラム。
本発明に係るAR表示装置、処理内容設定装置、処理内容設定方法およびプログラムによれば、所定の物体に所定の装置で施す処理の処理結果を拡張現実空間内のイメージで確認しながら、処理内容の設定変更を行うことができる。
本発明の実施の形態に係る印刷システムの構成を示す図である。 本発明の実施の形態に係る印刷システムに含まれる画像形成装置の概略構成を示すブロック図である。 本発明の実施の形態に係る印刷システムに含まれるAR表示装置としてのヘッドマウントディスプレイ装置の外観を示す図である。 本発明の実施の形態に係る印刷システムに含まれるAR表示装置としてのヘッドマウントディスプレイ装置の構成を示すブロック図である。 本発明の実施の形態に係る印刷システムに含まれるAR表示装置としての携帯端末の概略構成を示すブロック図である。 ヘッドマウントディスプレイ装置を用いて、ウォータマーク等のスタンプの位置を調整する例を示す図である。 ヘッドマウントディスプレイ装置を用いて、ウォータマーク等のスタンプのサイズを調整する例を示す図である。 ヘッドマウントディスプレイ装置を用いて、センター消去の設定を調整する例を示す図である。 図8の続きを示す図である。 スタンプを付加する出力設定をキャンセルする操作を示す図である。 ヘッドマウントディスプレイ装置を用いて、画像欠け範囲(印刷範囲)の設定を調整する例を示す図である。 ヘッドマウントディスプレイ装置を用いて、地紋画像の濃度を調整する例を示す図である。 ヘッドマウントディスプレイ装置を用いて、地紋画像に潜像として埋め込まれている文字の位置を調整する例を示す図である。 ヘッドマウントディスプレイ装置を用いて、ステイプルの位置を調整する例を示す図である。 ヘッドマウントディスプレイ装置を用いて、パンチ穴の位置を調整する例を示す図である。 ヘッドマウントディスプレイ装置が行う処理の全体を示す流れ図である。 図16の続きを示す流れ図である。 用紙サイズの管理テーブルを示す図である。 出力イメージ画像を作成する処理を示す流れ図である。 出力イメージ画像の調整処理を示す流れ図である。 ヘッドマウントディスプレイ装置から設定情報を受信した外部装置が行う処理を示す流れ図である。 本発明の実施の形態に係る印刷システムに含まれる処理内容設定装置の概略構成を示すブロック図である。
以下、図面に基づき本発明の実施の形態を説明する。
図1は、本発明の実施の形態に係る印刷システム3の構成を示している。印刷システム3は、画像形成装置10と、AR(Augmented Reality)表示装置としてのヘッドマウントディスプレイ(HMD)装置30と、同じくAR表示装置としての携帯端末60と、処理内容設定装置130をLAN(Local Area Network)などのネットワーク2に接続して構成される。ヘッドマウントディスプレイ装置30および携帯端末60は、無線でネットワーク2と接続される。AR表示装置はヘッドマウントディスプレイ装置30と携帯端末60のいずれか一方でもかまわない。
画像形成装置10は、原稿を光学的に読み取ってその複製画像を記録紙に印刷するコピー機能、読み取った原稿の画像データをファイルにして保存したり外部端末へネットワーク2を通じて送信したりするスキャン機能、外部のPC(Personal Computer)などからネットワーク2を通じて受信した印刷データに係る画像を記録紙上に形成して印刷出力するプリンタ機能、ファクシミリ手順に従って画像データを送受信するファクシミリ機能などを備えた、所謂、複合機(MFP)である。画像形成装置10は、少なくとも用紙に画像を印刷するコピー機能(印刷装置としての機能)を備えていればよい。
画像形成装置10は、画像や用紙に対して各種の付加処理を施す機能を備えている。たとえば、画像に対する付加処理には、印刷対象の画像にウォータマーク等のスタンプの画像を付加する処理や地紋画像を付加する処理、本などを見開いてコピーしたときに中央に生じる影を消去するセンター消去処理、原稿の周囲(たとえば、プラテンカバーを開いて原稿をコピーした場合に原稿の周囲に生じる黒い部分)を消去する枠消し処理、コピー時に用紙の周縁で画像の欠ける範囲を設定された画像欠け範囲にする処理などがある。
また、用紙に対する付加処理(所謂、後処理)としては、複数枚の用紙をステイプルで綴じる処理、パンチで穴を開ける処理、用紙に折り目を付ける処理などがある。このような画像や用紙に対する付加処理に関する設定を、以後、出力設定と呼ぶこととする。
AR表示装置(ヘッドマウントディスプレイ装置30や携帯端末60)は、画像形成装置10に対する出力設定の内容を示す設定情報を画像形成装置10等から取得する。そして、AR表示装置は、該設定情報が示す付加処理を画像形成装置10で実施した場合の処理結果を模擬的に示す模擬画像である出力イメージ画像を作成し、これを現実空間の用紙に重ね合わせた拡張現実空間を表示する機能を備えている。
たとえば、画像形成装置10に対して二つ折りの出力設定が成されている状態で、ヘッドマウントディスプレイ装置30を装着したユーザが現実空間の用紙(たとえば、ユーザが手に持っている用紙)を見たとき、ヘッドマウントディスプレイ装置30は、二つ折りの折り目に相当する出力イメージ画像を現実空間の用紙に重ね合わせた拡張現実空間を表示する。ヘッドマウントディスプレイ装置30を装着したユーザはこの拡張現実空間を見る。
また、AR表示装置は、拡張現実空間内の出力イメージ画像に対してユーザが行った操作を検出し、検出された操作に応じて出力イメージ画像を変更する。たとえば、ウォータマーク等のスタンプの出力イメージ画像に対して、その位置を用紙上で移動させて調整する操作や、スタンプの大きさを変更して調整する操作などをユーザから受けると、その操作に応じて出力イメージ画像を、移動させたり拡大したりして変更する。そして、変更後の出力イメージ画像に対応する処理結果を画像形成装置10で得るための設定情報を外部(たとえば、画像形成装置10など)へ出力する、あるいは設定情報を画像形成装置10へ出力し該設定情報が示す設定内容を画像形成装置に反映させる機能を備えている。
これにより、ユーザは、拡張現実空間において、変更後の状態を確認しながら出力イメージ画像に対する操作を行って設定内容を変更することができる。また、変更後の出力イメージ画像に対応する設定情報が外部へ出力されるので、この設定情報を画像形成装置10などに反映させることで、拡張現実空間で確認した変更後の処理結果を現実の画像形成装置10等において容易に得ることができる。
ここでは、AR表示装置は、出力イメージ画像に対する操作が、ユーザの手や指などの指示体が現実空間の用紙に触れた状態、あるいは用紙に近接した状態で行われた場合にのみ、その操作を有効な操作として認識する。一方、たとえば、手や指などの指示体が用紙から一定以上離れた空中で行われた動作やジェスチャーは検出の対象にしない。なお、指示体は、手や指など出力イメージ画像に対して操作を行うものであり、ペンや棒状などの物体でもよい。
ところで、現実空間の用紙は、ユーザが手で持っている等の場合には、移動したり傾いたりする。また、現実空間の用紙は曲げられたりすることもある。そこで、本実施の形態に係るAR表示装置(ヘッドマウントディスプレイ装置30や携帯端末60)は、現実空間にある用紙の位置および姿勢(向き、形状など)を検出し、傾いたり曲げられたりしている用紙に合わせて出力イメージ画像を補正し、該補正後の出力イメージ画像を現実空間の用紙に重ね合わせた拡張現実空間を表示する。
これにより、ユーザは、用紙の位置や姿勢にかかわらず、設定した付加処理が実際に施された用紙があたかも現実空間に存在するような拡張現実空間をAR表示装置で見ることができる。また、AR表示装置は、上記の検出と補正を繰り返し行うので、ユーザが用紙を動かしても、その動きに追従して補正された出力イメージ画像が、現実空間の用紙に重畳して表示される。
なお、画像形成装置10に対する出力設定は、画像形成装置10の操作パネルで行うほか、外部端末や携帯端末で行われる構成でもよく、この場合、AR表示装置は、出力設定の行われた外部端末や携帯端末から初期の設定情報を取得し、該設定情報に基づいて作成した出力イメージ画像を含む拡張現実空間を表示し、その後、ユーザから出力イメージ画像に対する変更の操作を受け付ける。
なお、AR表示装置である携帯端末60で最初から出力設定を行う構成でもかまわない。たとえば、デフォルトの設定内容に対応する模擬画像が初期表示され、この初期表示された模擬画像に対して操作を加えて設定内容を変更するような構成でもよい。
図2は、画像形成装置10の概略構成を示すブロック図である。画像形成装置10は、当該画像形成装置10の動作を統括的に制御するCPU(Central Processing Unit)11を有している。CPU11にはバスを通じてROM(Read Only Memory)12、RAM(Random Access Memory)13、不揮発メモリ14、ハードディスク装置15、自動原稿搬送部(ADF:Auto Document Feeder)16、認証部17、操作部20、表示部21、ネットワーク通信部22、画像読取部23、画像処理部24、プリンタ部25、ファクシミリ通信部26などが接続されている。
CPU11は、OS(Operating System)プログラムをベースとし、その上で、ミドルウェアやアプリケーションプログラムなどを実行する。ROM12には、各種のプログラムが格納されており、これらのプログラムに従ってCPU11が各種処理を実行することで画像形成装置10の各機能が実現される。
RAM13は、CPU11がプログラムに基づいて処理を実行する際に各種のデータを一時的に格納するワークメモリや画像データを格納する画像メモリなどとして使用される。
不揮発メモリ14は、電源をオフにしても記憶内容が破壊されないメモリ(フラッシュメモリ)であり、各種設定情報の保存などに使用される。ハードディスク装置15は大容量不揮発の記憶装置であり、印刷データ、画像データなどのほか各種のプログラムやデータが記憶される。
画像読取部23は、原稿を光学的に読み取って画像データを取得する機能を果たす。画像読取部23は、例えば、原稿に光を照射する光源と、その反射光を受けて原稿を幅方向に1ライン分読み取るラインイメージセンサと、ライン単位の読取位置を原稿の長さ方向に順次移動させる移動ユニットと、原稿からの反射光をラインイメージセンサに導いて結像させるレンズやミラーなどからなる光学経路と、ラインイメージセンサの出力するアナログ画像信号をデジタルの画像データに変換する変換部などを備えて構成される。
自動原稿搬送部16は、原稿台にセットされた原稿をその最上のものから1枚ずつ順に繰り出して搬送し、画像読取部23の読み取り位置を通過させて所定の排紙位置へ排紙する機能を果たす。また、原稿の表裏を自動的に反転させる機能を有し、これにより原稿の両面自動読み取りを可能にする。画像読取部23は、プラテンガラス上に載置された原稿を読み取る機能と、自動原稿搬送部16によって搬送される原稿を順次読み取る機能を備えている。
認証部17は、画像形成装置10を使用するユーザを認証する。認証方法は、パスワード、指紋、静脈など任意でよい。
操作部20と表示部21はユーザからジョブの投入などの操作を受ける操作パネルを構成する。画像形成装置10は操作パネルにて前述した出力設定(付加処理に係る設定)をユーザから受け付ける。表示部21は、液晶ディスプレイ(LCD…Liquid Crystal Display)などで構成され、各種の操作画面、設定画面などを表示する機能を果たす。操作部20は、スタートボタンなどの各種操作スイッチと、表示部21の物理的画面上に設けられたタッチパネルとを備えている。タッチパネルは、表示部21の物理的画面がタッチペンや指などで接触操作された座標位置を検出する。
ネットワーク通信部22は、LANなどのネットワーク2を通じてヘッドマウントディスプレイ装置30や携帯端末60などのAR表示装置のほか、PCやサーバなどの外部装置と通信する機能を果たす。
画像処理部24は、画像の拡大縮小、回転などの処理のほか、印刷データをイメージデータに変換するラスタライズ処理、画像データの圧縮、伸張処理などを行う。
プリンタ部25は、画像データに応じた画像を記録紙上に画像形成する機能を果たす。ここでは、記録紙の搬送装置と、感光体ドラムと、帯電装置と、レーザーユニットと、現像装置と、転写分離装置と、クリーニング装置と、定着装置とを有し、電子写真プロセスによって画像形成を行う、所謂、レーザープリンタとして構成されている。画像形成は他の方式でもかまわない。プリンタ部25は、さらに、印刷後の用紙をステイプルで綴じる、パンチ穴を開ける、折るなどの後処理を施す機能を備えている。
ファクシミリ通信部26は、ファクシミリ機能を備えた外部装置と電話回線を通じて画像データを送受信する機能を果たす。
図3は、ヘッドマウントディスプレイ装置30の概略構成を示している。ヘッドマウントディスプレイ装置30は、眼鏡に類似した形を成しており、人の頭に装着されて使用される。本例のヘッドマウントディスプレイ装置30は、外の様子にハーフミラーで画像を重ね合わせる方式(所謂、光透過型)を採用している。
ヘッドマウントディスプレイ装置30は、装着時に装着者の左右の目の前にそれぞれ配置される表示部31と、左右の表示部31をそれらの間で繋ぐブリッジ32と、ブリッジ32で連結された左右の表示部31の両脇から同一方向に延びて装着者の耳に引っ掛けられるツル33などを備えている。
また、表示部31の両脇には、制御回路、投影部46、カメラ部47などを含む基幹部34が設けられている。また各表示部31の前方に位置するようにハーフミラー35が、左右の基幹部34から延びる支持腕に支持されている。
ハーフミラー35は前方から表示部31に向けて入射する光L1に対して45度の角度で傾斜して設けてあり、基幹部34の投影部46は、画像(拡張現実感情報の画像光L2とする)をハーフミラー35に向けて投影する。ハーフミラー35は透明基板(ガラス基板)に、反射膜(金属膜と誘電体膜)をコーティングして構成されている。ハーフミラー35は、たとえば、透過と反射の光量比が1:1になっている。
ヘッドマウントディスプレイ装置30の装着者の目は、外光L1と画像光L2とが1:1の割合で合成された光が表示部31を通じて入射する。すなわち、ヘッドマウントディスプレイ装置30の装着者は、外の様子と投影部46が投影した画像とを半々の透過率で重ね合わせた様子を見る。
図4は、ヘッドマウントディスプレイ装置30の構成を示すブロック図である。ヘッドマウントディスプレイ装置30は、制御部としてのCPU41にバスを介してROM42、RAM43、不揮発メモリ44、方位センサー部45、投影部46、カメラ部47、操作部48、表示部31、ネットワーク通信部51、画像処理部52、視線検出部53、距離センサ54、音声出力部55などを接続して構成される。
CPU41はROM42や不揮発メモリ44に格納されているプログラムに従ってヘッドマウントディスプレイ装置30の動作を制御する。ROM42にはプログラムや固定データが記憶されている。RAM43はCPU41がプログラムを実行する際に各種のデータを一時的に格納するワークメモリなどとして使用される。不揮発メモリ44には、各種の設定情報やアプリケーションプログラムなどが記憶される。
方位センサー部45は、ヘッドマウントディスプレイ装置30の向きや姿勢およびその変化を検出する。方位センサー部45は、複数の地磁気センサと、複数の加速度センサを組み合わせて構成される。方位センサー部45は、ヘッドマウントディスプレイ装置30の装着者の姿勢や装着者が向いている方向や角度(これらは、カメラ部47が撮影している方向や向きと一致)を検出したり、ヘッドマウントディスプレイ装置30が傾けられたりした場合の動作の向きや速さを検出したりして、その検出結果をCPU41へ通知する。CPU41は、方位センサー部45からの通知に基づいて、ヘッドマウントディスプレイ装置30の装着者の姿勢、角度、傾けられたりした動作の向きや速さを認識する。
投影部46は前述したように、投影対象の画像(拡張現実感情報の画像光L2とする)をハーフミラー35に向けて投影する。
カメラ部47は、ヘッドマウントディスプレイ装置30の前方を撮影する。より詳細には、装着者が前方を見たときの視野とほぼ同じ範囲を撮影する。カメラ部47は、左右の基幹部34にそれぞれ設けられてもよいし、いずれか一方のみに設けられてもよい。カメラ部47は動画を撮影し、たとえば、毎秒30フレームの画像を取り込む。
操作部48は基幹部34等に設けられたスイッチ等であり、投影画像の明るさなどの調整に使用される。
ネットワーク通信部51は、無線LANを含むネットワーク2を通じて画像形成装置10などの外部装置と通信する機能を果たす。
画像処理部52は、投影部46からハーフミラー35を介して表示部31へ投影する画像(前述した出力イメージ画像など)の作成、該画像の補正(拡大・縮小、変形)などを行うもしくは補助する。
視線検出部53は、ヘッドマウントディスプレイ装置30を装着しているユーザの視線(どこを見ているか)を検出する。視線の検出方法は任意でよい。たとえば、装着者の目を撮影するカメラを設け、このカメラが撮影した画像を解析し、目や瞳の位置、向きなどから装着者の視線を検出する。ヘッドマウントディスプレイ装置30は、視線検出部53で装着者の視線を検出することにより、当該ヘッドマウントディスプレイ装置30の装着者が見ている箇所を認識する。
距離センサ54は、ヘッドマウントディスプレイ装置30からカメラ部47の撮影範囲にある各種物体までの距離やヘッドマウントディスプレイ装置30の装着者が見ている物体までの距離を計測する。また、距離センサ54は、ヘッドマウントディスプレイ装置30の装着者が操作を行っている手や指までの距離を計測する。距離センサ54は、たとえば、超音波センサで構成される。
音声出力部55は、警告を音声として出力する場合などに使用される。
図5は、携帯端末60の概略構成を示している。携帯端末60は、CPU61にバスを介してROM62、RAM63、不揮発メモリ64、方位センサー部65、カメラ部66、認証部67、操作部68、表示部69、ネットワーク通信部70、画像処理部71、視線検出部72、距離センサ73、音声出力部74などを接続して構成される。
CPU61はROM62や不揮発メモリ64に格納されているプログラムに従って携帯端末60の動作を制御する。ROM62にはプログラムや固定データが記憶されている。RAM63はCPU61がプログラムを実行する際に各種のデータを一時的に格納するワークメモリなどとして使用される。不揮発メモリ64には、各種の設定情報やアプリケーションプログラムが記憶される。
方位センサー部65は、携帯端末60の向きや姿勢、およびそれらの変化を検出する。方位センサー部65はヘッドマウントディスプレイ装置30の方位センサー部45と同様の構成である。カメラ部66は携帯端末60の裏面側に設けられて携帯端末60の裏面が臨む方向を撮影する。カメラ部66は動画を撮影でき、たとえば、毎秒30フレームの画像を取り込む。
認証部67は、当該携帯端末60の使用者を認証する。認証方法は、パスワード、指紋、静脈など任意でよい。
表示部69は液晶ディスプレイなどで構成される。操作部68は表示部69の物理的画面上に設けられたタッチパネルなどで構成される。
ネットワーク通信部70は、無線LANを含むネットワーク2を通じて画像形成装置10などの外部装置と通信する機能を果たす。
画像処理部71は、カメラ部66の撮影映像に合成する画像(前述した出力イメージ画像など)の作成、該画像の補正(拡大・縮小、変形)などを行うもしくは補助する。
視線検出部72は、携帯端末60のユーザの視線(どこを見ているか)を検出する。視線の検出方法は任意でよい。たとえば、使用者の顔や目を撮影するカメラを設け、このカメラが撮影した画像を解析し、顔、目や瞳の位置、向きなどからユーザの視線を検出する。携帯端末60は、視線検出部72でユーザの視線を検出することにより、当該携帯端末60の使用者がどこを見ているかを認識する。
距離センサ73は、携帯端末60からカメラ部66の撮影範囲にある各種物体までの距離や携帯端末60のユーザが見ている物体までの距離を計測する。また、距離センサ73は、携帯端末60のユーザが操作を行っている手や指までの距離を計測する。距離センサ73は、ヘッドマウントディスプレイ装置30の距離センサ54と同様に、超音波センサなどで構成される。
音声出力部74は、警告を音声として出力する場合などに使用される。
なお、ヘッドマウントディスプレイ装置30では現実空間からの情報に出力イメージ画像を重ねて表示するが、携帯端末60の場合には、カメラ部66が撮影している画像内の用紙に出力イメージ画像を重ねあわせた画像を表示部69に表示する。使用者は携帯端末60の表示部69に表示された拡張現実空間を見ることになる。
AR表示装置(ヘッドマウントディスプレイ装置30、携帯端末60)は、カメラ部47、66の撮影映像を解析して該撮影映像の中に存在する用紙をその位置と姿勢を含めて検出する。また、検出した用紙までの距離を距離センサ54、73で計測し、計測結果の距離と撮影映像中の用紙の大きさとから、現実の用紙のサイズを認識する。さらに、距離センサ54、73用紙の各部までの距離を計測してこれらを集計・解析することで、ヘッドマウントディスプレイ装置30や携帯端末60側から見た用紙の三次元形状(傾き、曲がり、折れなど)も認識する。たとえば、三次元形状の認識は、特開2008−26243号公報などに開示されている公知技術を利用することができる。なお、カメラ部47、66をステレオカメラとし、用紙の姿勢やヘッドマウントディスプレイ装置30、携帯端末60側から見た三次元形状を該ステレオカメラの映像を解析して認識してもよい。
また、AR表示装置(ヘッドマウントディスプレイ装置30および携帯端末60)は、カメラ部47、66の撮影映像を解析して、ユーザが用紙上の出力イメージ画像に対して行った操作を検出する。より詳細には、用紙までの距離と、操作を行っている指示体(ユーザの手や指)までの距離とを計測して比較し、これらの差が所定の許容範囲にあれば、用紙上の出力イメージ画像に対して行われた操作であると判定し、上記の差が所定の許容範囲に無ければ、用紙上の出力イメージ画像に対する操作ではないと判定する。
次に、AR表示装置の動作を説明する。
ここでは、ヘッドマウントディスプレイ装置30を例に説明する。
以下の図6〜図15では、現実空間の用紙(出力設定前の用紙とする)と、現実空間の用紙に出力イメージ画像が重畳された拡張現実空間の用紙(出力設定後の用紙(調整前)とする)と、出力イメージ画像に対してユーザが操作を行う様子と、操作に対応して出力イメージ画像が変更された後の拡張現実空間の用紙(出力設定後の用紙(調整後)とする)とを対比して示す。出力設定後の用紙(調整前)、操作を行う様子、出力設定後の用紙(調整後)はいずれもヘッドマウントディスプレイ装置30を装着したユーザに見える状態を示している。
図6は、ヘッドマウントディスプレイ装置30を用いて、ウォータマーク等のスタンプの位置を調整する例を示している。同図(a)は出力設定前の用紙81を、同図(b)はウォータマーク等のスタンプを付加する出力設定が行われている場合の出力設定後の用紙(調整前)82を示している。同図(b)に示す出力設定後の用紙(調整前)82では、用紙に対して、出力設定で指定された種類・大きさのスタンプに対応する出力イメージ画像83が出力設定で指定された位置に重畳されている。これによりヘッドマウントディスプレイ装置30の装着者は、出力設定前の用紙81に既に印字されている内容(文字や画像)と出力設定に従って付加されるスタンプとの位置関係や濃度の関係をヘッドマウントディスプレイ装置30にAR表示された出力設定後の用紙(調整前)82を見て事前(印刷前)に確認することができる。
同図(c)は、ユーザがスタンプに対応する出力イメージ画像83を指で操作して移動させる様子を示している。該操作は、現実空間の用紙(拡張現実空間の用紙上の出力イメージ画像)にユーザの指が接触あるいは近接した状態で行われた操作である。ここでは、スタンプに対応する出力イメージ画像83を目的の位置へ移動させるためにドラッグ操作が行われている。
ヘッドマウントディスプレイ装置30は、スタンプに対応する出力イメージ画像83に対する上記の操作を検出すると、その検出した操作に応じて出力イメージ画像83の表示位置を移動させる。同図(d)は、移動後の状態(出力設定後の用紙(調整後)84)を示している。ヘッドマウントディスプレイ装置30は、位置調整後の出力イメージ画像83に対応した処理結果を画像形成装置10で得るための設定情報を外部装置へ出力する、あるいは該出力した設定情報が示す設定内容を外部装置の設定に反映させる。
このように、ヘッドマウントディスプレイ装置30の装着者は、ヘッドマウントディスプレイ装置30にAR表示されたスタンプの出力イメージ画像83に対して直接的に移動の操作を行うことで、移動後の位置をAR表示で確認しながら、スタンプの付加処理に係る出力設定の内容を変更することができる。
図7は、ヘッドマウントディスプレイ装置30を用いて、ウォータマーク等のスタンプのサイズを調整する例を示している。同図(a)は出力設定前の用紙81を、同図(b)はウォータマーク等のスタンプを付加する出力設定が行われている場合の出力設定後の用紙82を示している。
同図(c)は、ユーザがスタンプに対応する出力イメージ画像83を指で操作してサイズを変更する様子を示している。該操作は、現実空間の用紙(拡張現実空間の用紙上の出力イメージ画像)にユーザの指が接触あるいは近接した状態で行われた操作である。ここでは、出力イメージ画像83を大きくするために該出力イメージ画像83に対してピンチアウトの操作が行われている。
ヘッドマウントディスプレイ装置30は、出力イメージ画像83に対する上記の操作を検出すると、その検出した操作に応じて出力イメージ画像83のサイズを変更する。同図(d)は、拡大後の状態(出力設定後の用紙(調整後)86)を示している。ヘッドマウントディスプレイ装置30は、サイズ変更後の出力イメージ画像83に対応した処理結果を画像形成装置10で得るための設定情報を外部装置へ出力する、あるいは該出力した設定情報が示す設定内容を外部装置の設定に反映させる。
このように、ヘッドマウントディスプレイ装置30の装着者は、ヘッドマウントディスプレイ装置30にAR表示されたスタンプの出力イメージ画像83に対して直接的にサイズ変更の操作(ピンチアウトやピンチイン)を行うことで、変更後のサイズをAR表示で確認しながら、スタンプの付加処理に係る出力設定の内容を変更することができる。
図8、図9は、ヘッドマウントディスプレイ装置30を用いて、センター消去の設定を調整する例を示している。図8(a)は出力設定前の用紙91を、同図(b)はセンター消去の出力設定が行われている場合の出力設定後の用紙(調整前)92を示している。出力設定後の用紙(調整前)92では、出力設定前の用紙91に、その中央部分の影Sを消去(白あるいは用紙の地の色でマスク)する出力イメージ画像93が重畳されている。
ヘッドマウントディスプレイ装置30の装着者は、出力設定前の用紙91にセンター消去処理が施された場合の出力結果をヘッドマウントディスプレイ装置30にAR表示された出力設定後の用紙92を見て事前に確認することができる。たとえば、センター消去処理により影Sが完全に消去されるか否かを確認することができる。
図8(b)では、センター消去処理の設定が適切でなく、影Sが完全に消えていない。図9(a)は、ユーザがセンター消去処理に対応する出力イメージ画像93を指で操作して消去範囲(幅や長さ)を変更する様子を示している。該操作は、現実空間の用紙(拡張現実空間の用紙上の出力イメージ画像)にユーザの指が接触あるいは近接した状態で行われた操作である。ここでは、縦の白帯状の出力イメージ画像93の幅を広げるために、該出力イメージ画像93に対してピンチアウトの操作が行われている。
ヘッドマウントディスプレイ装置30は、出力イメージ画像93に対する上記の操作を検出すると、その検出した操作に応じて出力イメージ画像93の幅や長さを変更する。同図(b)は、上記の操作に応じて変更後の出力イメージ画像93bが重畳された出力設定後の用紙(調整後)94を示している。同図(b)では、出力イメージ画像93の外周縁を一点破線で示してある。ヘッドマウントディスプレイ装置30は、変更後の出力イメージ画像93bに対応したセンター消去処理の処理結果を画像形成装置10で得るための設定情報を外部装置へ出力する、あるいは該出力した設定情報が示す設定内容を外部装置の設定に反映させる。
このように、ヘッドマウントディスプレイ装置30の装着者は、ヘッドマウントディスプレイ装置30にAR表示された出力イメージ画像93に対して直接的に操作(ピンチアウトやピンチインなど)を行うことで、消去される範囲を確認しながら、センター消去処理に関する出力設定の内容を変更することができる。
次に、出力設定を削除(キャンセル)するための操作について説明する。
ここでは、選択した出力イメージ画像がドラッグ操作によって、用紙と重ならない位置(用紙の外)へ移動されると、AR表示装置は、出力イメージ画像を拡張現実空間から削除すると共に、その削除した出力イメージ画像に対応する付加処理の出力設定が削除(キャンセル)された設定情報を出力する。
図10は、スタンプを付加する出力設定をキャンセルする操作を示している。同図(a)は出力設定前の用紙81を、同図(b)はウォータマーク等のスタンプを付加する出力設定が行われている場合の出力設定後の用紙(調整前)82を示している。
同図(c)は、ユーザがスタンプに対応する出力イメージ画像83を指で操作して、用紙の外へ移動させる様子を示している。該操作は、現実空間の用紙(拡張現実空間の用紙上の出力イメージ画像)にユーザの指が接触あるいは近接した状態で行われた操作である。ここでは、スタンプに対応する出力イメージ画像83を用紙の外へ移動させるドラッグ操作が行われている。
ヘッドマウントディスプレイ装置30は、出力イメージ画像83に対する上記の操作を検出すると、その検出した操作に応じて出力イメージ画像83の表示位置を移動させ、用紙の外でドラッグ操作が完了すると、同図(d)に示すように、出力イメージ画像83を消去した用紙(出力設定後の用紙(調整後)88)を拡張現実空間に表示する。ヘッドマウントディスプレイ装置30は、出力イメージ画像83に対応したスタンプの付加処理の設定が削除(キャンセル)された内容の設定情報を外部装置へ出力する、あるいは該出力した設定情報が示す設定内容を外部装置の設定に反映させる。
このように、ヘッドマウントディスプレイ装置30の装着者は、ヘッドマウントディスプレイ装置30にAR表示された出力イメージ画像を用紙の外に移動させる操作を行うことで、その出力イメージ画像に対応する付加処理の設定をキャンセルすることができる。
図11は、ヘッドマウントディスプレイ装置30を用いて、画像欠け範囲(印刷範囲)の設定を調整する例を示している。同図(a)は出力設定前の用紙81を、同図(b)は、画像欠け範囲の出力設定が行われている場合の出力設定後の用紙(調整前)101を示している。同図(b)に示す出力設定後の用紙(調整前)101では、用紙に対して、用紙の周縁の画像欠け範囲とその内側の領域との境界を示す境界線の出力イメージ画像102が出力設定で指定された位置に重畳されている。これによりヘッドマウントディスプレイ装置30の装着者は、コピーにより画像が欠ける範囲を原稿用紙上で事前(印刷前)に確認することができる。
同図(b)では、用紙上の文字や画像が、画像欠け範囲の中に存在するので、そのことをユーザに警告するために、境界線の出力イメージ画像102を、たとえば、赤色で示してある。警告メッセージなどを表示してもよい。
同図(c)は、ユーザが画像欠け範囲の境界線の出力イメージ画像102を指で操作して移動させる様子を示している。該操作は、現実空間の用紙(拡張現実空間の用紙上の出力イメージ画像)にユーザの指が接触あるいは近接した状態で行われる。ここでは、境界線の出力イメージ画像102をそれぞれ外側へ少しずつ移動させるためにドラッグ操作が行われている。
ヘッドマウントディスプレイ装置30は、画像欠け範囲を示す境界線の出力イメージ画像102に対する上記の操作を検出すると、その検出した操作に応じて出力イメージ画像102の表示位置を移動させる。同図(d)は、移動後の状態(出力設定後の用紙(調整後)103)を示している。移動後の状態では、画像欠け範囲に用紙上の文字や画像が含まれなくなったので、境界線の出力イメージ画像102を青色で示してある。同図(b)にて警告メッセージを表示していた場合にはその表示を消去する。
ヘッドマウントディスプレイ装置30は、位置調整後の出力イメージ画像103に対応した処理結果を画像形成装置10で得るための設定情報を外部装置へ出力する、あるいは該出力した設定情報が示す設定内容を外部装置の設定に反映させる。
このように、ヘッドマウントディスプレイ装置30の装着者は、ヘッドマウントディスプレイ装置30にAR表示された画像欠け範囲を示す境界線の出力イメージ画像102に対して直接的に移動の操作を行うことで、移動後の境界線の位置をAR表示で確認しながら、画像欠け範囲に係る出力設定の内容を変更することができる。
図12は、ヘッドマウントディスプレイ装置30を用いて、地紋画像の濃度を調整する例を示している。同図(a)は出力設定前の用紙105を、同図(b)は、地紋画像を付加する出力設定が行われている場合の出力設定後の用紙(調整前)106を示している。地紋画像を付加する出力設定では、地紋のパターンと、埋め込む文字や画像およびその埋め込み位置、地紋画像の濃度などが設定される。同図(b)に示す出力設定後の用紙(調整前)106では、用紙に対して、地紋画像に対応する出力イメージ画像107(図中、グレーの背景)が重畳されている。これにより、ヘッドマウントディスプレイ装置30の装着者は、出力設定前の用紙105に既に印字されている内容(文字や画像)と出力設定に従って施される地紋画像とのコントラストなどをヘッドマウントディスプレイ装置30にAR表示された出力設定後の用紙106を見て事前(印刷前)に確認することができる。
同図(c)は、ユーザが地紋画像の出力イメージ画像107に対して指や手で操作して地紋画像の濃度を調整する様子を示している。該操作は、現実空間の用紙(拡張現実空間の用紙上の出力イメージ画像)にユーザの指や手が近接した状態で行われる。該操作は、まず、ユーザが手や指を地紋画像に対応する出力イメージ画像107に一旦触れた後、所定距離まで遠ざけて所定時間(たとえば、1秒)静止させる。その後、ユーザがその手や指を用紙から遠ざけると地紋画像の濃度を薄くする指示となり、手や指を用紙に近づけると濃度を濃くする指示となる。図の例では、地紋画増の濃度を濃くする操作が行われている。
ヘッドマウントディスプレイ装置30は、地紋画像の出力イメージ画像107に対する上記の操作を検出すると、その検出した操作に応じて出力イメージ画像107の濃度を変化させる。同図(d)は、濃度を濃くした後の状態(出力設定後の用紙(調整後)108)を示している。ヘッドマウントディスプレイ装置30は、濃度調整後の出力イメージ画像107に対応した処理結果を画像形成装置10で得るための設定情報を外部装置へ出力する、あるいは該出力した設定情報が示す設定内容を外部装置の設定に反映させる。
このように、ヘッドマウントディスプレイ装置30の装着者は、ヘッドマウントディスプレイ装置30にAR表示された地紋画像の出力イメージ画像107に対して所定の操作を行うことで、変更後の地紋画像の濃度をAR表示で確認しながら、地紋画像に係る出力設定の内容を変更することができる。
図13は、ヘッドマウントディスプレイ装置30を用いて、地紋画像に潜像として埋め込まれている文字の位置を調整する例を示している。同図(a)は出力設定前の用紙110を、同図(b)は、地紋画像を付加する出力設定が行われている場合の出力設定後の用紙(調整前)111を示している。同図(b)に示す出力設定後の用紙(調整前)111では、用紙に対して、地紋画像に対応する出力イメージ画像112(図中、グレーの背景と白抜きの文字)が重畳されている。これにより、ヘッドマウントディスプレイ装置30の装着者は、出力設定前の用紙110に既に印字されている内容(文字や画像)と出力設定に従って施される地紋画像の文字の位置などをヘッドマウントディスプレイ装置30にAR表示された出力設定後の用紙111を見て事前(印刷前)に確認することができる。
同図(c)は、ユーザが地紋画像の出力イメージ画像112の中に潜像として含まれる文字に対して指や手で操作してその文字の位置を調整する様子を示している。該操作は、現実空間の用紙(拡張現実空間の用紙上の出力イメージ画像)にユーザの指や手を触れた状態もしくは近接させた状態で行われる。ここでは、文字の位置を下方に移動させるようにドラッグ操作が行われている。
ヘッドマウントディスプレイ装置30は、地紋画像の文字に対して上記の操作を検出すると、その検出した操作に応じて出力イメージ画像112を変更して、地紋画像に潜像として含まれる文字の位置を移動させる。同図(d)は、移動後の状態(出力設定後の用紙(調整後)113)を示している。ヘッドマウントディスプレイ装置30は、位置調整後の出力イメージ画像112に対応した処理結果を画像形成装置10で得るための設定情報を外部装置へ出力する、あるいは該出力した設定情報が示す設定内容を外部装置の設定に反映させる。
このように、ヘッドマウントディスプレイ装置30の装着者は、ヘッドマウントディスプレイ装置30にAR表示された地紋画像の出力イメージ画像112に含まれる文字に対して移動の操作を行うことで、移動後の文字の位置をAR表示で確認しながら、地紋画像に係る出力設定の内容を変更することができる。
図14は、ヘッドマウントディスプレイ装置30を用いて、ステイプルの位置を調整する例を示している。同図(a)は出力設定前の用紙120を、同図(b)はステイプルを打つ出力設定が行われている場合の出力設定後の用紙(調整前)121を示している。同図(b)に示す出力設定後の用紙(調整前)121では、用紙に対して、出力設定で指定された位置にステイプルに対応する出力イメージ画像122が重畳されている。これによりヘッドマウントディスプレイ装置30の装着者は、出力設定前の用紙120に既に印字されている内容(文字や画像)と出力設定に従って付加されるステイプルとの位置関係をヘッドマウントディスプレイ装置30にAR表示された出力設定後の用紙(調整前)121を見て事前(印刷前)に確認することができる。
同図(c)は、ユーザがステイプルに対応する出力イメージ画像122を指で操作して、該ステイプルを打つ位置を移動させる様子を示している。該操作は、現実空間の用紙(拡張現実空間の用紙上の出力イメージ画像)にユーザの指が接触あるいは近接した状態で行われた操作である。ここでは、ステイプルに対応する出力イメージ画像122を目的の位置へ移動させるためにドラッグ操作が行われている。
ヘッドマウントディスプレイ装置30は、ステイプルに対応する出力イメージ画像122に対する上記の操作を検出すると、その検出した操作に応じて出力イメージ画像122の表示位置を移動させる。同図(d)は、移動後の状態(出力設定後の用紙(調整後)123)を示している。ヘッドマウントディスプレイ装置30は、位置調整後の出力イメージ画像122に対応した処理結果を画像形成装置10で得るための設定情報を外部装置へ出力する、あるいは該出力した設定情報が示す設定内容を外部装置の設定に反映させる。
このように、ヘッドマウントディスプレイ装置30の装着者は、ヘッドマウントディスプレイ装置30にAR表示されたステイプルの出力イメージ画像122に対して直接的に移動の操作を行うことで、移動後の位置をAR表示で確認しながら、ステイプルの付加処理に係る出力設定の内容を変更することができる。
図15は、ヘッドマウントディスプレイ装置30を用いて、パンチ穴の位置を調整する例を示している。同図(a)は出力設定前の用紙125を、同図(b)はパンチ穴を開ける出力設定が行われている場合の出力設定後の用紙(調整前)126を示している。同図(b)に示す出力設定後の用紙(調整前)126では、用紙に対して、出力設定で指定された位置にパンチ穴に対応する出力イメージ画像127が重畳されている。これによりヘッドマウントディスプレイ装置30の装着者は、出力設定前の用紙125に既に印字されている内容(文字や画像)と出力設定に従って付加されるパンチ穴との位置関係をヘッドマウントディスプレイ装置30にAR表示された出力設定後の用紙(調整前)1261を見て事前(印刷前)に確認することができる。
図15(b)の例では、第1のパンチ穴に対応する出力イメージ画像127aは既存印字領域(既に印字されている文字や画像が存在する領域)と重なっており、第2のパンチ穴に対応する出力イメージ画像127bは既存印字領域と重なっていない。そこで、第1のパンチ穴に対応する出力イメージ画像127aは赤色で表示し、第2のパンチ穴に対応する出力イメージ画像127bは青色で表示して、これらの表示形態を相違させてある。
同図(c)は、ユーザがパンチ穴に対応する出力イメージ画像127を指で操作して、該パンチ穴を打つ位置を移動させる様子を示している。該操作は、現実空間の用紙(拡張現実空間の用紙上の出力イメージ画像)にユーザの指が接触あるいは近接した状態で行われた操作である。ここでは、パンチ穴に対応する出力イメージ画像127を目的の位置へ移動させるためにドラッグ操作が行われている。なお、いずれか一方のパンチ穴127を移動させると、2つのパンチ穴127(127a、127b)が同時に同じように移動する。
ヘッドマウントディスプレイ装置30は、パンチ穴に対応する出力イメージ画像127に対する上記の操作を検出すると、その検出した操作に応じて出力イメージ画像127の表示位置を移動させる。同図(d)は、移動後の状態(出力設定後の用紙(調整後)128)を示している。移動後の位置では、パンチ穴127は既存印字領域と重ならないので、2つのパンチ穴に対応する出力イメージ画像127a、127bは共に青色で表示されている。
ヘッドマウントディスプレイ装置30は、位置調整後の出力イメージ画像127に対応した処理結果を画像形成装置10で得るための設定情報を外部装置へ出力する、あるいは該出力した設定情報が示す設定内容を外部装置の設定に反映させる。
このように、ヘッドマウントディスプレイ装置30の装着者は、ヘッドマウントディスプレイ装置30にAR表示されたパンチ穴の出力イメージ画像127に対して直接的に移動の操作を行うことで、移動後の位置をAR表示で確認しながら、パンチ穴の付加処理に係る出力設定の内容を変更することができる。
図6〜図15に示す例は一例であり、AR表示装置(ヘッドマウントディスプレイ装置30や携帯端末60)は、折りなど他の付加処理についても同様に、出力イメージ画像に対する操作によって付加処理の内容を変更でき、変更後の設定情報を画像形成装置10などの外部装置に出力したり、設定情報が示す設定内容を外部装置に反映させたりすることができる。
次に、AR表示装置としてのヘッドマウントディスプレイ装置30が行う処理を流れ図に沿って説明する。なお、AR表示装置である携帯端末60についても同様の動作となるのでその説明は省略する。
図16、図17は、ヘッドマウントディスプレイ装置30が行う処理の全体を示す流れ図である。ヘッドマウントディスプレイ装置30は、外部装置(たとえば、画像形成装置10)から画像形成装置10に対する出力設定の内容を示す設定情報を受信する(ステップS001)。なお、画像形成装置10に対して実際に設定されている出力設定のほか、これから設定する予定の出力設定に係る設定情報を携帯端末等から受信してもよい。
設定情報を受信したら(ステップS001;Yes)、カメラ部47が撮像している現実空間から、出力設定に対応する用紙を検出する処理を開始する(ステップS002)。具体的には、カメラ部47の出力映像を解析して用紙を検出すると共に、検出された用紙までの距離を距離センサ54で計測する。
ユーザから用紙検出を中止する指示を受けた場合は(ステップS003;Yes)、カメラ部47による撮像および用紙検出を中止して(ステップS004)、本処理を終了する。
ユーザから用紙検出を中止する指示を受けなければ(ステップS003;No)、用紙検出により、所定の距離内に用紙を検出できたか否かを判断する(ステップS005)。なお、ここでは、用紙までの距離と映像内の用紙の大きさとから、その用紙の現実のサイズを求め、このサイズと、予め不揮発メモリ44などに記憶してある管理テーブル(図18参照)に登録されている規定の用紙サイズとを比較して、該用紙のサイズを特定する。そして、この特定した用紙のサイズとS001で受信した設定情報が対象としている用紙のサイズとが一致した場合に、該設定情報に対応する用紙を検出したと判定する。
未検出であれば(ステップS005;No)、「現在の撮影範囲では、用紙を検出できないので、用紙を検出できるように、カメラ部47の近くに用紙を近づけてください」といったメッセージを表示部31に表示する(ステップS006)。そして、ステップS002に戻って処理を継続する。
用紙を検出できた場合は(ステップS005;Yes)、ステップS001で受信した設定情報が示す出力設定に従って付加処理を画像形成装置10で実施した場合の処理結果を模擬的に示した出力イメージ画像を作成する(ステップS007)。
次に、検出した用紙の位置および姿勢(カメラ部47から見た向きや三次元形状)を解析する(ステップS008)。そして、ステップS008の解析結果が示す用紙の位置や姿勢に適合するように出力イメージ画像を補正する(ステップS009)。
次に、ステップS009またはステップS020で補正した出力イメージ画像を、ステップS005で検出した用紙に重ね合わせてAR表示する(ステップS010)。これにより、ヘッドマウントディスプレイ装置30の装着者には、用紙上に出力イメージ画像が重ねあわされた拡張現実空間が見える。
この状態で、ユーザの手や指などの指示体が用紙上の出力イメージ画像に向けられたか否かを判断し(ステップS011)、向けられている場合は(ステップS011;Yes)、出力イメージ画像の調整処理を行って(ステップS012)、ステップS013に移行する。ユーザの手や指が用紙上の出力イメージ画像に向けられていない場合は(ステップS011;N)、ステップS013に移行する。
ステップS012では、ユーザが出力イメージ画像に対して操作を行ったか否かを判定し、操作を受けた場合は、その操作の内容に応じて出力イメージ画像を変更し、変更後の出力イメージ画像に対応した設定情報を外部へ出力する処理が行われる。ステップS012の詳細については後述する。
ステップS013では、ユーザから、AR表示をキャンセルする指示を受けたか否かを判断し、AR表示をキャンセルする指示を受けた場合は(ステップS013;Yes)、表示部31の表示をクリアして(ステップS014)、本処理を終了する。
上記キャンセルの指示を受けない場合は(ステップS013;No)、用紙を撮像してから所定時間が経過したか否かを調べる(ステップS015)。所定時間はたとえば0.1秒などであり、任意に定めればよい。所定時間は用紙の動きに追従して出力イメージ画像を表示し得る時間が好ましく、0.2秒以下、より好ましくは0.1秒以下、処理速度が許せばさらに短時間とすることが望ましい。
所定時間が経過したら(ステップS015;Yes)、カメラ部47が撮像している現実空間から用紙を検出する処理を再び行う(ステップS016)。そして、検出した用紙の位置および姿勢(カメラ部47から見た向きや三次元形状)を解析し(ステップS017)、前回の解析結果が示す用紙の位置および姿勢と今回の解析結果が示す用紙の位置および姿勢を比較する(ステップS018)。
比較した結果、前回の解析結果が示す用紙の位置および姿勢と今回の解析結果が示す用紙の位置および姿勢が同一ならば(ステップS019;Yes)、ステップS010に戻って処理を継続する。
比較した結果、前回の解析結果が示す用紙の位置および姿勢と今回の解析結果が示す用紙の位置および姿勢が相違する場合は(ステップS019;No)、最新の解析結果(前回のステップS017での解析結果)が示す用紙の位置および姿勢に適合するように出力イメージ画像を補正し(ステップS020)、ステップS010に戻って処理を継続する。
これにより、ユーザが用紙を手で持っていて、用紙が移動したり変形したりする場合でも、用紙の該移動や変形に追従して、出力イメージ画像が用紙上に重ねて表示される。
図19は、図16のステップS007の詳細を示している。ヘッドマウントディスプレイ装置30のCPU41は、ステップS001で外部装置から受信した設定情報に基づいて、この設定情報が示す出力設定に従って付加処理を実施した場合の処理結果の用紙上の位置を算出する(ステップS031)。たとえば、パンチ穴を開ける出力設定が成されている場合、そのパンチ穴の用紙上の位置を算出する。
次に、設定情報が示す各付加処理をステップS031で算出した位置に施した場合の処理結果を示す出力イメージ画像を作成して(ステップS032)本処理を終了する。
図20は、出力イメージ画像の調整処理(図17のステップS012)の詳細を示している。出力イメージ画像にまだ指や手が向けられているか否かを判定し(ステップS041)。向けられていなければ(ステップS041;No)、本処理を終了する。
出力イメージ画像にまだ指や手が向けられている場合は(ステップS041;Yes)、該指や手により、出力イメージ画像に対して何らかの操作が行われたか否かを判定する(ステップS042)。ここでは、指や手が現実空間の用紙に触れた状態あるいは用紙に近接した(たとえば、5cm以内)状態で行われた(あるいは開始された)操作であれば、出力イメージ画像に対する操作であると判定し、用紙から離れた位置で行われた(あるいは開始された)操作は出力イメージ画像に対する操作でないと判定する。これにより、用紙から離れた位置でユーザが行う各種の動きを出力イメージ画像に対する操作と誤認することが回避される。
操作は、指や手が現実空間の用紙に触れたあるいは近接した状態で行われた操作、もしくは少なくとも用紙に触れたあるいは近接した状態で開始された操作であればよい。開始時のみ接触あるいは近接すればよいか否かは操作の種類に依存する。たとえば、ドラッグやピンチイン、ピンチアウトなどの操作は、操作の開始から終了まで指や手が用紙に接触あるいは近接した状態で行われることを要する。一方、手や指を用紙に近づけたり、遠ざけたりする操作では、操作の開始時のみ手や指が用紙に接触あるいは近接していればよい。
たとえば、スタンプの濃度を調整する操作は、以下のような操作とすることができる。まず、ユーザが手や指をスタンプに対応する出力イメージ画像に一旦触れた後、所定距離まで遠ざけて所定時間(たとえば、1秒)静止させる。その後、ユーザがその手や指を用紙から遠ざけるとスタンプ濃度を薄くする指示となり、手や指を用紙に近づけると濃度を濃くする指示となる。
出力イメージ画像に対して何らかの操作が行われたことを検出した場合は(ステップS042;Yes)、その検出した操作の種別を解析する(ステップS043)。すなわち、ドラッグ、ピンチアウト、ピンチインなど操作の種別を特定し、位置調整、サイズ調整、長さや幅の調整、濃淡調整など、その操作が指示する調整の内容を特定する。
そして、操作が指示する内容に応じて、出力イメージ画像の位置、サイズ等を調整する。ここでは、操作を行う手や指の動きに連動して、出力イメージ画像をリアルタイムに変更する(ステップS044)。
出力イメージ画像に対する操作が完了したか否かを判断し(ステップS045)、操作が継続中であれば(ステップS045;No)、ステップS043に戻る。操作が完了した場合は(ステップS045;Yes)、調整(変更)後の出力イメージ画像に対応する処理結果を画像形成装置10で得るための出力設定の内容を示す設定情報を作成し、該設定情報を外部装置(たとえば、S001で受信した設定情報の送信元の装置)に送信し、その設定情報が示す設定内容を外部装置の設定内容に反映させて(ステップS046)、本処理を終了する。なお、設定情報が示す設定内容を外部装置の設定内容に反映させる処理として、たとえば、出力イメージ画像の調整により変更された設定内容に対応する設定画面であって変更後の設定内容が反映された設定画面を外部装置の操作パネルに表示させるようにしてもよい。
たとえば、スタンプの位置を調整する操作が行われた場合、ステップS001で受信した設定情報が示すスタンプの位置情報を、調整後の出力イメージ画像の位置に対応する値に変更した設定情報を外部装置に対して送信し、その設定を外部装置に反映させる。
図21は、図20のステップS046でヘッドマウントディスプレイ装置30から出力された設定情報を受信した外部装置(画像形成装置10など)が行う処理の流れを示している。
画像形成装置10などの外部装置は、ヘッドマウントディスプレイ装置30から上記の設定情報が送られてくるのを待機している(ステップS051;No)。そして、設定情報を受信すると(ステップS051;Yes)、その受信した設定情報が示す設定内容を自装置に反映して、自装置の設定状態を変更する(ステップS052)。
このように、本実施の形態に係るAR表示装置(ヘッドマウントディスプレイ装置30や携帯端末60)では、画像形成装置10に対する設定情報を画像形成装置10等から取得し、該設定情報が示す付加処理を画像形成装置10で実施した場合の処理結果を模擬的に示す出力イメージ画像を生成し、これを現実空間の用紙に重ね合わせた拡張現実空間を表示する。これにより、ユーザは、出力設定に対応した処理結果を、実際の印刷を行うことなく、事前に確認することができる。
そして、ユーザは、処理結果が適切でないことをAR表示で確認した場合には、AR表示されている出力イメージ画像に対して移動やサイズ変更などの操作を行うことで、出力設定の設定内容を容易に変更することができる。これにより、変更後の処理結果をAR表示で確認しながら設定内容を変更することができる。さらに、変更後の出力イメージ画像に対応する設定情報が生成されて外部へ出力されるので、この設定情報を反映させて画像形成装置10などの外部装置を動作させれば、AR表示で調整後の処理結果を現実の外部装置で容易に得ることができる。
また、現実空間の用紙に出力イメージ画像を重ねたAR表示によって出力設定に対応する処理結果を確認できるので、たとえば、原稿をスキャナで読み取るなどの手間が不要となり、ユーザは出力設定に対応する処理結果の確認を迅速かつ容易に行うことができる。
また、ユーザが用紙を動かしても、拡張現実空間内の出力イメージ画像が用紙の動きに追従して変化するので、用紙を固定する必要がない。また、用紙を意図的に動かして、仕上がり状態を各種の方向から確認することもできる。
さらに、現実の用紙に出力イメージ画像を重畳した拡張現実空間を表示するので、現実の用紙に既に印刷されている文字や画像と出力設定に対応する付加処理の処理結果との位置関係や重なり具合などを確認しながら、設定内容を調整することができる。
なお、上記の例では、ヘッドマウントディスプレイ装置30や携帯端末60が出力イメージ画像の生成、補正、用紙への重畳、出力イメージ画像に対する操作の受け付け、操作に応じた出力イメージ画像の変更、設定情報の出力などすべての処理を行う例を示したが、これらの処理をヘッドマウントディスプレイ装置30や携帯端末60とは別の処理内容設定装置130(図1参照)で行い、該処理内容設定装置130からの指示に従ってヘッドマウントディスプレイ装置30や携帯端末60が出力イメージ画像に基づく拡張現実空間を表示するように構成されてもよい。
図22は、処理内容設定装置130の概略構成を示すブロック図である。処理内容設定装置130は、当該処理内容設定装置130の動作を統括的に制御するCPU131を備え、該CPU131にはバスを通じてROM132、RAM133、不揮発メモリ134、ハードディスク装置135、操作表示装置136、画像処理部137、通信部138、認証部139などが接続されている。CPU131がROM132に格納されているプログラムを実行することで処理内容設定装置130としての機能が実現される。
処理内容設定装置130は、画像形成装置10などから通信部138を通じて出力設定情報を取得する。また、ヘッドマウントディスプレイ装置30や携帯端末60などのAR表示装置からカメラの撮影映像や距離センサで検出した距離情報などを取得し、これらに基づいて、AR表示装置のカメラが撮影している現実空間に存在する用紙をその姿勢を含めて検出する。そして、画像形成装置10などから取得した出力設定情報に従って画像形成装置10等で付加処理を実施した場合の処理結果を模擬的に示す出力イメージ画像を作成し、これを現実空間に存在する用紙の姿勢に合わせて補正し、該補正した出力イメージ画像を現実空間に存在する用紙に重ね合わせた拡張現実空間をAR表示装置に表示させる。
たとえば、補正後の出力イメージ画像とその重畳位置を示す情報を作成してヘッドマウントディスプレイ装置30に送信して、上記の拡張現実空間をヘッドマウントディスプレイ装置30にAR表示させる。
また、処理内容設定装置130は、拡張現実空間内の出力イメージ画像に対してユーザが行った操作を検出し、検出された操作に応じて出力イメージ画像を変更する。たとえば、AR表示装置からカメラの撮影映像や距離センサで検出した距離情報などを取得し、これらからユーザが模擬画像に対して行った操作を検出する。そして、模擬画像の位置や大きさを調整等する操作などユーザから受けると、その操作に応じて出力イメージ画像を、移動させたり拡大したりして変更し、変更後の模擬画像の情報をAR表示装置に送信して表示させる。変更操作が完了すると、変更後の出力イメージ画像に対応する処理結果を画像形成装置10で得るための設定情報を外部(たとえば、画像形成装置10など)へ出力し、設定内容を反映させる。
これにより、ユーザは、拡張現実空間において、変更後の状態を確認しながら出力イメージ画像に対する操作を行って設定内容を変更することができる。また、変更後の出力イメージ画像に対応する設定情報が外部へ出力されるので、この設定情報を画像形成装置10などに反映させることで、拡張現実空間で確認した変更後の処理結果を現実の画像形成装置10等において容易に得ることができる。
処理内容設定装置130は、図1に示すような携帯端末として構成されるほか、PCやサーバなどで構成されてもよい。
以上、本発明の実施の形態を図面によって説明してきたが、具体的な構成は実施の形態に示したものに限られるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。
実施の形態に示した付加処理は一例であり、画像形成装置10が施す処理であって出力物にその処理結果が現れる処理であれば任意の処理でよい。
さらに、本発明においては、模擬画像が重畳される物体を用紙とし、物体に対して処理を施す装置を画像形成装置10とし、処理内容を付加処理としたが、物体、装置、処理内容はこれに限定されるものではない。たとえば、物体を衣服、装置を衣服に柄をプリントする装置、処理を衣服に柄をプリントする処理、としたり、物体を石や岩、装置を石や岩を削って整形する装置、処理を石や岩を削って整形する処理、としてもよい。
すなわち、本発明に係るAR表示装置は、カメラの撮影する現実空間において所定の物体を検出し、所定の物体に対して所定の装置が所定の処理を施した場合の処理結果を模擬的に示した模擬画像を生成し、検出された所定の物体に模擬画像を重ね合わせた拡張現実空間をAR表示装置に表示させ、該AR表示装置に表示された拡張現実空間内の模擬画像に対してユーザが行った操作を検出し、検出された操作に応じて模擬画像を変更し、変更後の模擬画像に対応する処理結果を所定の装置で得るための設定情報を出力するものであれは、対象の物体、装置、処理は任意でよい。
たとえば、石を削る装置に対して、その削りかたを指定する出力イメージ画像を現実空間の石に投影した拡張現実空間を表示し、出力イメージ画像に対する変更の操作を受け付け、変更後の出力イメージ画像に対応して石を削り出すための設定情報を出力する、といった場合も本発明に含まれる。
実施の形態では、用紙の位置や姿勢をカメラ部47の画像解析と距離センサ54による各部までの距離の測定によって検出したが、検出方法はこれに限定されるものではない。
また、用紙に手や指などの指示体が触れているか否かを、用紙までの距離と手や指までの距離との差が許容範囲内か否かによって判定したが、判定方法はこれに限定されない。たとえば、ステレオカメラで撮影した映像を解析して判定してもよい。
実施の形態で示した出力設定前の用紙はコピーされる原稿でもよいし、印刷データに基づいて印刷された出力物でもよい。コピー原稿の場合、ユーザは本実施の形態に関わるヘッドマウントディスプレイ装置30や携帯端末60を使用して、コピーする前に出力設定に対応した仕上がり状態をAR表示で確認して調整することができる。印刷データの場合には、次にその印刷データによる印刷に、出力設定に対応する付加処理を施した場合の処理結果をAR表示で確認して調整することができる。
実施の形態では、外の様子にハーフミラー35で画像を重ね合わせる方式のヘッドマウントディスプレイ装置30を例示したが、装着すると外の様子を見ることができず、映し出される画像のみが見える、VR(Virtual Reality)型のヘッドマウントディスプレイ装置であってもよい。この場合は携帯端末60と同様にカメラ画像に出力イメージ画像を合成した画像を表示すればよい。
2…ネットワーク
3…印刷システム
10…画像形成装置
11…CPU
12…ROM
13…RAM
14…不揮発メモリ
15…ハードディスク装置
16…自動原稿搬送部
17…認証部
20…操作部
21…表示部
22…ネットワーク通信部
23…画像読取部
24…画像処理部
25…プリンタ部
26…ファクシミリ通信部
30…ヘッドマウントディスプレイ装置
31…表示部
32…ブリッジ
33…ツル
34…基幹部
35…ハーフミラー
41…CPU
42…ROM
43…RAM
44…不揮発メモリ
45…方位センサー部
46…投影部
47…カメラ部
48…操作部
51…ネットワーク通信部
52…画像処理部
53…視線検出部
54…距離センサ
55…音声出力部
60…携帯端末
61…CPU
62…ROM
63…RAM
64…不揮発メモリ
65…方位センサー部
66…カメラ部
67…認証部
68…操作部
69…表示部
70…ネットワーク通信部
71…画像処理部
72…視線検出部
73…距離センサ
74…音声出力部
81…出力設定前の用紙
82…スタンプに係る出力設定後の用紙(調整前)
83…スタンプに対応する出力イメージ画像
84…スタンプに係る出力設定後の用紙(調整後)
86…スタンプに係る出力設定後の用紙(調整後)
88…設定をキャンセルした後の用紙(調整後)
91…出力設定前の用紙
92…センター消去処理に係る出力設定後の用紙(調整前)
93…センター消去処理に対応する出力イメージ画像(調整前)
93b…センター消去処理に対応する出力イメージ画像(調整後)
94…センター消去処理に係る出力設定後の用紙(調整後)
101…画像欠け範囲に係る出力設定後の用紙(調整前)
102…画像欠け範囲に係わる境界線の出力イメージ画像
103…画像欠け範囲に係る出力設定後の用紙(調整後)
105…地紋画像に係わる出力設定前の用紙
106…地紋画像に係わる出力設定後の用紙(調整前)
107…地紋画像に係わる出力イメージ画像
108…濃度調整後の地紋画像に係わる出力設定後の用紙(調整後)
110…地紋画像に係わる出力設定前の用紙
111…地紋画像に係わる出力設定後の用紙(調整前)
112…地紋画像に係わる出力イメージ画像
113…位置調整後の地紋画像に係わる出力設定後の用紙(調整後)
120…出力設定前の用紙
121…ステイプルに係る出力設定後の用紙(調整前)
122…ステイプルに対応する出力イメージ画像
123…ステイプルに係る出力設定後の用紙(調整後)
125…出力設定前の用紙
126…パンチ穴に係る出力設定後の用紙(調整前)
127…パンチ穴にステイプルに対応する出力イメージ画像
127a…上側のパンチ穴を示す出力イメージ画像
127b…下側のパンチ穴を示す出力イメージ画像
128…パンチ穴に係る出力設定後の用紙(調整後)
130…処理内容設定装置
131…CPU
132…ROM
133…RAM
134…不揮発メモリ
135…ハードディスク装置
136…操作表示装置
137…画像処理部
138…通信部
139…認証部
L1…外光
L2…画像光
S…中央部分の影

Claims (31)

  1. 現実空間に画像を合成した拡張現実空間を表示するAR表示装置であって、
    現実空間に画像を合成した拡張現実空間を表示するAR表示部と、
    前記AR表示部が表示する前記拡張現実空間に対応した現実空間に関する情報を取得する取得部と、
    前記取得部が取得した現実空間の情報に対応する現実空間において所定の物体を検出する物体検出部と、
    前記所定の物体に対して、前記AR表示装置とは別の所定の装置が所定の処理を施した場合の処理結果を模擬的に示した模擬画像を生成し、前記物体検出部によって検出された前記所定の物体に前記模擬画像を重ね合わせた拡張現実空間を前記AR表示部に表示させるAR表示制御部と、
    前記AR表示部に表示された前記拡張現実空間内の前記模擬画像に対してユーザが行った操作を検出する操作検出部と、
    前記模擬画像に対応する処理結果を前記所定の装置で得るための設定情報を前記所定の装置に出力する設定情報出力部と、
    を備え、
    前記AR表示制御部は、前記操作検出部によって検出された前記操作に応じて前記模擬画像を変更し、
    前記設定情報出力部は、前記変更後の模擬画像に対応した設定情報を前記所定の装置に出力する
    ことを特徴とするAR表示装置。
  2. 前記設定情報出力部は、前記所定の装置において、所定の第1設定情報を、前記変更後の模擬画像に対応した前記設定情報に変更させる
    ことを特徴とする請求項1に記載のAR表示装置。
  3. 前記AR表示制御部は、前記模擬画像を用紙の姿勢に合わせて補正し、当該補正後の模擬画像を用紙に重ね合わせた拡張現実空間を前記AR表示部に表示させる
    ことを特徴とする請求項1または2に記載のAR表示装置。
  4. 前記取得部は、前記現実空間を撮影するカメラである
    ことを特徴とする請求項1乃至3のいずれか1つに記載のAR表示装置。
  5. 前記設定情報出力部は、前記変更後の模擬画像に対応した設定情報を前記所定の装置へ出力し、前記設定情報が示す設定内容を前記所定の装置に反映させる
    ことを特徴とする請求項1乃至4のいずれか1つに記載のAR表示装置。
  6. 前記操作検出部は、前記物体にユーザの指などの指示体が触れた状態あるいは前記指示体が前記物体に近接している状態で前記ユーザが行ったあるいは開始した、前記指示体による前記模擬画像に対する操作を検出する
    ことを特徴とする請求項1乃至5のいずれか1つに記載のAR表示装置。
  7. 前記模擬画像に対する操作は、前記模擬画像の、移動、サイズ調整、濃淡調整、消去のうちの少なくとも1つを指示する操作である
    ことを特徴とする請求項1乃至のいずれか1つに記載のAR表示装置。
  8. 前記AR表示制御部は、前記操作によって前記模擬画像が前記所定の物体に重ならない位置に移動された場合は、前記模擬画像を消去する
    ことを特徴とする請求項1乃至のいずれか1つに記載のAR表示装置。
  9. 前記所定の物体に対して前記所定の装置が施す処理内容を示す設定情報である設定情報を外部装置から取得する設定情報取得部を備え、
    前記AR表示制御部は、前記設定情報取得部によって取得した前記設定情報に従って前記模擬画像を生成する
    ことを特徴とする請求項1乃至のいずれか1つに記載のAR表示装置。
  10. 前記物体検出部は、前記取得部が取得した現実空間の情報に対応する現実空間に存在する前記所定の物体をその姿勢を含めて検出し、
    前記AR表示制御部は、前記所定の物体の姿勢に合わせて補正した前記模擬画像を、前記所定の物体に重ね合わせた拡張現実空間を前記表示部に表示させる
    ことを特徴とする請求項1乃至のいずれか1つに記載のAR表示装置。
  11. 前記所定の装置は、印刷装置であり、
    前記所定の物体は、用紙である
    ことを特徴とする請求項1乃至10のいずれか1つに記載のAR表示装置。
  12. 前記所定の処理は、印刷対象の画像にスタンプ画像を付加する処理、本を見開いてコピーしたときに中央に生じる影を消去するセンター消去処理、印刷範囲を調整する処理、地紋画像を合成する処理、綴じ穴をあける処理、ステイプルで綴じる処理のうちの少なくとも1つを含む
    ことを特徴とする請求項11に記載のAR表示装置。
  13. 現実空間に画像を合成した拡張現実空間を表示する表示部と、前記表示部が表示する前記拡張現実空間に対応した現実空間に関する情報を取得する取得部とを備えたAR表示装置の前記取得部が取得した現実空間の情報に対応する現実空間において所定の物体を検出する物体検出部と、
    前記所定の物体に対して、前記AR表示装置とは別の所定の装置が所定の処理を施した場合の処理結果を模擬的に示した模擬画像を生成し、前記物体検出部によって検出された前記所定の物体に前記模擬画像を重ね合わせた拡張現実空間を前記AR表示装置に表示させる表示制御部と、
    前記AR表示装置に表示された前記拡張現実空間内の前記模擬画像に対してユーザが行った操作を検出する操作検出部と、
    前記模擬画像に対応する処理結果を前記所定の装置で得るための設定情報を前記所定の装置に出力する設定情報出力部と、
    を備え、
    前記表示制御部は、前記操作検出部によって検出された前記操作に応じて前記模擬画像を変更し、
    前記設定情報出力部は、前記変更後の模擬画像に対応した設定情報を前記所定の装置に出力する
    ことを特徴とする処理内容設定装置。
  14. 前記設定情報出力部は、前記所定の装置において、所定の第1設定情報を、前記変更後の模擬画像に対応した前記設定情報に変更させる
    ことを特徴とする請求項13に記載の処理内容設定装置
  15. 前記表示制御部は、前記模擬画像を用紙の姿勢に合わせて補正し、当該補正後の模擬画像を用紙に重ね合わせた拡張現実空間を前記AR表示装置に表示させる
    ことを特徴とする請求項13または14に記載の処理内容設定装置
  16. 前記取得部は、前記現実空間を撮影するカメラである
    ことを特徴とする請求項13乃至15のいずれか1つに記載の処理内容設定装置
  17. 前記設定情報出力部は、前記変更後の模擬画像に対応した設定情報を前記所定の装置へ出力し、前記設定情報が示す設定内容を前記所定の装置に反映させる
    ことを特徴とする請求項13乃至16のいずれか1つに記載の処理内容設定装置。
  18. 前記操作検出部は、前記物体にユーザの指などの指示体が触れた状態あるいは前記指示体が前記物体に近接している状態で前記ユーザが行ったあるいは開始した、前記指示体による前記模擬画像に対する操作を検出する
    ことを特徴とする請求項13乃至17のいずれか1つに記載の処理内容設定装置。
  19. 前記模擬画像に対する操作は、前記模擬画像の、移動、サイズ調整、濃淡調整、消去のうちの少なくとも1つを指示する操作である
    ことを特徴とする請求項13乃至18のいずれか1つに記載の処理内容設定装置。
  20. 前記表示制御部は、前記操作によって前記模擬画像が前記所定の物体に重ならない位置に移動された場合は、前記模擬画像を消去する
    ことを特徴とする請求項13乃至19のいずれか1つに記載の処理内容設定装置。
  21. 前記所定の物体に対して前記所定の装置が施す処理内容を示す設定情報である設定情報を外部装置から取得する設定情報取得部を備え、
    前記表示制御部は、前記設定情報取得部によって取得した前記設定情報に従って前記模擬画像を生成する
    ことを特徴とする請求項13乃至20のいずれか1つに記載の処理内容設定装置。
  22. 前記物体検出部は、前記取得部が取得した現実空間の情報に対応する現実空間に存在する前記所定の物体をその姿勢を含めて検出し、
    前記表示制御部は、前記所定の物体の姿勢に合わせて補正した前記模擬画像を、前記所定の物体に重ね合わせた拡張現実空間を前記AR表示装置に表示させる
    ことを特徴とする請求項13乃至21のいずれか1つに記載の処理内容設定装置。
  23. 前記所定の装置は、印刷装置であり、
    前記所定の物体は、用紙である
    ことを特徴とする請求項13乃至22のいずれか1つに記載の処理内容設定装置。
  24. 前記所定の処理は、印刷対象の画像にスタンプ画像を付加する処理、本を見開いてコピーしたときに中央に生じる影を消去するセンター消去処理、印刷範囲を調整する処理、地紋画像を合成する処理、綴じ穴をあける処理、ステイプルで綴じる処理のうちの少なくとも1つを含む
    ことを特徴とする請求項23に記載の処理内容設定装置。
  25. 現実空間に画像を合成した拡張現実空間を表示する表示部と、前記表示部が表示する前記拡張現実空間に対応した現実空間に関する情報を取得する取得部とを備えたAR表示装置にて、所定の物体に、前記AR表示装置とは別の所定の装置が施す処理内容の設定を受ける処理内容設定方法であって、
    前記取得部が取得した現実空間の情報に対応する現実空間において所定の物体を検出するステップと、
    前記所定の物体に対して前記所定の装置が所定の処理を施した場合の処理結果を模擬的に示した模擬画像を生成し、前記検出された前記所定の物体に前記模擬画像を重ね合わせた拡張現実空間を前記AR表示装置に表示させるステップと、
    前記AR表示装置に表示された前記拡張現実空間内の前記模擬画像に対してユーザが行った操作を検出するステップと、
    前記検出された前記操作に応じて前記模擬画像を変更するステップと、
    前記変更後の模擬画像に対応する処理結果を前記所定の装置で得るための設定情報を前記所定の装置に出力するステップと
    を有する
    ことを特徴とする処理内容設定方法。
  26. 前記出力するステップでは、前記所定の装置において、所定の第1設定情報を、前記変更後の模擬画像に対応した前記設定情報に変更させる
    ことを特徴とする請求項25に記載の処理内容設定方法。
  27. 前記表示させるステップでは、前記模擬画像を用紙の姿勢に合わせて補正し、当該補正後の模擬画像を用紙に重ね合わせた拡張現実空間を前記AR表示装置に表示させる
    ことを特徴とする請求項25または26に記載の処理内容設定方法。
  28. 前記取得部は、前記現実空間を撮影するカメラである
    ことを特徴とする請求項25乃至27のいずれか1つに記載の処理内容設定方法。
  29. 前記変更後の模擬画像に対応する処理結果を前記所定の装置で得るための設定情報を出力するステップにおいて、前記設定情報を前記所定の装置へ出力し、前記設定情報が示す設定内容を前記所定の装置に反映させる
    ことを特徴とする請求項25乃至28のいずれか1つに記載の処理内容設定方法。
  30. 前記検出するステップでは、前記物体にユーザの指などの指示体が触れた状態あるいは前記指示体が前記物体に近接している状態で前記ユーザが行ったあるいは開始した、前記指示体による前記模擬画像に対する操作を検出する
    ことを特徴とする請求項25乃至29のいずれか1つに記載の処理内容設定方法。
  31. 情報処理装置を、
    請求項1乃至12のいずれか1つに記載のAR表示装置もしくは請求項13乃至24のいずれか1つに記載の処理内容設定装置として機能させる
    ことを特徴とするプログラム。
JP2013241222A 2013-11-21 2013-11-21 Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム Active JP5900468B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013241222A JP5900468B2 (ja) 2013-11-21 2013-11-21 Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム
US14/533,241 US20150138232A1 (en) 2013-11-21 2014-11-05 Ar display device, process contents setting device, process contents setting method and non-transitory computer-readable recording medium
EP14192007.4A EP2879365A1 (en) 2013-11-21 2014-11-06 Augmented Reality display device, process contents setting device, process contents setting method and non-transitory computer-readable recording medium
CN201410669496.1A CN104660859B (zh) 2013-11-21 2014-11-20 Ar显示装置、处理内容设定装置以及处理内容设定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013241222A JP5900468B2 (ja) 2013-11-21 2013-11-21 Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015102909A JP2015102909A (ja) 2015-06-04
JP5900468B2 true JP5900468B2 (ja) 2016-04-06

Family

ID=51900155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013241222A Active JP5900468B2 (ja) 2013-11-21 2013-11-21 Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム

Country Status (4)

Country Link
US (1) US20150138232A1 (ja)
EP (1) EP2879365A1 (ja)
JP (1) JP5900468B2 (ja)
CN (1) CN104660859B (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2016158108A (ja) * 2015-02-24 2016-09-01 株式会社リコー 頭部装着型表示装置、情報処理システム、および情報処理方法
JP6540108B2 (ja) * 2015-03-09 2019-07-10 富士通株式会社 画像生成方法、システム、装置、及び端末
JP6304145B2 (ja) * 2015-06-30 2018-04-04 京セラドキュメントソリューションズ株式会社 情報処理装置、画像形成装置の設定条件指定方法
JP6304144B2 (ja) * 2015-06-30 2018-04-04 京セラドキュメントソリューションズ株式会社 操作システム
JP6597235B2 (ja) * 2015-11-30 2019-10-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6809022B2 (ja) * 2016-07-29 2021-01-06 富士ゼロックス株式会社 画像表示装置、画像形成装置、および、プログラム
JP6809034B2 (ja) * 2016-08-17 2021-01-06 富士ゼロックス株式会社 表示システム、制御装置、および、プログラム
WO2018142679A1 (ja) * 2017-01-31 2018-08-09 株式会社ワコム 表示装置及びその制御方法
CN108663803B (zh) * 2017-03-30 2021-03-26 腾讯科技(深圳)有限公司 虚拟现实眼镜、镜筒调节方法及装置
US10469796B2 (en) 2017-04-21 2019-11-05 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, and non-transitory computer readable storage medium
US10509556B2 (en) * 2017-05-02 2019-12-17 Kyocera Document Solutions Inc. Display device
JP6888435B2 (ja) * 2017-06-16 2021-06-16 コニカミノルタ株式会社 印刷システム、表示装置、表示装置の制御方法及びプログラム
WO2019119038A1 (en) * 2017-12-19 2019-06-27 Ccl Secure Pty Ltd System and method for generating a virtual representation of a security document
CN110244459B (zh) 2018-03-09 2021-10-08 财团法人工业技术研究院 增强现实装置
TWI664438B (zh) 2018-03-09 2019-07-01 Industrial Technology Research Institute 擴增實境裝置
KR102061109B1 (ko) * 2018-04-09 2019-12-31 홍익대학교 산학협력단 물건 사용 정보의 표시 방법 및 그 장치
JP6856583B2 (ja) * 2018-07-25 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
WO2020036604A1 (en) * 2018-08-17 2020-02-20 Hewlett-Packard Development Company, L.P. Sensing a user's touch
JP2020062807A (ja) * 2018-10-17 2020-04-23 キヤノン株式会社 画像形成装置、情報処理端末およびコンピュータプログラム
CN111399631B (zh) * 2019-01-03 2021-11-05 广东虚拟现实科技有限公司 虚拟内容显示方法、装置、终端设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4537403B2 (ja) * 2004-08-04 2010-09-01 株式会社日立製作所 画像処理装置
AU2006200969A1 (en) * 2006-03-07 2007-09-27 Canon Information Systems Research Australia Pty Ltd Print representation
JP4238891B2 (ja) 2006-07-25 2009-03-18 コニカミノルタセンシング株式会社 三次元形状測定システム、三次元形状測定方法
CN101116426B (zh) * 2006-08-01 2011-06-08 戚志华 智能猫便清理机
JP2008070835A (ja) 2006-09-15 2008-03-27 Ricoh Co Ltd 画像形成装置、仕上がりイメージ生成方法、仕上がりイメージ生成プログラム、及び、情報記録媒体
JP2011041046A (ja) * 2009-08-12 2011-02-24 Ricoh Co Ltd 画像処理装置および画像処理方法
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
JP5574853B2 (ja) * 2010-06-30 2014-08-20 キヤノン株式会社 画像処理システム、情報処理装置、画像処理方法、情報処理方法及びプログラム
JP2013026922A (ja) 2011-07-22 2013-02-04 Kyocera Document Solutions Inc 画像形成システム、情報処理装置、画像形成装置、およびコンピュータープログラム
US9345957B2 (en) * 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
US9183807B2 (en) * 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Displaying virtual data as printed content

Also Published As

Publication number Publication date
US20150138232A1 (en) 2015-05-21
JP2015102909A (ja) 2015-06-04
EP2879365A1 (en) 2015-06-03
CN104660859A (zh) 2015-05-27
CN104660859B (zh) 2017-10-20

Similar Documents

Publication Publication Date Title
JP5900468B2 (ja) Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム
JP5884811B2 (ja) Ar表示装置、ar表示制御装置、印刷条件設定システム、印刷システム、印刷設定表示方法およびプログラム
JP5696908B2 (ja) 操作表示システム
JP5787099B2 (ja) 案内情報表示装置
JP5796726B2 (ja) ジョブ情報表示装置
US20160269578A1 (en) Head mounted display apparatus and method for connecting head mounted display apparatus to external device
JP6584076B2 (ja) 情報処理装置、情報処理方法、コンピュータプログラム
JP6222440B2 (ja) Ar表示システム、およびar表示装置、情報処理装置、プログラム
KR102159767B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
CN114007053A (zh) 图像生成方法、图像生成系统和记录介质
JP6454991B2 (ja) 印刷条件設定装置、印刷条件設定システム、印刷条件設定方法
JP2017028462A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP6439451B2 (ja) 操作システム及び画像形成装置
JP5550111B2 (ja) 撮像装置、撮像方法、及びプログラム
JP5445858B2 (ja) 入力支援装置、入力支援方法、及びプログラム
CN107533361B (zh) 图像形成装置
KR20200111144A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP6038359B2 (ja) 情報処理装置、情報処理方法
JP2007310789A (ja) インタフェースデバイス
JP7434756B2 (ja) 印刷仕上がり提示装置、印刷仕上がり提示方法、及びプログラム
JP2015103874A (ja) システム、装置およびその制御方法、並びにプログラム
JP2016131272A (ja) 画像形成装置
JP2018073071A (ja) 情報処理装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160222

R150 Certificate of patent or registration of utility model

Ref document number: 5900468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150