JP6561938B2 - 印刷物処理システム - Google Patents

印刷物処理システム Download PDF

Info

Publication number
JP6561938B2
JP6561938B2 JP2016155067A JP2016155067A JP6561938B2 JP 6561938 B2 JP6561938 B2 JP 6561938B2 JP 2016155067 A JP2016155067 A JP 2016155067A JP 2016155067 A JP2016155067 A JP 2016155067A JP 6561938 B2 JP6561938 B2 JP 6561938B2
Authority
JP
Japan
Prior art keywords
image data
unit
finger
image
printed matter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016155067A
Other languages
English (en)
Other versions
JP2018022453A (ja
Inventor
昌人 塩瀬
昌人 塩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016155067A priority Critical patent/JP6561938B2/ja
Publication of JP2018022453A publication Critical patent/JP2018022453A/ja
Application granted granted Critical
Publication of JP6561938B2 publication Critical patent/JP6561938B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、印刷物処理システム、特に、印刷物に電子化文書と同様のユーザーインタラクションを導入する技術に関する。
近年、多くの文書が電子化されてアーカイブされるようになったことで、電子化文書の管理、特に紙媒体文書と電子化文書との対応関係の管理が重要になっている。例えば、下記特許文献1には、紙媒体文書と電子化文書との対応関係を管理し、ペン型入力装置を紙媒体上に置くと、対応する電子化文書のどの部分が指されたのかがわかる電子文書管理システムが開示されている。
特開2006−285908号公報
紙媒体文書(印刷物)はイメージスキャナーでスキャンすることにより容易に電子化することができる。また、OCR(Optical Character Recognition)技術を利用することにより、文書中の文字をテキストデータ化することもできる。このように、紙媒体文書を電子化及びテキストデータ化してコンピューターで処理可能にすることで、電子化文書を全文検索したり、電子化文書中のテキストを検索キーにしてインターネットで情報検索したり、得られた検索結果を電子化文書上に表示させたりするといった電子化文書の2次利用がしやすくなる。
一方で、端末の画面が小さいため電子化文書の全体を表示することができない、あるいは一度に多数の電子化文書を広げて表示することができないなどの理由により、電子化文書よりもオリジナルの紙媒体文書の方が好んで利用されることも多い。しかし、紙媒体文書には、電子化文書のような全文検索、インターネット検索、別の情報の付加などのコンピューター技術を活用した2次利用ができないといった不便さがある。上記特許文献1によると、上記のように、ペン型入力装置を紙媒体上に置くと、対応する電子化文書のどの部分が指されたのかがわかるようになっているが、それには紙媒体に所定フォーマットのアドレス情報が印刷されている必要があり、利用範囲は限定的である。
本発明は、上記の問題を解決するためになされたものであり、紙媒体に示された情報に基づいて、インターネット検索やコンピューター技術の活用を容易に可能にすることを目的とする。
本発明の一局面に係る印刷物処理システムは、眼鏡型ウェアラブル端末と、印刷物を光学的に読み取って前記印刷物の画像データを生成するイメージスキャナーと、前記画像データ中の文字を認識して前記画像データに認識したテキストを重畳したテキスト付き画像データを生成するOCR装置と、前記テキスト付き画像データを保存する画像データ保存装置とを備え、前記眼鏡型ウェアラブル端末は、ユーザーによる視認が可能にユーザーの視界に映像を重ねて表示する表示部と、前記表示部の投影映像の表示を制御する表示制御部と、ユーザーの視界映像を撮像する撮像部と、前記画像データ保存装置に保存されたテキスト付き画像データのうち前記視界映像に写った印刷物に対応するテキスト付き画像データを特定する画像データ特定部と、前記視界映像に写った印刷物の上に置かれた指の先端位置を特定する指先端位置特定部と、前記特定されたテキスト付き画像データを参照して前記特定された指の先端位置において指で隠された文字を特定する文字特定部と、前記特定された文字を検索キーとして情報検索を行う情報検索部とを有し、前記表示制御部は、前記情報検索部による検索結果を前記表示部に表示させるものである。
本発明によれば、紙媒体に示された情報に基づいて、インターネット検索やコンピューター技術の活用が容易に可能になる。これにより、例えば、印刷物に電子化文書と同様なユーザーインタラクションを導入することが可能になる。
本発明の一実施形態に係る印刷物処理システムを含むシステムの概要図である。 印刷物処理システムにおける眼鏡型ウェアラブル端末の主要内部構成を示す機能ブロック図である。 眼鏡型ウェアラブル端末の動作例を示すフローチャートである。 印刷物の一例である路線図を示す図である。 図4の路線図上で出発地を指定しているときに眼鏡型ウェアラブル端末を通して視認されるユーザーの視界を示す図である。 図4の路線図上で目的地を指定しているときに眼鏡型ウェアラブル端末を通して視認されるユーザーの視界を示す図である。 経路探索完了時に眼鏡型ウェアラブル端末を通して視認されるユーザーの視界を示す図である。 各種情報取得時に眼鏡型ウェアラブル端末を通して視認されるユーザーの視界を示す図である。
以下、本発明の一実施形態に係る印刷物処理システムについて図面を参照して説明する。図1は、本発明の一実施形態に係る印刷物処理システムの概要図である。
本実施形態に係る印刷物処理システムは、眼鏡型ウェアラブル端末1と、複合機2と、サーバー装置3とを備える。眼鏡型ウェアラブル端末1と、複合機2と、サーバー装置3とは、LAN又はインターネットなどのネットワーク4に接続されて互いに通信できるようになっている。
眼鏡型ウェアラブル端末1は、眼鏡のように装着してユーザーの視界に映像を重ねて表示することができる端末である。ユーザーは、眼鏡型ウェアラブル端末1を頭部に装着して周りを見ることで、視界内にあるものに眼鏡型ウェアラブル端末1が生成した映像を重ねて見ることができる。なお、眼鏡型ウェアラブル端末1は、無線100により複合機2やネットワーク4に接続して通信することができる。
複合機2は、プリンター、コピー機、ファクシミリ、イメージスキャナーなどの機能が一つにまとめられた機器である。これら機能のうちイメージスキャナーが本実施形態に関係する。複合機2は、イメージスキャナー21,OCR装置22、及び画像データ保存装置23を備える。イメージスキャナー21は、原稿(印刷物5)を光学的に読み取って印刷物5の画像データを生成するものである。複合機2において原稿読み取りはユーザーがプラテンガラス上に原稿を1枚ずつセットして行う他、ADF(Auto Document Feeder)に複数の原稿をセットすることで1枚ずつ自動的に読み取らせることもできる。
更に複合機2はOCR装置22を備える。OCR装置22は、イメージスキャナー21により生成された画像データ中の文字をOCR機能により認識してテキストデータを抽出するものであり、ソフトウェア若しくはハードウェア又はそれらの組み合わせで構成することができる。
本実施形態で使用するOCR装置22は、画像データと、当該画像データをOCR機能により変換したテキストデータとを組み合わせて、当該画像データに当該認識したテキストを重畳したテキスト付き画像データを生成する。すなわち、テキスト付き画像データでは、画像データ中の各文字を表す画像部分にその文字のテキストデータが重畳されている。
更に複合機2は画像データ保存装置23を備える。画像データ保存装置23は、OCR装置22が生成したテキスト付き画像データを保存する機器であり、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリー、或いは、それらの組み合わせによって構成される。また、画像データ保存装置23は、予め定められた各種の電車路線図、地図等の画像データを記憶している。
サーバー装置3は、経路探索、画像検索、情報検索などの各種検索サービスやSNSプラットフォームなどを提供するコンピューター装置である。また、サーバー装置3は、様々なユーザーの投稿情報を保存するデータベースでもある。
本実施形態において、眼鏡型ウェアラブル端末1は、印刷物5に電子化文書と同様のユーザーインタラクションを導入する。すなわち、ユーザーは、眼鏡型ウェアラブル端末1を装着して印刷物5を見ることで印刷物5を電子化文書のように取り扱うことができる。そのために眼鏡型ウェアラブル端末1は次のような構成を有する。
図2は、眼鏡型ウェアラブル端末1の主要内部構成を示す機能ブロック図である。眼鏡型ウェアラブル端末1は、制御部101、表示部102、撮像部103、通信部104、メモリー105、画像データ特定部106、指先端位置特定部107、文字特定部108、情報検索部109、表示制御部110、及び指ジェスチャー特定部111を備える。これら構成要素は、内部バス113で互いに接続されている。
制御部101は、眼鏡型ウェアラブル端末1の全体的な動作制御を司る。
表示部102は、ユーザーによる視認が可能に映像を表示する。本実施形態では、表示部102を、ユーザーの網膜に映像を投影するデバイス(投影装置)からなるものとする。表示部102が、ユーザーの網膜に映像を投影することにより、眼鏡型ウェアラブル端末1で生成された映像を仮想現実としてユーザーの目の前に表示する。
撮像部103は、ユーザーの視界映像を撮像するデバイスであり、例えば、小型CCDカメラである。
通信部104は、複合機2やサーバー装置3などの他の機器と無線通信するデバイスである。無線通信方式として、無線LAN、Bluetooth(登録商標)、ZigBee(登録商標)などが利用可能である。
メモリー105は、ROMやフラッシュメモリーなどの不揮発性メモリーと、RAMなどの揮発性メモリーとを含むデバイスである。メモリー105は、眼鏡型ウェアラブル端末1の動作プログラムを保持する。
画像データ特定部106は、画像データ保存装置23に保存されたテキスト付き画像データのうち、撮像部103により撮像された視界映像に写った印刷物5、すなわち、ユーザーが今見ている印刷物5に対応するテキスト付き画像データを特定する。例えば、画像データ特定部106は、パターンマッチング技術を用いて、撮像部103による印刷物の撮像で得られた画像データと、画像データ保存装置23に保存されたテキスト付き画像データとを対比して、撮像部103による印刷物の撮像で得られた画像データに最も近似するテキスト付き画像データを特定する。
指先端位置特定部107は、撮像部103により撮像された視界映像に写った印刷物5の上に置かれた指の先端位置を特定する。すなわち、指先端位置特定部107は、ユーザーが今見ている印刷物5において任意の箇所を指で指し示したとき、その指の先端位置を特定する。具体的には、指先端位置特定部107は、例えばパターンマッチング技術により、画像データ保存装置23に記憶されている上記各種の電車路線図及び地図等の画像データの中から、撮像部103により撮像された視界映像に写った、上記指の先端を含む印刷物5の画像データに近似する画像データを検出する。そして、指先端位置特定部107は、当該検出した画像データと、上記指の先端を含む印刷物5の画像データとで相違する画像データ部分を抽出し、当該抽出した画像データ部分の印刷物5における位置を、印刷物5の上に置かれた指の先端位置として特定する。
文字特定部108は、画像データ特定部106により特定されたテキスト付き画像データにおいて、指先端位置特定部107により特定された指の先端位置に配置されているテキストデータが示す文字を特定する。
情報検索部109は、文字特定部108により特定された文字を検索キーとして、通信部104及びネットワーク4を通じてサーバー装置3にアクセスして情報検索を行う。また、情報検索部109は、下記の仮想のグラフィカルユーザーインターフェース(仮想GUI)に対するユーザー操作に応じて情報検索を行う。
表示制御部110は、表示部102に映像を表示させて、ユーザーの視界内に仮想現実を表示させる。具体的には、表示制御部110は、情報検索部109による検索結果を表示部102に表示させたり、仮想GUIを表示部102に表示させたりする。
指ジェスチャー特定部111は、撮像部103により撮像された視界映像に写った指のジェスチャーを特定する。具体的には、指ジェスチャー特定部111は、予め定められた一般的に指の画像との対比や、撮像部103により直前に撮像された画像との対比により、指の本数、指の動き、指の向き、指の移動方向などを検出して、指のジェスチャーを特定する。本実施形態では、この指ジェスチャーにより複雑な検索条件を指定することができる。
なお、画像データ特定部106、指先端位置特定部107、文字特定部108、情報検索部109、表示制御部110、及び指ジェスチャー特定部111は、専用のハードウェア回路で実現できる他、コンピュータープログラムとしてメモリー105に記憶しておき、図略のCPUによってメモリー105から読み出されて実行されるように実現することもできる。
次に、眼鏡型ウェアラブル端末1を用いた情報検索について説明する。図3は、眼鏡型ウェアラブル端末1の動作例を示すフローチャートである。以下、印刷物5として図4に示したような路線図を使用し、紙媒体の路線図を参照して経路探索を行う例について説明する。なお、印刷物5は、書籍のページでもよいし、ハードコピーでもよい。
ユーザーが眼鏡型ウェアラブル端末1を装着することで撮像部103はユーザーの視界映像を撮像する(S11)。ユーザーが印刷物5を見ることで、視界映像に印刷物5が写り込む。
画像データ特定部106は、撮像部103により撮像された視界映像において印刷物5を認識し、画像データ保存装置23に保存されたテキスト付き画像データと、視界映像から認識した印刷物5の当該画像とを比較して、画像データ保存装置23に保存されたテキスト付き画像データのうちユーザーが今見ている印刷物5に対応する画像データを特定する(S12)。なお、テキスト付き画像データの特定処理に先だって、ユーザーが複合機2に印刷物5を読み取らせてそのテキスト付き画像データが画像データ保存装置23に保存されているものとする。
指先端位置特定部107は、撮像部103により撮像された視界映像において印刷物5を認識し、その上に置かれた指を認識し、その指の先端位置を特定する(S13)。
図5は、図4の路線図(印刷物5)上で出発地を指定しているときに眼鏡型ウェアラブル端末1を通して視認されるユーザーの視界を示す図である。図4の路線図(印刷物)を用いて経路探索を行う場合、表示制御部110が表示部102に仮想GUI11を表示させることで、図5に示すようにユーザーには仮想GUI11が仮想現実として見える。ここで例えば、ユーザーは出発地を指定するために今見ている印刷物5において左手201の指202(人差し指)で「天王寺駅」の画像部分d11を指し示しているものとする。このとき、指先端位置特定部107は、撮像部103により撮像された視界映像に写った印刷物5において「天王寺駅」の画像部分d11に指202の先端があると特定する。
指先端位置特定部107が指202の先端位置を特定すると、文字特定部108は、画像データ特定部106により特定されたテキスト付き画像データを参照して、指先端位置特定部107により特定された指202の先端位置において指202で隠された文字を特定する(S14)。例えば、図4の路線図を複合機2で読み取って生成されたテキスト付き画像データにおいて、「天王寺駅」の画像部分d11には「天王寺」というテキストデータが重畳されている。従って、図5に示すようにユーザーが印刷物5中の天王寺駅を指202で指し示している場合、文字特定部108は、テキスト付き画像データを参照して指202の先端位置において指202で隠された文字が「天王寺」という駅名であると特定することができる。
文字特定部108により文字(ここでは駅名)が特定されると、指ジェスチャー特定部111は、撮像部103により撮像された視界映像に写った指のジェスチャーを特定する(S15)。図5の場合、指ジェスチャー特定部111は、1本指で印刷物5上の任意の箇所を指し示していると特定する。
情報検索部109は、文字特定部108及び指ジェスチャー特定部111の結果を受けて検索条件を設定する(S16)。図5の場合、情報検索部109は、天王寺駅を経路探索の出発地として設定する。
この時点においてまだ目的地が指定されていないため、情報検索部109は経路探索を開始せずに(S17でNO)、処理はステップS13に戻って目的地の指定待ちとなる。
図6は、図4の路線図上で目的地を指定しているときに眼鏡型ウェアラブル端末を通して視認されるユーザーの視界を示す図である。図4の路線図を用いて経路探索を行う場合、表示制御部110が表示部102に仮想GUI12を表示させることで、図6に示すようにユーザーには仮想GUI12が仮想現実として見える。ここで例えば、ユーザーは目的地を指定するために今見ている印刷物5において左手201の指202(人差し指)と指203(中指)で「大阪駅」の画像部分d12を指し示しているものとする。このとき、指先端位置特定部107は、撮像部103により撮像された視界映像に写った印刷物5において「大阪駅」の画像部分d12に指202及び203の先端があると特定する。
指先端位置特定部107が指202及び203の先端位置を特定すると、文字特定部108は、画像データ特定部106により特定されたテキスト付き画像データを参照して、指先端位置特定部107により特定された指202及び203の先端位置において指202及び203で隠された文字を特定する(S14)。例えば、図4の路線図を複合機2で読み取って生成されたテキスト付き画像データにおいて「大阪駅」の画像部分には「大阪」というテキストデータが重畳されている。従って、図6に示すようにユーザーが印刷物5中の「大阪駅」を指202及び203で指し示している場合、文字特定部108は、テキスト付き画像データを参照して指202及び203の先端位置において指202及び203で隠された文字が「大阪」という駅名であると特定することができる。
文字特定部108により文字(ここでは駅名)が特定されると、指ジェスチャー特定部111は、撮像部103により撮像された視界映像に写った指のジェスチャーを特定する(S15)。図6の場合、指ジェスチャー特定部111は、2本指で印刷物5上の任意の箇所を指し示していると特定する。文字特定部108は、当該指ジェスチャー特定部111による特定結果に基づいて、1本指で指し示された位置について特定された文字が出発地を示し、2本指で指し示された位置について特定された文字が目的地を示すものとして特定する。
情報検索部109は、文字特定部108及び指ジェスチャー特定部111の結果を受けて検索条件を設定する(S16)。本実施形態では、情報検索部109は、「天王寺駅」を経路探索の出発地として設定し、「大阪駅」を経路探索の目的地として検索条件を設定する。
経路探索の出発地と目的地が指定されると、表示制御部110は、表示部102に仮想GUI13を表示させる(図6)。仮想GUI13においてユーザーにより指定された出発地と目的地が表示され、また、検索開始ボタン14が含まれている。情報検索部109は、ユーザーが検索開始ボタン14を押す操作を検知すると(S17でYES)、経路探索を実行する(S18)。具体的には、情報検索部109は、通信部104及びネットワーク4を通じて、経路探索サービスを提供するサーバー装置3にアクセスし、出発地及び目的地をサーバー装置3に送信する。サーバー装置3は、与えられた条件で経路を探索してその結果を眼鏡型ウェアラブル端末1に送信する。
なお、出発地及び目的地が指定されてから検索開始ボタン14が一定時間以上押されなかった場合には、情報検索部109は自動的に経路探索を開始するようにしてもよい。
表示制御部110は、サーバー装置3から通信部104及びネットワーク4を通じて受信した検索結果を表示部102に表示させる(S19)。図7は、経路探索完了時に眼鏡型ウェアラブル端末1を通して視認されるユーザーの視界を示す図である。経路探索結果は仮想GUI15として表示される。
また、情報検索部109は、経路探索に付随して他人の投稿情報を検索してユーザーに提示するようにしてもよい。例えば、表示制御部110は、図7に示したように、経路探索結果を示す仮想GUI15におすすめ情報ボタン16を設けておく。情報検索部109は、ユーザーがおすすめ情報ボタン16を押す操作を検知すると、通信部104及びネットワーク4を通じて、投稿情報を保存するサーバー装置3にアクセスし、サーバー装置3から他人によるおすすめの乗り方やホテル情報やその他コメントなどの各種情報を取得する。そして、表示制御部110は、サーバー装置3から取得した各種情報を表示部102に表示させる。図8は、各種情報取得時に眼鏡型ウェアラブル端末1を通して視認されるユーザーの視界を示す図である。例えば、仮想GUI17により、上記各種情報がユーザーに提示される。
以上のように本実施形態によれば、眼鏡型ウェアラブル端末1を使用してユーザーが印刷物5を視認する場合において、紙媒体としての印刷物5に示された情報に基づいて、インターネット検索やコンピューター技術の活用が容易に可能になる。これにより、印刷物5に電子化文書と同様なユーザーインタラクションを導入して、印刷物5を用いて様々な情報検索ができるようになる。
なお、本発明は上記実施の形態の構成に限られず種々の変形が可能である。例えば、図6に示した経路探索において経由地も指定できるようにしてもよい。また、図7に示した経路探索結果において各経路の料金を表示するようにしてもよい。また、上記説明では経路探索において出発地を先に指定して目的地を後で指定するとしたが、出発地及び目的地は指ジェスチャーで特定することができるため、指定順序は任意である。また、上記説明では1枚の路線図で出発地及び目的地を指定するとしたが、出発地と目的地をそれぞれ別の路線図で指定することも可能である。すなわち、ユーザーの目の前に複数の路線図を同時に広げてもよいし、出発地及び目的地で路線図を差し替えるようにしてもよい。
路線図によっては主要駅しか印刷されていないことがある。そのような場合には路線図上で主要駅間を指で指し示すことで、路線図に表示されていない駅を検索してユーザーに提示することができる。
なお、図1乃至図8を用いて上記実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。
1 眼鏡型ウェアラブル端末
21 イメージスキャナー
22 OCR装置
23 画像データ保存装置
3 サーバー装置
5 印刷物
102 表示部
103 撮像部
106 画像データ特定部
107 指先端位置特定部
108 文字特定部
109 情報検索部
110 表示制御部
111 指ジェスチャー特定部

Claims (6)

  1. 眼鏡型ウェアラブル端末と、
    印刷物を光学的に読み取って前記印刷物の画像データを生成するイメージスキャナーと、
    前記画像データ中の文字を認識して前記画像データに認識したテキストを重畳したテキスト付き画像データを生成するOCR装置と、
    前記テキスト付き画像データを保存する画像データ保存装置とを備え、
    前記眼鏡型ウェアラブル端末は、
    表示部と、前記表示部の投影映像の表示を制御して、ユーザーによる視認が可能にユーザーの視界に映像を重ねて前記表示部に表示させる表示制御部と、ユーザーの視界映像を撮像する撮像部と、前記画像データ保存装置に保存されたテキスト付き画像データのうち前記視界映像に写った印刷物に対応するテキスト付き画像データを特定する画像データ特定部と、前記視界映像に写った印刷物の上に置かれた指の先端位置を特定する指先端位置特定部と、前記特定されたテキスト付き画像データを参照して前記特定された指の先端位置において指で隠された文字を特定する文字特定部と、前記特定された文字を検索キーとして情報検索を行う情報検索部とを有し、
    前記表示制御部は、前記情報検索部による検索結果を前記表示部に表示させる印刷物処理システム。
  2. 前記表示制御部は、予め定められた仮想的なグラフィカルユーザーインターフェースを前記表示部に表示させ、
    前記情報検索部は、前記グラフィカルユーザーインターフェースに対するユーザー操作に応じて情報検索を行う請求項1に記載の印刷物処理システム。
  3. 前記印刷物が路線図であり、
    前記文字特定部は駅名を特定する請求項1に記載の印刷物処理システム。
  4. 前記眼鏡型ウェアラブル端末は、前記視界映像に写った指のジェスチャーを特定する指ジェスチャー特定部を有し、
    前記文字特定部は、前記指ジェスチャー特定部により特定された指ジェスチャーに応じて出発地、目的地及び経由地を特定し、
    前記情報検索部は、検索サービスを提供するサーバー装置にアクセスして、前記特定された出発地、目的地及び経由地を条件に経路を探索する請求項3に記載の印刷物処理システム。
  5. 前記情報検索部は、投稿情報を保存するサーバー装置にアクセスして経路に関連する情報を取得し、
    前記表示制御部は、前記情報検索部が取得した情報を前記表示部に表示させる請求項4に記載の印刷物処理システム。
  6. 前記指先端位置特定部は、前記視界映像に写った印刷物を前記撮像部が撮像して得られた画像データと、前記画像データ保存装置に保存されている当該印刷物に対応する画像データとを対比することで、前記視界映像に写った印刷物の上に置かれた指の先端位置を特定する請求項1乃至請求項5のいずれかに記載の印刷物処理システム。
JP2016155067A 2016-08-05 2016-08-05 印刷物処理システム Expired - Fee Related JP6561938B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016155067A JP6561938B2 (ja) 2016-08-05 2016-08-05 印刷物処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016155067A JP6561938B2 (ja) 2016-08-05 2016-08-05 印刷物処理システム

Publications (2)

Publication Number Publication Date
JP2018022453A JP2018022453A (ja) 2018-02-08
JP6561938B2 true JP6561938B2 (ja) 2019-08-21

Family

ID=61164522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016155067A Expired - Fee Related JP6561938B2 (ja) 2016-08-05 2016-08-05 印刷物処理システム

Country Status (1)

Country Link
JP (1) JP6561938B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6589038B1 (ja) 2018-12-19 2019-10-09 株式会社メルカリ ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160912A (ja) * 1993-12-03 1995-06-23 Omron Corp 自動券売機
US20120042288A1 (en) * 2010-08-16 2012-02-16 Fuji Xerox Co., Ltd. Systems and methods for interactions with documents across paper and computers
JP5989725B2 (ja) * 2014-08-29 2016-09-07 京セラドキュメントソリューションズ株式会社 電子機器及び情報表示プログラム
US9924143B2 (en) * 2014-09-23 2018-03-20 Intel Corporation Wearable mediated reality system and method

Also Published As

Publication number Publication date
JP2018022453A (ja) 2018-02-08

Similar Documents

Publication Publication Date Title
US10339383B2 (en) Method and system for providing augmented reality contents by using user editing image
JP6446766B2 (ja) プログラム、表示制御装置、記録媒体及び表示制御システム
US20130208007A1 (en) Position-related information registration apparatus, position-related information registration system, position-related information registration and display system, and recording medium
US10084936B2 (en) Display system including an image forming apparatus and a display apparatus
JP2018112802A (ja) 情報提供装置
US20170308254A1 (en) Image display control device, image display control method, image display control program, and recording medium having the program stored thereon
JP2013255014A (ja) 画像処理システム、撮像装置、およびサーバ装置
JP2018107485A (ja) 認証設定システムおよび画像形成装置
JP6253354B2 (ja) 帳票読取装置、プログラムおよび帳票読取システム
JP2017045181A (ja) 画像処理装置、画像形成装置、画像処理方法、および制御プログラム
JP6561938B2 (ja) 印刷物処理システム
US20140376042A1 (en) Image forming system, image forming apparatus, remote control apparatus, and recording medium
JP6247880B2 (ja) 名刺情報管理システム、名刺情報管理方法、名刺情報出力装置、端末装置、画像形成装置、および名刺情報出力方法
JP2016158108A (ja) 頭部装着型表示装置、情報処理システム、および情報処理方法
JP2015204035A (ja) コンテンツ表示装置およびコンテンツ表示装置の制御プログラム
JP6155893B2 (ja) 画像処理装置、及びプログラム
JP2007011762A (ja) 領域抽出装置及び領域抽出方法
JPWO2010134159A1 (ja) 情報処理装置、装置検索方法、装置検索支援方法および記録媒体
JP6790396B2 (ja) 情報処理装置、情報処理システム、サービス処理実行制御方法及びプログラム
JP6610192B2 (ja) 情報処理装置、情報処理システム及びプログラム
JP2019197337A (ja) メタデータ生成装置、画像表示システム、メタデータ生成方法、及びプログラム
US20230316667A1 (en) Information processing apparatus, non-transitory computer readable medium storing information processing program, and information processing method
JP5804430B2 (ja) 書籍情報処理装置、書籍情報処理方法、およびプログラム
JP2019040401A (ja) 情報管理装置、情報管理システム、および情報管理方法
US20240040232A1 (en) Information processing apparatus, method thereof, and program thereof, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190708

R150 Certificate of patent or registration of utility model

Ref document number: 6561938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees